WO2018190190A1 - 眠気推定装置 - Google Patents

眠気推定装置 Download PDF

Info

Publication number
WO2018190190A1
WO2018190190A1 PCT/JP2018/014224 JP2018014224W WO2018190190A1 WO 2018190190 A1 WO2018190190 A1 WO 2018190190A1 JP 2018014224 W JP2018014224 W JP 2018014224W WO 2018190190 A1 WO2018190190 A1 WO 2018190190A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
sleepiness
estimation
unit
Prior art date
Application number
PCT/JP2018/014224
Other languages
English (en)
French (fr)
Inventor
和実 菅谷
安士 光男
皓太 垣坂
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2018190190A1 publication Critical patent/WO2018190190A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators

Definitions

  • the present invention relates to a drowsiness estimation apparatus that estimates the drowsiness of a user.
  • Patent Document 1 describes that a driver is classified into one of a plurality of groups based on biological information detected in real time from the driver.
  • the driver classification is performed according to a rule determined by learning using, for example, the k-means method. Then, it is described that an optimal feature amount is selected for each group and the sleepiness level of the driver is estimated.
  • biometric information when one person is sleepy may be similar to biometric information when another person is not sleepy, and drivers with the same biometric features are accurately classified using only biometric information. It can be difficult. For this reason, if the driver is classified using only biological information as in Patent Document 1 and sleepiness is estimated using the feature amount for each group, the estimation result may be inaccurate.
  • an object of the present invention is to provide a sleepiness estimation apparatus that can estimate sleepiness with high accuracy, for example.
  • the invention according to claim 1 relates to a biometric information acquisition unit that acquires biometric information of a user, a user information acquisition unit that acquires user information including life information of the user, and sleepiness
  • An estimation unit that estimates sleepiness of the user based on the predetermined parameter corresponding to the class in which the user is classified based on at least the user information among a plurality of classes according to a trend, and the biological information; It is a drowsiness estimation device characterized by comprising.
  • the invention according to claim 8 includes: a subject information acquisition unit that acquires biological information of a plurality of subjects, and subject information including life information of the subjects, the biological information, and the subject information.
  • a generation unit that generates a classification condition for classifying a user into one of a plurality of classes according to a tendency related to sleepiness, and a condition output unit that outputs the classification condition in response to an external request This is an information processing apparatus.
  • the invention according to claim 9 includes: a subject information acquisition unit that acquires biological information of a plurality of subjects, and subject information including life information of the subjects, the biological information, and the subject information.
  • a generation unit that generates a classification condition for classifying a user into any one of a plurality of classes according to a tendency related to sleepiness, and user information acquisition that acquires user information including the biological information of the user and the life information The user based on the biometric information, a predetermined parameter corresponding to a class in which the user is classified based on at least user information of the plurality of classes and the classification condition generated by the generation unit, and the biological information
  • An information processing apparatus comprising: an estimation unit that estimates sleepiness of a child; and a sleepiness output unit that outputs information about sleepiness estimated by the estimation unit .
  • the invention described in claim 10 is a sleepiness estimation method executed by a sleepiness estimation apparatus for estimating sleepiness of a user, the biological information acquisition step of acquiring the user's biological information, and the user's life information
  • a user information acquisition step of acquiring user information including: a predetermined parameter corresponding to a class in which the user is classified based on at least the user information among a plurality of classes according to a tendency related to sleepiness; and the biological information
  • the invention described in claim 11 is a sleepiness estimation program characterized in that the sleepiness estimation method according to claim 9 is executed by a computer.
  • FIG. 3 is a flowchart of a parameter calculation operation for teachers when performing supervised machine learning in the information processing apparatus illustrated in FIG. 1. It is explanatory drawing of the calculation operation
  • FIG. 3 is a parameter classification table obtained by the flowchart of FIG. 2.
  • FIG. 3 is a flowchart of a parameter classifying method obtained in the flowchart of FIG. 2. It is a flowchart of the production
  • the biological information acquisition unit acquires the user's biological information
  • the user information acquisition unit acquires the user information including the user's life information.
  • the estimation unit calculates the current sleepiness of the user based on the predetermined parameter corresponding to the class in which the user is classified based on at least the user information and the biological information among the plurality of classes corresponding to the tendency related to sleepiness. presume.
  • sleepiness can be estimated by the parameter which considered user information including life information, such as ease of feeling of fatigue in specific activities, such as a driving
  • the estimation unit may classify users based on the user's biological information and user information. In this way, it is possible to further improve the classification accuracy of the user by considering the biological information not only during sleepiness estimation but also during classification, and improve the accuracy of sleepiness estimation.
  • the estimation unit may acquire environmental information around the user by the environmental information acquisition unit, and classify the users based on the environmental information, the user's biological information, and the user information.
  • the user's classification accuracy is further improved by taking into account environmental information such as time, weather, or the road (highway / general road) that is being traveled, and the accuracy of sleepiness estimation is improved. Is possible.
  • the estimation unit may estimate the user's sleepiness based on a calculation result of an estimation formula based on a predetermined parameter corresponding to the class in which the user is classified and the user's biological information. In this way, drowsiness can be estimated by inputting parameters and biological information as variables in the estimation formula.
  • a storage unit that stores classification conditions for classifying users may be further provided. By doing so, it is possible to have a classification condition for classifying the user in advance, and for example, communication for acquiring the classification condition becomes unnecessary.
  • the image processing apparatus further includes a classification condition acquisition unit that externally acquires a classification condition for classifying the user, and the estimation unit estimates based on the parameters obtained based on the classification condition acquired by the classification condition acquisition unit and the biological information of the user
  • the user's current sleepiness may be estimated from the calculation result of the formula.
  • the sleepiness estimation device is mounted on a vehicle, the biological information acquisition unit acquires biological information of the driver of the vehicle, the user information acquisition unit acquires user information of the driver, and the estimation unit includes the driver.
  • the sleepiness may be estimated. In this way, drowsiness can be estimated with high accuracy during driving of a vehicle such as an automobile.
  • the subject information acquisition unit acquires biological information of a plurality of subjects and subject information including the life information of the subjects
  • the generation unit includes biological information of the subjects and subject information.
  • a classification condition for classifying the user into one of a plurality of classes corresponding to the tendency related to sleepiness is generated.
  • the condition output unit outputs the classification condition in response to an external request.
  • the subject information acquisition unit acquires biological information of a plurality of subjects and subject information including the life information of the subjects, and the generation unit includes biological information of the subjects and subject information. Based on the above, a classification condition is generated for classifying the user into one of a plurality of classes corresponding to the tendency related to sleepiness.
  • the user information acquisition unit acquires user information including the user's biometric information and life information, and the estimation unit determines whether the user is based on the classification condition generated by at least user information and the generation unit among a plurality of classes.
  • the user's sleepiness is estimated based on predetermined parameters corresponding to the classified class and the biological information.
  • the sleepiness output unit outputs information about sleepiness estimated by the estimation unit.
  • the information processing apparatus can perform processing from the user's classification condition to sleepiness estimation. Therefore, for example, by configuring the information processing apparatus with a server or the like, it is possible to estimate and return sleepiness from biometric information obtained from the user terminal, and the user terminal can be reduced in size. Further, by configuring the server or the like, it is not necessary to update data on the user terminal side, and the maintenance cost can be reduced. Furthermore, since it is easy to accumulate a large amount of data, the accuracy of data can be improved and the accuracy of estimating sleepiness can be improved.
  • the user's biological information is acquired in the biological information acquisition step, and the user information including the user's life information is acquired in the user information acquisition step. Then, the current sleepiness of the user is determined based on the predetermined parameter corresponding to the class in which the user is classified based on at least user information among the plurality of classes corresponding to the tendency regarding sleepiness in the estimation step, and the biological information. presume.
  • sleepiness can be estimated by the parameter which considered user information including life information, such as ease of feeling of fatigue in specific activities, such as a driving
  • a sleepiness estimation program that causes a computer to execute the above-described sleepiness estimation method may be used.
  • sleepiness can be estimated by the parameter which considered user information including life information, such as ease of feeling of fatigue in specific activities, such as a driving
  • the sleepiness estimation apparatus 10 includes a biological information acquisition unit 11, a driver profile acquisition unit 12, a travel environment information acquisition unit 13, a user class classification unit 14, a sleepiness estimation unit 15, and a warning unit. 16 and a communication unit 17.
  • the sleepiness estimation apparatus 10 can communicate with the server 20 via a network such as the Internet.
  • the drowsiness estimation device 1 having the configuration shown in FIG. 1 may be mounted on an in-vehicle device such as a car navigation device, or configured as an application program (application) such as a mobile device such as a smartphone or a personal computer. Also good.
  • an in-vehicle device such as a car navigation device
  • an application program application
  • mobile device such as a smartphone or a personal computer. Also good.
  • the biometric information acquisition unit 11 acquires biometric information of a user (a driver of a vehicle such as an automobile in this embodiment).
  • biometric information a user's electrocardiogram information (heart rate) is mentioned, for example.
  • This electrocardiogram information is acquired from an external heart rate sensor or the like.
  • the heart rate sensor is provided on a handle or a seat.
  • the heart rate sensor may be a wearable device such as a wristwatch type.
  • the driver profile acquisition unit 12 acquires a driver (driver) profile (user information).
  • the driver's profile refers to information that varies from person to person and hardly changes with time, such as the driver's age, sex, height, weight, ease of feeling fatigue or sleepiness during driving, and lifestyle habits. The ease of feeling tired or drowsy during driving here depends on the psychological feeling of the driver.
  • the driver profile is acquired when the user uses the driver profile for the first time, for example, in a questionnaire format. At the time of the second and subsequent use, the questionnaire result at the first use is stored, the user is identified by user authentication, and the stored result is read out.
  • the user authentication may be, for example, a user name or ID, or biometric authentication such as a fingerprint.
  • life information in the driver profile is referred to as life information in the driver profile.
  • the travel environment information acquisition unit 13 serving as an environment information acquisition unit is a travel environment such as time, weather, temperature, travel road type (highway / general road, etc.), traffic jam conditions, etc. from a car navigation device or a sensor mounted on the vehicle. Get information (environmental information around the user).
  • the user class classification unit 14 includes the biological information acquired by the biological information acquisition unit 11, the driver profile acquired by the driver profile acquisition unit 12, the traveling environment information acquired by the traveling environment information acquisition unit 13, and the classification of the server 20 described later. Using the classification conditions stored in the condition storage unit 23, the user (driver) is classified into a class to which the user currently belongs. And the result (class number etc.) is output.
  • the sleepiness estimation unit 15 selects a sleepiness estimation formula and parameters stored in the sleepiness estimation formula storage unit 24 of the server 20 according to the classification result of the user class classification unit 14, and the sleepiness estimation formula, parameters and biological information acquisition unit 11.
  • the driver's sleepiness is estimated from the biometric information acquired by the driver.
  • the warning unit 16 gives a warning according to the sleepiness level by displaying a message or warning light on the screen or the like, calling attention by voice or buzzer sound, or vibrating a vibrator built in the seat.
  • the communication unit 17 communicates with the server 20 via a network such as the Internet.
  • the communication unit 17 acquires a classification condition, a sleepiness estimation formula, and a parameter from the server 20 in response to a request from the user class classification unit 14 and the sleepiness estimation unit 15.
  • the server 20 includes a subject information acquisition unit 21, a classification condition generation unit 22, a classification condition storage unit 23, a drowsiness estimation formula storage unit 24, and a communication unit 25.
  • the subject information acquiring unit 21 acquires the subject's biological information, driver profile, and driving environment information.
  • a test subject is a several person in order to produce
  • a user whose sleepiness estimation apparatus 10 has acquired biometric information, driver profile, and travel environment information may be a part of the subject.
  • the classification condition generation unit 22 generates a classification condition for classifying a user into a class based on the biological information of the subject acquired by the subject information acquisition unit 21, the driver profile, and the driving environment information. Details of the classification conditions will be described later.
  • the classification condition storage unit 23 as a storage unit stores the classification condition generated by the classification condition generation unit 22 and outputs it in response to a request from the drowsiness estimation device 10.
  • the sleepiness estimation formula storage unit 24 stores a sleepiness estimation formula using biological information and parameters determined for each of a plurality of user classes. The sleepiness estimation formula will be described later.
  • the communication unit 25 as a condition output unit communicates with the drowsiness estimation device 10 via a network such as the Internet.
  • the communication unit 25 reads out and outputs the classification condition, the sleepiness estimation formula, and the parameter from the classification condition storage unit 23 and the sleepiness estimation formula storage unit 24 in response to a request from the sleepiness estimation apparatus 10.
  • Sp sleepiness (instantaneous value) at a specific time
  • a sensitivity
  • HR_ref a drowsiness reference heart rate
  • HR60 a heart rate per 60 seconds measured by a heart rate sensor
  • OFS is a threshold value.
  • Sensitivity also referred to as contrast sensitivity, gain, threshold magnification
  • threshold also referred to as bias, initial value, absolute threshold, stimulation threshold
  • Sensitivity a is a parameter indicating how much sleepiness changes with respect to a change in heart rate
  • threshold OFS is an offset added according to sleepiness when there is normal sleepiness.
  • the function max is a function whose return value is the maximum value among arguments separated by commas in parentheses.
  • HR60 ⁇ HR_ref the calculation result of HR_ref ⁇ HR60 is HR60>
  • HR_ref 0 is the return value.
  • the sleepiness reference heart rate HR_ref is a predetermined reference heart rate (biological information as a reference).
  • the range of heart rate that can be taken by one person is fixed, and it is known that the heart rate distribution is close to the normal distribution. It is also known that the heart rate is low when feeling sleepy. Therefore, it can be said that the sleepiness reference heart rate HR_ref, which is the heart rate when sleepiness occurs, is between the minimum heart rate and the average heart rate. Therefore, for example, a method for obtaining a predetermined function from the average heart rate and calculating based on the function, a method for adding a predetermined offset value to the minimum heart rate, a method for subtracting the standard deviation from the average heart rate, etc. It can be calculated by a method.
  • the sleepiness reference heart rate HR_ref may be set for each time or for each activity such as driving.
  • sleepiness is related to circadian rhythm of about 24 hours, circasemidian rhythm of about 12 hours, and ultradian rhythm of about 2 hours. Yes.
  • the nighttime sleepiness is consistent with a decrease in body temperature rhythm and reflects the circadian rhythm of body temperature. Afternoon sleepiness occurs about half a day after the nighttime minimum body temperature appears, and is considered to reflect circadian rhythm.
  • the sleepiness Sp calculated by the equation (1) is information obtained from the difference between the current heart rate and the sleepiness reference heart rate when the current heart rate is lower than the sleepiness reference heart rate HR_ref.
  • the drowsiness value is calculated so as to increase according to the rate at which the heart rate falls below the drowsiness reference heart rate.
  • S is the finally calculated sleepiness, and takes a numerical value in the range of 0 to 100 in this embodiment (the larger the value, the greater the sleepiness).
  • ki indicates adaptation (also referred to as familiarity, integral term, and recovery), and is a parameter determined by the user class classification unit 14.
  • Adaptation ki is a parameter indicating the ease of recovery from accumulation of sleepiness.
  • Ke is a constant provided as appropriate to bring the drowsiness S into a predetermined numerical range, and is set to “1” in this embodiment.
  • the expression (2) calculates the sleepiness S by adding the instantaneous sleepiness value Sp at the present time to the value obtained by multiplying the accumulation of sleepiness so far by the adaptation ki.
  • the user class classification unit 14 and the sleepiness estimation unit 15 function as an arithmetic device such as a CPU (Central Processing Unit).
  • the biometric information acquisition unit 11 functions as an interface that communicates with, for example, a heart rate sensor.
  • an input device such as a questionnaire response touch panel functions at the first time, and a CPU or the like that reads a questionnaire result stored in the storage device or the like from the second time on.
  • the travel environment information acquisition unit 13 functions as an interface for acquiring travel environment information from a car navigation device, a sensor, or the like.
  • the warning unit 16 functions as a display device, a speaker, a vibrator, and the like.
  • the communication unit 17 functions as an interface that communicates with the server 20.
  • the classification condition generation unit 22 functions as an arithmetic device such as a CPU (Central Processing Unit).
  • the subject information acquisition unit 21 includes, for example, an interface that communicates with a heart rate sensor, an input device such as a touch panel for questionnaire responses, a CPU that reads stored questionnaire results, an interface that acquires travel environment information from a car navigation device, a sensor, and the like Works.
  • a storage device such as a hard disk functions as the classification condition storage unit 23 and the drowsiness estimation formula storage unit 24.
  • the communication unit 25 functions as an interface that communicates with the sleepiness estimation apparatus 10.
  • the parameters used in the sleepiness estimation formula are classified into a plurality of classes in order to set optimal parameters. For that purpose, supervised machine learning is performed. Therefore, it is easy to set parameters after classifying into classes.
  • the above-described sensitivity a, threshold OFS, and adaptation ki are set as parameters.
  • the teacher parameters for supervised machine learning are calculated. This calculation method will be described with reference to the flowchart of FIG. This flowchart is executed in the classification condition generation unit 22 of the server 20.
  • step S101 the biological information (heart rate) of the subject is collected from the subject information acquisition unit 21.
  • the driver profile (subject information) of the subject and the driving environment information are also collected.
  • step S102 subjective sleepiness data is collected.
  • the subjective sleepiness data is data acquired by a reflection report by a subject, and is acquired by the subject information acquisition unit 21.
  • this subjective sleepiness data for example, data based on VAS (Visual Analog Scale) can be cited.
  • step S103 default values are set as parameters.
  • the parameters are the sensitivity a, the threshold OFS, and the adaptation ki described above. These parameters have default values in advance and are set.
  • step S104 drowsiness is calculated by the sleepiness estimation formula stored in the sleepiness estimation formula storage unit 24. That is, the drowsiness S is calculated by the above-described equations (1) and (2) using the default value parameters set in step S103.
  • step S105 it is determined whether or not there is an error between the sleepiness S calculated in step S104 and the subjective sleepiness data collected in step S102. If yes (if yes), the process proceeds to step S106. If yes (no), go to step S107.
  • step S106 since it is determined that there is an error as a result of step S104, parameters are set (adjusted), and the process returns to step S104. That is, as shown in FIG. 3, sleepiness is estimated based on the biological information and life information, and the parameters are adjusted so that there is no error compared to the introspection report.
  • step S107 since it is determined that there is no error as a result of step S104, parameters are determined.
  • sensitivity a, threshold OFS, and adaptation ki are classified into eight types of combinations of large (H) and small (L) compared to the average value (see FIG. 4). Since each parameter of the sensitivity a, the threshold value OFS, and the adaptation ki indicates a tendency related to sleepiness as described above, this classification includes a plurality of classes corresponding to the tendency related to sleepiness. The classification method will be described with reference to the flowchart of FIG.
  • step S201: yes When the sensitivity a is larger than the average (step S201: yes), the adaptation ki is larger than the average (step S202: yes), and the threshold OFS is larger than the average (step S203: yes), it is classified as class A. If the sensitivity a is larger than the average (step S201: yes), the adaptation ki is larger than the average (step S202: yes), and the threshold OFS is smaller than the average (step S203: no), the classification is made to class B.
  • step S201: yes When the sensitivity a is larger than the average (step S201: yes), the adaptation ki is smaller than the average (step S202: no), and the threshold OFS is larger than the average (step S204: yes), it is classified into class C. If the sensitivity a is larger than the average (step S201: yes), the adaptation ki is smaller than the average (step S202: no), and the threshold OFS is smaller than the average (step S204: no), it is classified as class D.
  • step S201: no When the sensitivity a is smaller than the average (step S201: no), the adaptation ki is larger than the average (step S205: yes), and the threshold OFS is larger than the average (step S206: yes), it is classified as class E. If the sensitivity a is smaller than the average (step S201: no), the adaptation ki is larger than the average (step S205: yes), and the threshold OFS is smaller than the average (step S206: no), it is classified as class F.
  • step S201: no When the sensitivity a is smaller than the average (step S201: no), the adaptation ki is smaller than the average (step S205: no), and the threshold OFS is larger than the average (step S207: yes), it is classified into class G. If the sensitivity a is smaller than the average (step S201: no), the adaptation ki is smaller than the average (step S205: no), and the threshold OFS is smaller than the average (step S207: no), the class H is classified.
  • step S301 the biometric information, driver profile, and driving environment information collected in step S101 of the flowchart of FIG. 3 are input.
  • step S302 the class classified by the flowchart of FIG.
  • step S ⁇ b> 303 supervised machine learning using each information input in step S ⁇ b> 301 is performed to generate a classifier (classification condition), which is stored in the classification condition storage unit 23.
  • the user class classification unit 14 acquires the classification conditions stored in the classification condition storage unit 23, the biometric information acquired by the biometric information acquisition unit 11, the driver profile acquired by the driver profile acquisition unit 12, and the driving environment information.
  • the travel environment information acquired by the acquisition unit is classified into one of the classes A to H based on the acquired classification condition, and the classification result is output to the sleepiness estimation unit 15. That is, the user class classification part 14 classifies the user based on the driving environment information, the biological information, and the user information among a plurality of classes corresponding to the tendency related to sleepiness.
  • the biometric information at the time of classification can use, for example, a feature amount such as an average or variance of the heart rate for a predetermined period from the start of driving.
  • the sleepiness estimation unit 15 acquires from the sleepiness estimation formula storage unit 24 the sleepiness estimation formulas shown in the formulas (1) and (2), the sensitivity a corresponding to the input class, the threshold value OFS, and the adaptation ki. Note that the values of the sensitivity a, the threshold value OFS, and the adaptation ki corresponding to the class may be average values in each class classified when executing the flowchart of FIG. Then, the sleepiness of the user is estimated by calculating the sleepiness S based on the acquired formula and parameters. That is, the sleepiness estimation unit 15 functions as an estimation unit that estimates the sleepiness of the user based on the predetermined parameter corresponding to the class in which the user is classified by the user class classification unit 14 and the biological information.
  • the binary value of “H” and “L” is used, but it may be a large, medium, and small three value, or more. Further, only some parameters may be ternary or more.
  • step S401 it is determined whether or not the vehicle on which the drowsiness estimating device 10 is mounted has started running. If the vehicle has started running (in the case of yes), the process proceeds to step S402.
  • step S402 the biometric information acquisition unit 11 acquires biometric information
  • the driver profile acquisition unit 12 acquires a driver profile
  • the driving environment information acquisition unit 13 acquires driving environment information
  • the process proceeds to step S403. move on.
  • the biometric information is acquired in real time (for example, every second)
  • the driver profile is acquired at the start of driving
  • the driving environment information is acquired when a predetermined time interval (for example, every ten minutes) or the driving environment changes. .
  • step S403 according to the classification conditions generated by the method described with reference to FIGS. 2 to 6, the user class classification unit 14 uses the biometric information, driver profile, and driving environment information acquired in step S402. Are classified into the classes A to H described above. As described in step S402, this step is executed for reclassification when the biometric information changes greatly or when the traveling environment changes.
  • step S404 the sleepiness estimation unit 15 performs parameters (sensitivity a, threshold OFS) corresponding to the sleepiness estimation formulas ((1) and (2)) and the class classified by the user class classification unit 14 in step S403. , Adaptation ki). Then, sleepiness S is calculated based on the user's biological information, sleepiness estimation formula and parameters, and the user's sleepiness is estimated. Since this biological information is acquired in real time, this step is executed accordingly.
  • parameters sensitivity a, threshold OFS
  • step S405 in the warning unit 16, for example, when the calculated drowsiness S is equal to or greater than a predetermined value, a warning is displayed or a voice is output.
  • the drowsiness S may be displayed (presented) by a numerical value or a graph.
  • step S406 it is determined whether or not the traveling is finished. If the traveling is not finished (in the case of no), the process returns to step S402, and if the traveling is finished (in the case of yes), the flowchart is finished.
  • the flowchart shown in FIG. 7 is a drowsiness estimation method, where step S402 functions as a biological information acquisition process and user information acquisition process, and step S404 functions as an estimation process.
  • the user class classification unit 14 and the sleepiness estimation unit 15 are configured as a sleepiness estimation program because the CPU functions as described above.
  • the sleepiness estimation program is stored in a ROM or the like of the CPU.
  • the biological information acquisition unit 11 acquires the user's heart rate
  • the driver profile acquisition unit 12 acquires the driver profile including the user's life information
  • the driving environment information acquires travel environment information.
  • the sleepiness estimation unit 15 includes parameters (sensitivity a, threshold OFS, threshold) corresponding to the class in which the user is classified based on the biological information, the driver profile, and the driving environment information among the plurality of classes according to the tendency related to sleepiness.
  • the user's current sleepiness S is calculated based on the adaptation ki) and the current heart rate.
  • sleepiness can be estimated by the parameter which considered user information including life information, such as ease of feeling of fatigue in specific activities, such as a driving
  • the sleepiness estimation unit 15 estimates the user's current sleepiness from the calculation result of the sleepiness estimation formula based on the parameters (sensitivity a, threshold OFS, adaptation ki) corresponding to the class in which the user is classified and the user's heart rate. ing. By doing in this way, drowsiness can be estimated by inputting a parameter and a heart rate as variables into the estimation formula.
  • the communication unit 17 acquires user classification conditions from the server 20. Then, the sleepiness estimation unit 15 estimates the user's current sleepiness based on the calculation result of the sleepiness estimation formula based on the parameter corresponding to the class output based on the classification condition acquired by the user class classification unit 14 and the user's heart rate. ing. In this way, the classification condition can be acquired from the outside. Therefore, even if this classification condition is changed, its own change can be minimized.
  • the subject information acquisition unit 21 acquires the heart rate, driver profile, and driving environment information of a plurality of subjects
  • the classification condition generation unit 22 uses the heart rate, driver profile, and driving environment information. Generate user classification conditions.
  • the communication part 25 outputs a user's classification conditions according to the request
  • the server 20 it is not necessary to update data on the drowsiness estimation device 10 side which is a user terminal, and the maintenance cost can be reduced. Furthermore, since it is easy to accumulate a large amount of data, the accuracy of data can be improved and the accuracy of estimating sleepiness can be improved.
  • the user class classification unit 14 does not necessarily classify based on the heart rate (biological information), driver profile, and driving environment information during normal operation, but classifies based on the heart rate and driver profile. In other words, at least the driver profile, particularly life information, may be acquired and classified.
  • supervised machine learning is used to obtain a parameter for calculating (estimating) sleepiness S.
  • it is necessary for calculating (estimating) other states such as tension and fatigue. It may be used to determine a parameter.
  • This embodiment shows another configuration example of the sleepiness estimation apparatus 10 and the server 20 exemplified in the first embodiment.
  • FIG. 8 shows a configuration in which the server 20A has functions of a user class classification unit and a drowsiness estimation unit.
  • the sleepiness estimation apparatus 10A transmits the biological information, the driver profile, and the traveling environment information from the communication unit 17 to the server 20A.
  • the server 20A based on the biological information, the driver profile, and the traveling environment information received by the communication unit 25.
  • the user class classification unit 26 classifies the user into classes, and the sleepiness estimation unit 27 estimates sleepiness S.
  • the estimated sleepiness S is transmitted from the communication unit 25 to the sleepiness estimation device 10A, and in the sleepiness estimation device 10A, the warning unit 16 warns as needed based on the sleepiness S received by the communication unit 17.
  • the communication unit 25 functions as a user information acquisition unit and a drowsiness output unit
  • the user class classification unit 26 and the drowsiness estimation unit 27 function as an estimation unit.
  • the server 20A can perform class classification and sleepiness estimation, so that the configuration of the sleepiness estimation apparatus 10A can be simplified. Therefore, the drowsiness estimation apparatus 10A can be reduced in size and can be easily incorporated in an in-vehicle device or a portable device.
  • the server 20A it is not necessary to update data on the drowsiness estimation device 10A side which is a user terminal, and the maintenance cost can be reduced. Furthermore, since it is easy to accumulate a large amount of data, the accuracy of data can be improved and the accuracy of estimating sleepiness can be improved.
  • FIG. 9 shows a configuration in which the sleepiness estimation apparatus 10B includes a classification condition storage unit 18 and a sleepiness estimation formula storage unit 19. That is, in the configuration of FIG. 9, the server 20 is not necessary.
  • the biometric information acquisition unit 11, the driver profile acquisition unit 12, and the travel environment information acquisition unit 13 also function as the subject information acquisition unit 21.
  • the biological information of the subject, the subject information, and the traveling environment information of the subject may be acquired from a removable storage medium such as a memory card that stores the information in advance.
  • the user class classification unit 14 also functions as the classification condition generation unit 22 and the classification condition storage unit 23.
  • the sleepiness estimation unit 15 also functions as the sleepiness estimation formula storage unit 24.
  • the drowsiness estimation apparatus 10B includes a classification condition storage unit 18 that generates classification conditions and stores the classification conditions.
  • the server 20 becomes unnecessary and the expense for communication with the server 20 becomes unnecessary.
  • the drowsiness estimation formula or the like cannot be acquired depending on the communication state, and the situation in which sleepiness estimation cannot be performed is eliminated, and drowsiness estimation can be performed stably.
  • the classification condition storage unit 18 and the drowsiness estimation formula storage unit 19 store the classification conditions generated by performing supervised machine learning in the server 20, the parameters for each class, and the drowsiness estimation formula. You may make it store beforehand. Also in this case, communication with the server 20 is not necessary.
  • the various data may be stored at the time of product shipment, for example, or may be copied from a memory card or the like at the time of use.
  • the driving state is mainly described by driving the vehicle.
  • the present invention is not limited to driving but can be applied to other active states such as manual labor, sports, office work, and studying.
  • the driver profile and the driving environment information may be appropriately changed according to the activity state.
  • Biometric information acquisition unit (subject information acquisition unit) 12
  • Driver profile acquisition unit (user information acquisition unit, subject information acquisition unit) 13
  • Driving environment information acquisition unit (environment information acquisition unit, subject information acquisition unit) 14,
  • Drowsiness estimation unit (estimation unit) 16 Warning part 17
  • Communication part (Classification condition acquisition part) 20, 20A server (information processing device) 21
  • Subject information acquisition unit 22
  • Classification condition generation unit (generation unit) 18, 23 Classification condition storage unit (storage unit) 19, 24 Drowsiness estimation formula storage unit
  • Communication unit (condition output unit, drowsiness output unit) S402 Biometric information, driver profile, travel environment information acquisition (biometric information acquisition step)
  • S402 Biometric information, driver profile, travel environment information acquisition (user information acquisition step) S403 Classify to user class
  • S404 Estimate sleepiness (estimation process)

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】高精度に眠気を推定することができる眠気推定装置を提供する。 【解決手段】眠気推定装置(10)は、生体情報取得部(11)がユーザの心拍数を取得し、運転者プロフィール取得部(12)がユーザの生活情報を含む運転者プロフィールを取得し、走行環境情報取得部(13)が走行環境情報を取得する。そして、眠気推定部(15)が、眠気に関する傾向に応じた複数のクラスのうち生体情報、運転者プロフィール及び走行環境情報に基づいて当該ユーザが分類されたクラスに対応するパラメータ(感度a、閾値OFS、順応ki)と、現在の心拍数と、に基づいてユーザの現在の眠気Sを算出する。

Description

眠気推定装置
 本発明は、ユーザの眠気を推定する眠気推定装置に関する。
 例えば居眠り運転等のドライバの状態を検出するために、ドライバの心拍等から眠気を推定することが提案されている(例えば、特許文献1を参照)。
 特許文献1には、ドライバからリアルタイムに検出される生体情報に基づいて、ドライバを複数のグループのうちのいずれかのグループへ分類することが記載されている。ドライバの分類は、例えばk-means法を用いた学習によって決定されるルールにしたがって行われる。そして、グループ毎に最適な特徴量を選択して、ドライバの眠気度を推定することが記載されている。
特開2013-164748号公報
 心拍などの生体情報は眠気によって変化するため、生体情報を解析することで眠気の推定はある程度可能である。しかし、ある個人の眠いときの生体情報と別の個人の眠くないときの生体情報が類似してしまうことなどがあり、生体情報のみでは同じ生体情報の特徴を持ったドライバの分類を正確に行うことは困難な場合がある。このため特許文献1のように生体情報のみを用いてドライバを分類し、そのグループごとの特徴量で眠気の推定を行うと推定結果が不正確となる場合がある。
 そこで、本発明は、上述した問題に鑑み、例えば高精度に眠気を推定することができる眠気推定装置を提供することを課題とする。
 上記課題を解決するために、請求項1に記載の発明は、ユーザの生体情報を取得する生体情報取得部と、前記ユーザの生活情報を含むユーザ情報を取得するユーザ情報取得部と、眠気に関する傾向に応じた複数のクラスのうち少なくとも前記ユーザ情報に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、前記生体情報と、に基づいて前記ユーザの眠気を推定する推定部と、を備えることを特徴とする眠気推定装置である。
 また、請求項8に記載の発明は、複数の被験者の生体情報と、前記被験者の生活情報を含む被験者情報と、を取得する被験者情報取得部と、前記生体情報と、前記被験者情報と、に基づいて眠気に関する傾向に応じた複数のクラスのいずれかのクラスにユーザを分類する分類条件を生成する生成部と、外部からの要求に応じて前記分類条件を出力する条件出力部と、を備えることを特徴とする情報処理装置である。
 また、請求項9に記載の発明は、複数の被験者の生体情報と、前記被験者の生活情報を含む被験者情報と、を取得する被験者情報取得部と、前記生体情報と、前記被験者情報と、に基づいて眠気に関する傾向に応じた複数のクラスのいずれかのクラスにユーザを分類するため分類条件を生成する生成部と、前記ユーザの生体情報及び前記生活情報を含むユーザ情報を取得するユーザ情報取得部と、前記複数のクラスのうち少なくともユーザ情報及び前記生成部が生成した前記分類条件に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、前記生体情報と、に基づいて前記ユーザの眠気を推定する推定部と、前記推定部が推定した眠気に関する情報を出力する眠気出力部と、を備えることを特徴とする情報処理装置である。
 また、請求項10に記載の発明は、ユーザの眠気を推定する眠気推定装置で実行される眠気推定方法であって、前記ユーザの生体情報を取得する生体情報取得工程と、前記ユーザの生活情報を含むユーザ情報を取得するユーザ情報取得工程と、眠気に関する傾向に応じた複数のクラスのうち少なくとも前記ユーザ情報に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、前記生体情報と、に基づいて前記ユーザの眠気を推定する推定工程と、を含むことを特徴とする眠気推定方法である。
 また、請求項11に記載の発明は、請求項9に記載の眠気推定方法を、コンピュータにより実行させることを特徴とする眠気推定プログラムである。
本発明の第1の実施例にかかる眠気推定装置及び情報処理装置の概略構成図である。 図1に示された情報処理装置における教師有機械学習を行う際の教師用のパラメータの算出動作のフローチャートである。 図2に示された教師用パラメータの算出動作の説明図である。 図2のフローチャートで得られたパラメータのクラス分類表である。 図2のフローチャートで得られたパラメータのクラス分類方法のフローチャートである。 図1に示された眠気推定装置における分類条件の生成方法のフローチャートである。 図1に示された眠気装置における通常動作のフローチャートである。 本発明の第2の実施例にかかる眠気推定装置及び情報処理装置の概略構成図である。 本発明の第2の実施例にかかる眠気推定装置の概略構成図である。
 以下、本発明の一実施形態にかかる眠気推定装置を説明する。本発明の一実施形態にかかる眠気推定装置は、生体情報取得部がユーザの生体情報を取得し、ユーザ情報取得部がユーザの生活情報を含むユーザ情報を取得する。そして、推定部が眠気に関する傾向に応じた複数のクラスのうち少なくともユーザ情報に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、生体情報と、に基づいてユーザの現在の眠気を推定する。このようにすることにより、例えば運転等の特定の活動中の疲労の感じやすさや生活習慣等の生活情報を含むユーザ情報を考慮したパラメータにより眠気を推定することができる。したがって、生体情報のみでグループ分けをするよりも高精度に眠気を推定することが可能となる。
 また、推定部は、ユーザの生体情報及びユーザ情報に基づいてユーザを分類するようにしてもよい。このようにすることにより、眠気推定だけでなく、分類時にも生体情報を考慮することでユーザの分類精度をさらに向上させ、眠気推定の精度を向上させることが可能となる。
 また、推定部は、環境情報取得部でユーザの周囲の環境情報を取得し、その環境情報、ユーザの生体情報及びユーザ情報に基づいてユーザを分類してもよい。このようにすることにより、例えば時間や天候或いは走行している道路(高速道/一般道)等の環境情報も考慮することでユーザの分類精度をさらに向上させ、眠気推定の精度を向上させることが可能となる。
 また、推定部は、ユーザが分類されたクラスに対応する所定のパラメータ及びユーザの生体情報に基づく推定式の算出結果によりユーザの眠気を推定してもよい。このようにすることにより、推定式にパラメータと生体情報を変数として入力することで眠気を推定することができる。
 また、ユーザを分類するための分類条件を記憶する記憶部を更に備えてもよい。このようにすることにより、ユーザを分類するための分類条件を予め有することができ、例えばこの分類条件を取得するための通信などが不要となる。
 また、ユーザを分類するための分類条件を外部から取得する分類条件取得部を更に備え、推定部は、分類条件取得部が取得した分類条件に基づいて得たパラメータ及びユーザの生体情報に基づく推定式の算出結果によりユーザの現在の眠気を推定してもよい。このようにすることにより、ユーザを分類するための分類条件を外部から取得するようにできる。そのため、この分類条件が変更された場合であっても、自身の変更は最小限にすることができる。
 また、眠気推定装置は、車両に搭載され、生体情報取得部は、車両の運転者の生体情報を取得し、ユーザ情報取得部は、運転者のユーザ情報を取得し、推定部は、運転者の眠気を推定するようにしてもよい。このようにすることにより、自動車等の車両の運転時において、高精度に眠気を推定することが可能となる。
 また、本発明の一実施形態にかかる情報処理装置は、被験者情報取得部が複数の被験者の生体情報と被験者の生活情報を含む被験者情報とを取得し、生成部が被験者の生体情報と被験者情報に基づいて眠気に関する傾向に応じた複数のクラスのいずれかのクラスにユーザを分類する分類条件を生成する。そして、条件出力部が外部からの要求に応じて分類条件を出力する。このようにすることにより、ユーザ以外の被験者の被験者情報に基づいて分類条件を生成することができる。したがって、分類の精度を向上させることができ、結果として眠気の検出精度を向上させることができる。
 また、本発明の一実施形態にかかる情報処理装置は、被験者情報取得部が複数の被験者の生体情報と被験者の生活情報を含む被験者情報とを取得し、生成部が被験者の生体情報と被験者情報に基づいて、眠気に関する傾向に応じた複数のクラスのいずれかのクラスにユーザを分類するため分類条件を生成する。次に、ユーザ情報取得部がユーザの生体情報及び生活情報を含むユーザ情報を取得して、推定部が複数のクラスのうち少なくともユーザ情報及び生成部が生成した前記分類条件に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、生体情報と、に基づいてユーザの眠気を推定する。そして、眠気出力部が推定部が推定した眠気に関する情報を出力する。このようにすることにより、情報処理装置で、ユーザの分類条件から眠気の推定までの処理を行うことができる。したがって、例えば、情報処理装置をサーバ等で構成することで、ユーザ端末から得た生体情報等から眠気を推定して返信することが可能となり、ユーザ端末の小型化を図ることができる。また、サーバ等で構成することで、ユーザ端末側でデータの更新等が不要となりメンテナンスコストを低減することができる。さらには、多くのデータを蓄積することが容易であるので、データの精度を高め、眠気の推定精度を向上させることができる。
 また、本発明の一実施形態にかかる眠気推定方法は、生体情報取得工程でユーザの生体情報を取得し、ユーザ情報取得工程でユーザの生活情報を含むユーザ情報を取得する。そして、推定工程で眠気に関する傾向に応じた複数のクラスのうち少なくともユーザ情報に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、生体情報と、に基づいてユーザの現在の眠気を推定する。このようにすることにより、例えば運転等の特定の活動中の疲労の感じやすさや生活習慣等の生活情報を含むユーザ情報を考慮したパラメータにより眠気を推定することができる。したがって、生体情報のみでグループ分けをするよりも高精度に眠気を推定することが可能となる。
 また、上述した眠気推定方法をコンピュータにより実行させる眠気推定プログラムとしてもよい。このようにすることにより、例えば運転等の特定の活動中の疲労の感じやすさや生活習慣等の生活情報を含むユーザ情報を考慮したパラメータにより眠気を推定することができる。したがって、コンピュータを用いて生体情報のみでグループ分けをするよりも高精度に眠気を推定することが可能となる。
 本発明の第1の実施例にかかる眠気推定装置を図1~図7を参照して説明する。眠気推定装置10は図1に示すように、生体情報取得部11と、運転者プロフィール取得部12と、走行環境情報取得部13と、ユーザクラス分類部14と、眠気推定部15と、警告部16と、通信部17と、を備えている。また、眠気推定装置10は、インターネット等のネットワークを介してサーバ20と通信可能となっている。
 図1に示した構成の眠気推定装置1は、例えばカーナビゲーション装置等の車載機器等に搭載されていてもよいし、スマートフォン等の携帯機器やパーソナルコンピュータ等のアプリケーションプログラム(アプリ)として構成されてもよい。
 生体情報取得部11は、ユーザ(本実施例では自動車等の車両のドライバ)の生体情報を取得する。生体情報としては、例えばユーザの心電情報(心拍数)が挙げられる。この心電情報は、外部の心拍センサ等から取得される。心拍センサは、例えば自動車であれば、ハンドルやシート等に設けられている。或いは、心拍センサは、腕時計型等のウェアラブル機器であってもよい。
 ユーザ情報取得部としての運転者プロフィール取得部12は、ドライバ(運転者)のプロフィール(ユーザ情報)を取得する。運転者のプロフィールとは、例えば、ドライバの年齢、性別、身長、体重、運転中の疲労や眠気の感じやすさ、生活習慣等の個人毎に異なりかつ時間的にほとんど変化しない情報をいう。ここでいう運転中の疲労や眠気の感じやすさはドライバの心理的な感覚によるものである。この運転者プロフィールは、初回利用時は、例えばユーザにアンケート形式で回答してもらい取得する。2回目以降の利用時は、初回利用時のアンケート結果を保存し、ユーザ認証によりユーザの識別をして保存した結果を読み出す。ユーザ認証は、例えばユーザ名やID等によるものや指紋等の生体認証でもよい。なお、本実施例では、運転者プロフィールのうち、運転中の疲労や眠気の感じやすさ、生活習慣等の情報を生活情報という。
 環境情報取得部としての走行環境情報取得部13は、カーナビゲーション装置或いは車両に搭載されたセンサ等から時刻、天候、気温、走行道路種別(高速道/一般道など)、渋滞状況等の走行環境情報(ユーザの周囲の環境情報)を取得する。
 ユーザクラス分類部14は、生体情報取得部11が取得した生体情報、運転者プロフィール取得部12が取得した運転者プロフィール、走行環境情報取得部13が取得した走行環境情報及び後述するサーバ20の分類条件記憶部23に記憶されている分類条件を用いて、ユーザ(ドライバ)を、そのユーザが現時点で属しているクラスに分類する。そして、その結果(クラスの番号等)を出力する。
 眠気推定部15は、ユーザクラス分類部14の分類結果に従ってサーバ20の眠気推定式記憶部24に記憶されている眠気推定式とパラメータを選択し、その眠気推定式、パラメータ及び生体情報取得部11が取得した生体情報から運転者の眠気を推定する。
 警告部16は、眠気度に応じて警告を、画面等にメッセージや警告燈による表示、または音声、ブザー音等による注意喚起、或いはシートに内蔵した振動子の振動等により行う。
 通信部17は、サーバ20と例えばインターネット等のネットワークを介して通信する。通信部17は、ユーザクラス分類部14や眠気推定部15からの要求に応じて分類条件や眠気推定式及びパラメータをサーバ20から取得する。
 サーバ20は、被験者情報取得部21と、分類条件生成部22と、分類条件記憶部23と、眠気推定式記憶部24と、通信部25と、を備えている。
 被験者情報取得部21は、被験者の生体情報、運転者プロフィール、走行環境情報を取得する。なお、被験者は、後述する分類条件を生成するために複数人であることが好ましい。眠気推定装置10が生体情報、運転者プロフィール、走行環境情報を取得したユーザを被験者の一部としてもよい。
 分類条件生成部22は、被験者情報取得部21が取得した被験者の生体情報、運転者プロフィール、走行環境情報に基づいてユーザをクラスに分類するための分類条件を生成する。分類条件の詳細については後述する。
 記憶部としての分類条件記憶部23は、分類条件生成部22で生成された分類条件を記憶し、眠気推定装置10からの要求に応じて出力する。
 眠気推定式記憶部24は、生体情報を用いた眠気推定式と、複数のユーザクラス毎に定められたパラメータと、を記憶している。眠気推定式については後述する。
 条件出力部としての通信部25は、眠気推定装置10と例えばインターネット等のネットワークを介して通信する。通信部25は、眠気推定装置10からの要求に応じて分類条件や眠気推定式及びパラメータを分類条件記憶部23や眠気推定式記憶部24から読み出して出力する。
 次に、眠気推定方法について説明する。本実施例における眠気推定式は次の(1)式及び(2)式のとおりである。
 Sp=a×max(HR_ref-HR60,0)+OFS・・・(1)
 S=ki×ΣSp+Ke×Sp・・・(2)
 (1)式において、Spは特定時における眠気(瞬時値)、aは感度、HR_refは眠気基準心拍数、HR60は心拍センサ等により測定された60秒あたりの心拍数、OFSは閾値である。感度(コントラスト感度、ゲイン、閾値倍率ともいう)、閾値(バイアス、初期値、絶対閾、刺激閾ともいう)は、ユーザクラス分類部14で定まるパラメータである。感度aは、心拍数の変化に対してどの程度眠気が変化するかを示すパラメータ、閾値OFSは、普段から眠気がある場合にその眠気に応じて付加するオフセットである。関数maxは、括弧内にカンマで区切られた引数のうち最大値を戻り値とする関数であり、(1)式においては、HR60<HR_refの場合にはHR_ref-HR60の算出結果が、HR60>HR_refの場合には0が戻り値となる。
 眠気基準心拍数HR_refは、予め定められている基準の心拍数(基準とする生体情報)である。
 一人の人間が取り得る心拍数の範囲は決まっており、その心拍数の分布は正規分布に近くなることが知られている。また、眠気を感じているときは心拍数が低いことも知られている。したがって、眠気発生時の心拍数である眠気基準心拍数HR_refは、最低心拍数から平均心拍数までの間にあると言える。そこで例えば、平均心拍数から所定の関数を求めてその関数に基づいて算出する方法や、最低心拍数に所定のオフセット値を加算する方法、或いは平均心拍数から標準偏差を減算する方法等所定の方法により算出することができる。
 この眠気基準心拍数HR_refは、例えば時刻毎や、運転等の活動毎に設定されていてもよい。
 例えば人は午後にはしばしば強い眠気が出現する。昼食後に起こることから昼食後の眠気(post lunch dip)とも呼ばれ、昼食をとったことが原因であると考える人も多い。しかし、昼食を2時間早めた場合でも昼食を抜いた場合でも、さらに恒常法を用いて2時間毎に軽食をとった場合でも午後には眠気が生じる。つまり、睡眠不足でなくても、また昼食の影響を取り除いた場合でも午後には眠気が生じることから、午後の眠気は生体リズムを反映していると考えられている。
 眠気には約24時間周期のサーカディアンリズム(circadian rhythm)、約12時間周期のサーカセミディアンリズム(circasemidian rhythm)、そして約2時間周期のウルトラディアンリズム(ultradian rhythm)が関わっていると考えられている。夜間に生じる眠気は体温リズムの低下と一致しており、体温におけるサーカディアンリズムを反映している。午後の眠気は夜間の最低体温出現時刻の約半日後に生じていることから、サーカセミディアンリズムを反映していると考えられている。
 したがって、時刻毎の眠気基準心拍数を設定できるようにすることで、人の生体リズムを考慮した眠気基準心拍数に基づいて眠気を算出することができる。
 つまり、(1)式で算出する眠気Spとは、現在の心拍数が眠気基準心拍数HR_refよりも低いときの、現在の心拍数と眠気基準心拍数との差分から求められる情報であり、現在の心拍数が眠気基準心拍数より下がる割合に応じて眠気値も強くなるように算出される。
 (2)式において、Sは最終的に算出される眠気であり、本実施例では0~100の範囲の数値をとる(数値が大きいほど眠気が大きい)。kiは順応(慣れ、積分項、回復ともいう)を示し、ユーザクラス分類部14で定まるパラメータである。順応kiは、眠気の蓄積に対する回復のしやすさを示すパラメータである。Keは眠気Sを所定の数値範囲にするために適宜設ける定数であり、本実施例では“1”とする。
 つまり、(2)式はこれまでの眠気の蓄積に順応kiを乗じた値に現時点の眠気の瞬時値Spを加算することで眠気Sを算出している。
 上述した構成の眠気推定装置10においては、ユーザクラス分類部14、眠気推定部15はCPU(Central Processing Unit)等の演算装置が機能する。また、生体情報取得部11は、例えば心拍センサ等と通信するインターフェース等が機能する。運転者プロフィール取得部12は、初回時は、アンケート回答用のタッチパネル等の入力装置が機能し、2回目以降は、記憶装置等に記憶されたアンケート結果を読み出すCPU等が機能する。走行環境情報取得部13は、カーナビゲーション装置やセンサ等から走行環境情報を取得するインターフェース等が機能する。警告部16は、表示装置やスピーカ、振動子等が機能する。通信部17は、サーバ20と通信するインターフェース等が機能する。
 また、上述した構成のサーバ20においては、分類条件生成部22は、CPU(Central Processing Unit)等の演算装置が機能する。被験者情報取得部21は、例えば心拍センサ等と通信するインターフェース、アンケート回答用のタッチパネル等の入力装置、記憶されたアンケート結果を読み出すCPU、カーナビゲーション装置やセンサ等から走行環境情報を取得するインターフェース等が機能する。分類条件記憶部23、眠気推定式記憶部24は、ハードディスク等の記憶装置が機能する。通信部25は、眠気推定装置10と通信するインターフェース等が機能する。
 次に、分類条件生成部22で生成され、分類条件記憶部23に記憶される分類条件の生成方法及びユーザクラス分類部14における実際の分類方法について説明する。本実施例では、眠気推定式で使用するパラメータについて、最適なパラメータを設定するため、複数のクラスに分類する。そのために、教師有機械学習を行う。したがって、クラスに分類した後のパラメータの設定が容易になる。
 本実施例では、パラメータとして、上述した感度a、閾値OFS、順応kiの3つを設定する。
 まず、教師有機械学習を行う際の教師用のパラメータの算出を行う。この算出方法を図2のフローチャートを参照して説明する。このフローチャートは、サーバ20の分類条件生成部22において実行される。
 まず、ステップS101において、被験者情報取得部21から被験者の生体情報(心拍数)を収集する。また、この際に被験者の運転者プロフィール(被検者情報)と走行環境情報も合わせて収集する。
 次に、ステップS102において、主観的眠気データを収集する。主観的眠気データとは、被験者による内省報告により取得されたデータであり、被験者情報取得部21で取得される。この主観的眠気データとしては例えばVAS(Visual Analog Scale)によるものが挙げられる。
 次に、ステップS103において、パラメータとしてデフォルト値を設定する。パラメータとは上述した感度a、閾値OFS、順応kiである。これらのパラメータについては、予めデフォルト値を有し、その値を設定する。
 次に、ステップS104において、眠気推定式記憶部24に記憶されている眠気推定式により眠気を算出する。つまり、ステップS103で設定したデフォルト値のパラメータを用いて、上述した(1)式、(2)式により眠気Sを算出する。
 次に、ステップS105において、ステップS104で算出した眠気SとステップS102で収集した主観的眠気データとに誤差があるか否かを判断し、ある場合(yesの場合)はステップS106に進み、ない場合(noの場合)はステップS107に進む。
 次に、ステップS106において、ステップS104の結果、誤差があると判断されたのでパラメータを設定(調整)し、ステップS104に戻る。つまり、図3に示したように、生体情報と生活情報に基づいて眠気を推定し、内省報告と比較して誤差が無くなるようにパラメータを調整する。
 次に、ステップS107において、ステップS104の結果、誤差がないと判断されたのでパラメータが決定される。
 次に、上述した得られたパラメータについて暫定クラスに分類する。本実施例では、感度a、閾値OFS、順応kiについて平均値と比較して、大きいか(H)、小さいか(L)の組み合わせの8通りに分類する(図4参照)。感度a、閾値OFS、順応kiの各パラメータは上述したように眠気に関する傾向を示すものであるため、この分類は、眠気に関する傾向に応じた複数のクラスとなる。分類方法について図5のフローチャートを参照して説明する。
 感度aが平均より大きく(ステップS201:yes)、順応kiが平均より大きく(ステップS202:yes)、閾値OFSが平均より大きい(ステップS203:yes)の場合はクラスAに分類される。感度aが平均より大きく(ステップS201:yes)、順応kiが平均より大きく(ステップS202:yes)、閾値OFSが平均より小さい(ステップS203:no)の場合はクラスBに分類される。
 感度aが平均より大きく(ステップS201:yes)、順応kiが平均より小さく(ステップS202:no)、閾値OFSが平均より大きい(ステップS204:yes)の場合はクラスCに分類される。感度aが平均より大きく(ステップS201:yes)、順応kiが平均より小さく(ステップS202:no)、閾値OFSが平均より小さい(ステップS204:no)の場合はクラスDに分類される。
 感度aが平均より小さく(ステップS201:no)、順応kiが平均より大きく(ステップS205:yes)、閾値OFSが平均より大きい(ステップS206:yes)の場合はクラスEに分類される。感度aが平均より小さく(ステップS201:no)、順応kiが平均より大きく(ステップS205:yes)、閾値OFSが平均より小さい(ステップS206:no)の場合はクラスFに分類される。
 感度aが平均より小さく(ステップS201:no)、順応kiが平均より小さく(ステップS205:no)、閾値OFSが平均より大きい(ステップS207:yes)の場合はクラスGに分類される。感度aが平均より小さく(ステップS201:no)、順応kiが平均より小さく(ステップS205:no)、閾値OFSが平均より小さい(ステップS207:no)の場合はクラスHに分類される。
 次に、分類器(分類条件)の生成方法について図6のフローチャートを参照して説明する。このフローチャートは、サーバ20の分類条件生成部22において実行される。まず、ステップS301において、図3のフローチャートのステップS101で収集された生体情報、運転者プロフィールと走行環境情報を入力する。
 次に、ステップS302において、図5のフローチャートにより分類されたクラスを教師データとする。そして、ステップS303において、ステップS301で入力された各情報を入力とする教師有機械学習を行って分類器(分類条件)を生成し、分類条件記憶部23に記憶する。
 ユーザクラス分類部14では、分類条件記憶部23に記憶された分類条件を取得して、生体情報取得部11で取得した生体情報、運転者プロフィール取得部12で取得した運転者プロフィール、走行環境情報取得部で取得した走行環境情報を、取得した分類条件に基づいて上述したA~Hのいずれかのクラスに分類し、分類結果を眠気推定部15に出力する。即ち、眠気に関する傾向に応じた複数のクラスのうちユーザクラス分類部14は、走行環境情報、生体情報及びユーザ情報に基づいてユーザを分類している。なお、この分類の際の生体情報は、例えば運転を始めてから所定期間の心拍数の平均や分散等の特徴量を用いることができる。
 眠気推定部15では、眠気推定式記憶部24から(1)式、(2)式に示した眠気推定式と、入力されたクラスに対応する感度a、閾値OFS、順応kiを取得する。なお、クラスに対応する感度a、閾値OFS、順応kiの値は、例えば図5のフローチャート実行時に分類された各クラス内での平均値とすればよい。そして、取得した式とパラメータに基づいて眠気Sを算出することでユーザの眠気を推定する。即ち、眠気推定部15は、ユーザクラス分類部14でユーザが分類されたクラスに対応する所定のパラメータと、生体情報と、に基づいて前記ユーザの眠気を推定する推定部として機能する。
 なお、本実施例では、ユーザを分類するクラスとして8つとしたが、それに限らない。例えば、図4では、“H”、“L”の2値であったが、大中小の3値であってもよいし、それ以上であってもよい。また、一部のパラメータのみを3値以上としてもよい。
 上述した構成の眠気推定装置10の通常動作を図7のフローチャートにまとめる。通常動作とは、上述した方法により生成された分類条件を利用してユーザの眠気を推定する動作である。まず、ステップS401において、眠気推定装置10を搭載する車両が走行開始したか否かを判断し、走行開始である場合(yesの場合)はステップS402に進む。
 次に、ステップS402において、生体情報取得部11が生体情報を取得し、運転者プロフィール取得部12が運転者プロフィールを取得し、走行環境情報取得部13が走行環境情報を取得してステップS403に進む。なお、生体情報はリアルタイム(例えば1秒毎)に取得し、運転者プロフィールは走行開始時に取得し、走行環境情報は、所定時間間隔(例えば10分毎)や走行環境が変化した際に取得する。
 次に、ステップS403において、図2~図6で説明した方法で生成された分類条件により、ユーザクラス分類部14が、ステップS402で取得した生体情報、運転者プロフィール、走行環境情報に基づいてユーザを上述したA~Hのクラスに分類する。本ステップは、ステップS402で説明したように、生体情報が大きく変化した場合や、走行環境が変化した場合等は再分類をするため実行される。
 次に、ステップS404において、眠気推定部15が、眠気推定式((1)式、(2)式)及びユーザクラス分類部14がステップS403で分類したクラスに対応するパラメータ(感度a、閾値OFS、順応ki)を取得する。そして、ユーザの生体情報、眠気推定式及びパラメータに基づいて眠気Sを算出しユーザの眠気を推定する。本ステップは、生体情報がリアルタイムに取得されるため、それに合わせて実行される。
 次に、ステップS405において、警告部16において、例えば算出された眠気Sが所定値以上であった場合は警告表示や音声出力等により警告をする。また、本ステップでは、警告が不要な場合であっても眠気Sを数値やグラフ等により表示(提示)してもよい。
 次に、ステップS406において、走行終了が否かを判断し、走行終了でない場合(noの場合)はステップS402に戻り、走行終了である場合(yesの場合)はフローチャートを終了する。
 即ち、図7に示したフローチャートが眠気推定方法となり、ステップS402が生体情報取得工程、ユーザ情報取得工程として機能し、ステップS404が推定工程として機能する。また、ユーザクラス分類部14や眠気推定部15は、上述したようにCPUが機能することから、眠気推定プログラムとして構成されている。眠気推定プログラムは、CPUが有するROM等に記憶されている。
 本実施例によれば、眠気推定装置10は、生体情報取得部11がユーザの心拍数を取得し、運転者プロフィール取得部12がユーザの生活情報を含む運転者プロフィールを取得し、走行環境情報取得部13が走行環境情報を取得する。そして、眠気推定部15が、眠気に関する傾向に応じた複数のクラスのうち生体情報、運転者プロフィール及び走行環境情報に基づいて当該ユーザが分類されたクラスに対応するパラメータ(感度a、閾値OFS、順応ki)と、現在の心拍数と、に基づいてユーザの現在の眠気Sを算出する。このようにすることにより、例えば運転等の特定の活動中の疲労の感じやすさや生活習慣等の生活情報を含むユーザ情報を考慮したパラメータにより眠気を推定することができる。したがって、心拍数等の生体情報のみでグループ分けをするよりも高精度に眠気を推定することが可能となる。
 また、例えば時間や天候或いは走行している道路(高速道/一般道)等の走行環境情報も考慮することでユーザの分類精度をさらに向上させ、眠気推定の精度を向上させることが可能となる。
 また、眠気推定部15は、ユーザが分類されたクラスに対応するパラメータ(感度a、閾値OFS、順応ki)及びユーザの心拍数に基づく眠気推定式の算出結果によりユーザの現在の眠気を推定している。このようにすることにより、推定式に、パラメータと心拍数を変数として入力することで眠気を推定することができる。
 また、通信部17はユーザの分類条件をサーバ20から取得する。そして、眠気推定部15は、ユーザクラス分類部14が取得した分類条件に基づいて出力したクラスに対応するパラメータ及びユーザの心拍数に基づく眠気推定式の算出結果によりユーザの現在の眠気を推定している。このようにすることにより、分類条件を外部から取得するようにできる。そのため、この分類条件が変更された場合であっても、自身の変更は最小限にすることができる。
 また、サーバ20は、被験者情報取得部21が複数の被験者の心拍数、運転者プロフィール、走行環境情報を取得し、分類条件生成部22がこの心拍数、運転者プロフィール、走行環境情報に基づいて、ユーザの分類条件を生成する。そして、通信部25が眠気推定装置10の要求に応じてユーザの分類条件を出力する。このようにすることにより、ユーザ以外の被験者の被験者情報に基づいて分類条件を生成することができる。したがって、分類の精度を向上させることができ、結果として眠気の検出精度を向上させることができる。
 また、サーバ20で構成することで、ユーザ端末である眠気推定装置10側でデータの更新等が不要となりメンテナンスコストを低減することができる。さらには、多くのデータを蓄積することが容易であるので、データの精度を高め、眠気の推定精度を向上させることができる。
 なお、ユーザクラス分類部14では、通常動作時に、心拍数(生体情報)、運転者プロフィール及び走行環境情報の全てに基づいて分類するに限らず、心拍数と運転者プロフィールに基づいて分類してもよく、少なくとも運転者プロフィール、特に生活情報を取得して分類すればよい。
 また、本実施例では、眠気Sを算出(推定)するためのパラメータを求めるために教師有機械学習を用いていたが、緊張や疲労等の他の状態を算出(推定)するめに必要とするパラメータを求めるために用いてもよい。
 次に、本発明の第2の実施例にかかる眠気推定装置及び情報処理装置を図8、図9を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
 本実施例は、第1の実施例示した眠気推定装置10及びサーバ20の他の構成例を示すものである。
 図8は、ユーザクラス分類部及び眠気推定部の機能をサーバ20Aが有する構成である。眠気推定装置10Aは、生体情報、運転者プロフィール及び走行環境情報を通信部17からサーバ20Aに送信し、サーバ20Aでは、通信部25が受信した生体情報、運転者プロフィール及び走行環境情報に基づいてユーザクラス分類部26でユーザをクラスに分類し、眠気推定部27で眠気Sを推定する。
 そして、推定された眠気Sは、通信部25から眠気推定装置10Aへ送信され、眠気推定装置10Aでは、通信部17が受信した眠気Sに基づいて警告部16が必要に応じて警告をする。
 図8の構成では、通信部25がユーザ情報取得部及び眠気出力部として機能し、ユーザクラス分類部26及び眠気推定部27が推定部として機能する。
 図8の構成によれば、サーバ20Aでクラス分類や眠気推定をすることができるので、眠気推定装置10Aの構成を簡素化することができる。したがって、眠気推定装置10Aの小型化を図ることができ、車載機器や携帯機器等に内蔵することが容易となる。
 また、サーバ20Aで構成することで、ユーザ端末である眠気推定装置10A側でデータの更新等が不要となりメンテナンスコストを低減することができる。さらには、多くのデータを蓄積することが容易であるので、データの精度を高め、眠気の推定精度を向上させることができる。
 図9は、眠気推定装置10Bが、分類条件記憶部18や眠気推定式記憶部19を備える構成である。つまり、図9の構成の場合、サーバ20が不要となる。
 図9では、生体情報取得部11、運転者プロフィール取得部12、走行環境情報取得部13が被験者情報取得部21の機能を兼ねる。この場合、被験者の生体情報、被験者情報、被験者の走行環境情報については、予めこれらの情報を蓄積したメモリーカード等の着脱自在な記憶媒体から取得するようにしてもよい。また、ユーザクラス分類部14が分類条件生成部22、分類条件記憶部23の機能を兼ねる。また、眠気推定部15が眠気推定式記憶部24の機能を兼ねる。
 図9の構成によれば、眠気推定装置10Bで分類条件の生成し、その分類条件を記憶する分類条件記憶部18を備えている。このようにすることにより、サーバ20が不要となり、サーバ20との通信のための費用が必要なくなる。また、通信状態により眠気推定式等が取得できずに眠気推定が行えなくなるといった事態が無くなり、安定して眠気推定をすることができる。
 また、図9に示した構成で、分類条件記憶部18や眠気推定式記憶部19には、サーバ20で教師有機械学習を行って生成した分類条件や、クラス毎のパラメータ及び眠気推定式を予め格納するようにしてもよい。この場合もサーバ20との通信は不要となる。また、この各種データの格納は、例えば製品出荷時であってもよいし、使用時にメモリーカード等からコピーするようにしてもよい。
 なお、上述した実施例では、活動状態として主に車両の運転で説明したが、運転に限らず、肉体労働やスポーツ、事務仕事や勉強等の他の活動状態に適用することができる。この場合、運転者プロフィールや走行環境情報は、活動状態に合わせてその内容を適宜変更すればよい。
 また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の眠気推定装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。
  10、10A、10B  眠気推定装置
  11          生体情報取得部(被験者情報取得部)
  12          運転者プロフィール取得部(ユーザ情報取得部、被験者情報取得部)
  13          走行環境情報取得部(環境情報取得部、被験者情報取得部)
  14、26       ユーザクラス分類部(生成部)
  15、27       眠気推定部(推定部)
  16          警告部
  17          通信部(分類条件取得部)
  20、20A      サーバ(情報処理装置)
  21          被験者情報取得部
  22          分類条件生成部(生成部)
  18、23       分類条件記憶部(記憶部)
  19、24       眠気推定式記憶部
  25          通信部(条件出力部、眠気出力部)
  S402        生体情報、運転者プロフィール、走行環境情報取得(生体情報取得工程)
  S402        生体情報、運転者プロフィール、走行環境情報取得(ユーザ情報取得工程)
  S403        ユーザクラスに分類
  S404        眠気度を推定(推定工程)

Claims (11)

  1.  ユーザの生体情報を取得する生体情報取得部と、
     前記ユーザの生活情報を含むユーザ情報を取得するユーザ情報取得部と、
     眠気に関する傾向に応じた複数のクラスのうち少なくとも前記ユーザ情報に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、前記生体情報と、に基づいて前記ユーザの眠気を推定する推定部と、
    を備えることを特徴とする眠気推定装置。
  2.  前記推定部は、前記生体情報及び前記ユーザ情報に基づいて前記ユーザを分類することを特徴とする請求項1に記載の眠気推定装置。
  3.  前記ユーザの周囲の環境情報を取得する環境情報取得部を更に備え、
     前記推定部は、前記環境情報、前記生体情報及び前記ユーザ情報に基づいて、前記ユーザを分類することを特徴とする請求項1に記載の眠気推定装置。
  4.  前記推定部は、前記パラメータ及び前記生体情報に基づく推定式の算出結果により前記ユーザの眠気を推定することを特徴とする請求項1乃至3のうちいずれか一項に記載の眠気推定装置。
  5.  前記ユーザを分類するための分類条件を記憶する記憶部を更に備えることを特徴とする請求項1乃至4のうちいずれか一項に記載の眠気推定装置。
  6.  前記ユーザを分類するための分類条件を外部から取得する分類条件取得部を更に備え、
     前記推定部は、前記分類条件取得部が取得した前記分類条件に基づいて得た前記パラメータ及び前記生体情報に基づく推定式の算出結果により前記ユーザの現在の眠気を推定することを特徴とする請求項1乃至3のうちいずれか一項に記載の眠気推定装置。
  7.  車両に搭載され、
     前記生体情報取得部は、前記車両の運転者の生体情報を取得し、
     前記ユーザ情報取得部は、前記運転者のユーザ情報を取得し、
     前記推定部は、前記運転者の眠気を推定する、
    ことを特徴とする請求項1乃至6のうちいずれか一項に記載の眠気推定装置。
  8.  複数の被験者の生体情報と、前記被験者の生活情報を含む被験者情報と、を取得する被験者情報取得部と、
     前記生体情報と、前記被験者情報と、に基づいて眠気に関する傾向に応じた複数のクラスのいずれかのクラスにユーザを分類する分類条件を生成する生成部と、
     外部からの要求に応じて前記分類条件を出力する条件出力部と、
     を備えることを特徴とする情報処理装置。
  9.  複数の被験者の生体情報と、前記被験者の生活情報を含む被験者情報と、を取得する被験者情報取得部と、
     前記生体情報と、前記被験者情報と、に基づいて眠気に関する傾向に応じた複数のクラスのいずれかのクラスにユーザを分類するため分類条件を生成する生成部と、
     前記ユーザの生体情報及び前記生活情報を含むユーザ情報を取得するユーザ情報取得部と、
     前記複数のクラスのうち少なくともユーザ情報及び前記生成部が生成した前記分類条件に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、前記生体情報と、に基づいて前記ユーザの眠気を推定する推定部と、
     前記推定部が推定した眠気に関する情報を出力する眠気出力部と、
    を備えることを特徴とする情報処理装置。
  10.  ユーザの眠気を推定する眠気推定装置で実行される眠気推定方法であって、
     前記ユーザの生体情報を取得する生体情報取得工程と、
     前記ユーザの生活情報を含むユーザ情報を取得するユーザ情報取得工程と、
     眠気に関する傾向に応じた複数のクラスのうち少なくとも前記ユーザ情報に基づいて当該ユーザが分類されたクラスに対応する所定のパラメータと、前記生体情報と、に基づいて前記ユーザの眠気を推定する推定工程と、
    を含むことを特徴とする眠気推定方法。
  11.  請求項10に記載の眠気推定方法を、コンピュータにより実行させることを特徴とする眠気推定プログラム。
PCT/JP2018/014224 2017-04-12 2018-04-03 眠気推定装置 WO2018190190A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017078781 2017-04-12
JP2017-078781 2017-04-12

Publications (1)

Publication Number Publication Date
WO2018190190A1 true WO2018190190A1 (ja) 2018-10-18

Family

ID=63793356

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/014224 WO2018190190A1 (ja) 2017-04-12 2018-04-03 眠気推定装置

Country Status (1)

Country Link
WO (1) WO2018190190A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201676A (ja) * 2008-02-27 2009-09-10 Toyota Motor Corp 覚醒度推定装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201676A (ja) * 2008-02-27 2009-09-10 Toyota Motor Corp 覚醒度推定装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MATSUDA, KAZUNORI: "Screening of Sleep Apnea Syndrome Using Subjective Sleepiness Evaluation, ESS", PRACTICA OTO-RHINO-LARYNGOLOGICA, vol. 98, no. 10, 2005, pages 809 - 814, XP055545928 *
SHIOMI, TOSHIAKI: "Investigation of automobile accidents among patients with sleep apnea syndrome", IATSS REVIEW, vol. 35, no. 1, June 2000 (2000-06-01), pages 22 - 25 *

Similar Documents

Publication Publication Date Title
US20210406959A1 (en) System and Method for Personalized Preference Optimization
JP2018102617A (ja) 感情推定装置、方法およびプログラム
JP6972629B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
KR20170107373A (ko) 상황에 따라 차량의 운전자와 상호 작용을 제공하는 시스템 및 방법
US11702103B2 (en) Affective-cognitive load based digital assistant
JP2014100227A (ja) 集中度推定装置、集中度推定方法、運転支援装置及び運転支援方法
JP2016182242A (ja) 眠気算出装置
JP2018202130A (ja) 状態推定装置、情報処理装置、状態推定システム
US9993194B2 (en) Sleepiness calculation device
WO2023112384A1 (ja) 計算機システム及び情動推定方法
JP2021033748A (ja) 状態推定装置、状態推定プログラムおよび状態推定方法
JP2021146214A (ja) ドライバー監視システムでメディア誘発感情から運転感情を分離するための技術
JP7250647B2 (ja) 仮眠補助システム、および、仮眠補助用プログラム
JP2019093175A (ja) 眠気算出装置
JP2016187429A (ja) 就寝案内装置
US9811992B1 (en) Caregiver monitoring system
WO2018190190A1 (ja) 眠気推定装置
JP2016182241A (ja) 眠気算出装置
JP2019069207A (ja) 眠気算出装置
JP6959791B2 (ja) 生活情報提供システム、生活情報提供方法、および、プログラム
JP2016187430A (ja) 回復支援装置
JP7238994B2 (ja) 快適性運転データ収集システム、運転制御装置、方法、および、プログラム
JP2018033533A (ja) 眠気基準心拍数算出装置
JP2020169956A (ja) 車両の行先提案システム
JP7485038B2 (ja) 音声生成装置、音声生成方法及び音声生成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18783733

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18783733

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP