WO2020157989A1 - 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2020157989A1
WO2020157989A1 PCT/JP2019/003752 JP2019003752W WO2020157989A1 WO 2020157989 A1 WO2020157989 A1 WO 2020157989A1 JP 2019003752 W JP2019003752 W JP 2019003752W WO 2020157989 A1 WO2020157989 A1 WO 2020157989A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
arousal level
pulse wave
awake
image
Prior art date
Application number
PCT/JP2019/003752
Other languages
English (en)
French (fr)
Inventor
剛範 辻川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/003752 priority Critical patent/WO2020157989A1/ja
Priority to US17/425,840 priority patent/US20220313132A1/en
Priority to JP2020569335A priority patent/JP7211441B2/ja
Publication of WO2020157989A1 publication Critical patent/WO2020157989A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens

Definitions

  • the present invention relates to a wakefulness estimation device and a wakefulness estimation method for estimating the wakefulness of a person, and further relates to a computer-readable recording medium for realizing these.
  • Patent Document 1 discloses a device that detects the wakefulness of a person. Specifically, the device disclosed in Patent Document 1 measures the blinking time from the face image, and further measures the heartbeat fluctuation from the heartbeat sensor. Then, the device disclosed in Patent Document 1 determines that it is a sign of falling asleep when the measured blinking time is extended and the start of the rise of the HF component is observed in the measured heart rate variability.
  • Patent Document 1 On the other hand, if the technology disclosed in Patent Document 1 is used to detect a heartbeat from a face image of a person, the above problem can be solved. However, in this case, the device needs to constantly perform the process of detecting the heartbeat from the face image in addition to the process of measuring the blinking time from the face image, which increases the processing load on the device. Further, since the device disclosed in Patent Document 1 is realized by a computer used by an employee or the like at work or a computer prepared for another purpose, an increase in processing load cannot be overlooked.
  • An example of an object of the present invention is to solve the above-mentioned problems and to detect an arousal state of a person without increasing the introduction cost and the processing load, an arousal level estimation device, an arousal level estimation method, and a computer-readable record. To provide the medium.
  • An image extraction unit that extracts an image of a portion including eyes from image data of a human face image, A first arousal level estimation unit that estimates a first arousal level based on the extracted image; It is determined whether the estimated first arousal level satisfies a setting condition, and if the first arousal level satisfies the setting condition, a pulse wave of the person is detected from the face image.
  • a detection unit A second arousal level estimation unit that estimates a second arousal level of the person based on the detected pulse wave; Is equipped with It is characterized by
  • the method for estimating arousal level is (A) a step of extracting an image of a portion including eyes from image data of a human face image, (B) estimating a first arousal level based on the extracted image, (C) It is determined whether or not the estimated first arousal level satisfies a setting condition, and when the first arousal level satisfies the setting condition, the pulse wave of the person is detected from the face image. , Step, (D) estimating a second arousal level of the person based on the detected pulse wave, and Has, It is characterized by
  • a computer-readable recording medium is On the computer, (A) a step of extracting an image of a portion including eyes from image data of a human face image, (B) estimating a first arousal level based on the extracted image, (C) It is determined whether or not the estimated first arousal level satisfies a setting condition, and when the first arousal level satisfies the setting condition, the pulse wave of the person is detected from the face image. , Step, (D) estimating a second arousal level of the person based on the detected pulse wave, and Recording a program, including instructions to execute It is characterized by
  • FIG. 1 is a block diagram showing a configuration of an awakening degree estimation device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of learning data used for learning of the neural network used by the second alertness estimation unit in the embodiment of the present invention.
  • FIG. 3 is a diagram schematically showing processing performed by the arousal level estimation device according to the embodiment of the present invention.
  • FIG. 4 is a flowchart showing the operation of the awakening degree estimation device in the embodiment of the present invention.
  • FIG. 5 is a diagram showing an example of learning data used in the third modification of the embodiment of the present invention.
  • FIG. 6 is a block diagram showing an example of a computer that realizes the arousal level estimation device according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an awakening degree estimation device according to an embodiment of the present invention.
  • the arousal level estimation device 10 is a device for estimating the arousal level of a person 30.
  • the arousal level estimation device 10 includes an image extraction section 11, a first arousal level estimation section 12, a pulse wave detection section 13, and a second arousal level estimation section 14. ..
  • the image extraction unit 11 extracts an image of a portion including eyes from the image data of the face image of the person 30.
  • the first arousal level estimation unit 12 estimates the first arousal level based on the extracted image.
  • the pulse wave detection unit 13 determines whether or not the estimated first arousal level satisfies the setting condition, and when the first arousal level satisfies the setting condition, the pulse wave of the person 30 from the face image of the person 30 is determined. To detect.
  • the second awakening degree estimation unit 14 estimates the second awakening degree of the person 30 based on the detected pulse wave.
  • the detection process of the pulse wave from the face image and the estimation of the awakening degree from the pulse wave are performed. Since the above are executed, an increase in the processing load on the device is suppressed. Further, in the present embodiment, it is not necessary for each person to wear the sensor in order to detect the pulse wave. Therefore, according to the present embodiment, it is possible to detect the awake state of a person without increasing the introduction cost and the processing load.
  • the arousal level estimation device 10 is connected to the imaging device 20.
  • the imaging device 20 is arranged so as to be able to photograph the face of the person 30 who uses the arousal level estimation device, and outputs image data of the captured images (images including the face) to the arousal level estimation device 10 at set intervals.
  • the imaging device 20 is a digital camera, a web camera, or the like.
  • the image extraction unit 11 first receives the image data output by the imaging device 20, and extracts the feature amount of the received image data each time. Then, the image extraction unit 11 compares the extracted feature amount with the feature amounts of the eyes and other face portions that are registered in advance, and uses the comparison result to determine whether the eye in the image data and the periphery thereof are present. The area is specified, and the image of the specified area is extracted.
  • the first arousal level estimation unit 12 detects the open/closed state of the eyelid from the image extracted by the image extraction unit 11 (hereinafter referred to as “extracted image”), and according to the detected state. Then, it is determined whether or not the person 30 is awake, and the determination result is the first awakening degree. Therefore, the first arousal level is one of the value “1” indicating that the person 30 is awake and the value “0” indicating that the person 30 is sleeping.
  • the first arousal level estimation unit 12 acquires the extracted images for the set period, and the degree of eyelid opening/closing in the extracted images (closed state 0.0 to open) for each extracted image.
  • the state 1.0) is calculated, and, for example, the time during which the eyelids are closed is calculated from the calculated time-series change of the opening and closing degree.
  • the first awakening degree estimation unit 12 determines that the person 30 is awake when the time when the eyelids are closed is less than or equal to the threshold, while the time when the eyelids are closed exceeds the threshold. Then, it is determined that the person 30 is sleeping.
  • the first awakening degree estimation unit 12 determines that the person 30 is awake, the first awakening degree indicating that the person 30 is awake is set to “1”. Further, when the first awakening degree estimation unit 12 determines that the person 30 is sleeping, it sets the first awakening degree indicating that the person 30 is sleeping to “0 (zero)”.
  • the pulse wave detecting unit 13 determines that the first awakening degree is It is determined that the setting condition is satisfied, and the pulse wave of the person 30 is detected from the face image captured by the imaging device 20.
  • the pulse wave is detected by an existing method, for example, by utilizing the characteristic that hemoglobin absorbs green light, to detect the change in the brightness (G value) of the green component in the face image.
  • the pulse wave detection unit 13 calculates the average value of the luminance values of the green color components of all the pixels in the extracted image for each of the output image data for the set period, and thereby the green color is calculated. Gets the time series change of the brightness value of the component. Next, the pulse wave detection unit 13 performs a process of removing noise generated due to movement of the body or head, a change in facial expression, a change in surrounding light environment, etc. with respect to a time-series change in the acquired luminance value. The time series change of the brightness value after these processes is referred to as a pulse wave.
  • the pulse wave detection unit 13 frequency-converts a time-series change signal of a luminance value, which includes noise for a set period (for example, 60 seconds), in window units for a time shorter than the set period (for example, 4 seconds). , The frequency at which the power becomes maximum (frequency corresponding to the pulse component) is calculated for each window. Then, the pulse wave detection unit 13 uses the calculation result to extract a time-series change signal of the frequency corresponding to the pulse component.
  • the pulse wave detection unit 13 calculates a statistical value (for example, an average value, a standard deviation, a maximum value, a minimum value, etc.) from the extracted time-series signal of the frequency, and uses the calculated statistical value. Then, the frequency range in which the time-series change signal of the frequency is distributed is specified. After that, the pulse wave detection unit 13 uses a band-pass filter that passes only signals in the frequency range in which the time-series change signals are distributed, to detect the time-series change in luminance value including noise for a set period (60 seconds). Applied to the signal, thereby removing noise that is independent of the pulse component.
  • a statistical value for example, an average value, a standard deviation, a maximum value, a minimum value, etc.
  • the value of the frequency corresponding to the pulse which is calculated from the signal of the time-series change of the luminance value including noise, includes an error, but the statistical value for the set period (60 seconds) is calculated.
  • the error is suppressed in the frequency range in which the time-series change signal is distributed. Therefore, it is possible to effectively obtain a time series change of the luminance value after noise removal, that is, a pulse wave.
  • the second awakening degree estimation unit 14 determines whether or not the person 30 is awake in accordance with the time-series change detected by the pulse wave detection unit 13 as a pulse wave, and the determination result is The second arousal level. Specifically, the second alertness estimation unit 14 determines whether or not the person 30 is awake by using the neural network learned using the learning data shown in FIG.
  • FIG. 2 is a diagram showing an example of learning data used for learning of the neural network used by the second alertness estimation unit in the embodiment of the present invention.
  • examples of the neural network used in the present embodiment include a convolutional neural network.
  • the time series signal of the pulse wave from time T to time T+N for example, 60 seconds
  • the result matches the awake state (second awakening degree).
  • the learning of the network is performed.
  • the second arousal level estimation unit 14 inputs a new pulse wave time series signal other than the learning data to the neural network. As a result, the neural network outputs 0 or 1 as the determination result of the second awakening degree. Then, the second awakening degree estimation unit 14 determines that the person 30 is awake when 1 is output, and determines that the person 30 is asleep when 0 is output.
  • FIG. 3 is a diagram schematically showing processing performed by the arousal level estimation device according to the embodiment of the present invention.
  • the pulse wave is detected and the detected pulse is detected only when it is determined that the person is “sleeping” at the first arousal level estimated from the eye state.
  • a second wakefulness estimate is made from the waves.
  • FIG. 4 is a flowchart showing the operation of the awakening degree estimation device in the embodiment of the present invention.
  • FIG. 1 will be referred to as appropriate.
  • the arousal level estimation method is implemented by operating the arousal level estimation device 10. Therefore, the description of the arousal level estimation method according to the present embodiment will be replaced with the following operational description of the arousal level estimation device 10.
  • the image extraction unit 11 receives the image data of the face image output by the imaging device 20, and extracts the image of the part including the eyes from the received image data (step A1).
  • the first arousal level estimation unit 12 estimates the first arousal level based on the image (extracted image) extracted in step A1 (step A2). Specifically, the first arousal level estimation unit 12 detects the state of the eyes from the image extracted in step A1, determines whether the person 30 is awake, according to the detected state, The result is the first arousal level.
  • the pulse wave detection unit 13 determines whether the first arousal level estimated in step A2 satisfies the setting condition (step A3). Specifically, the pulse wave detection unit 13 determines whether the first arousal level indicates that the person 30 is sleeping.
  • step A3 If the result of determination in step A3 is that the first awakening degree does not satisfy the setting condition, that is, if the first awakening degree indicates that the person 30 is awake, the pulse wave detecting unit 13
  • the first arousal level is output to an external device (step A7).
  • the external device include a display device and a terminal device.
  • the pulse wave detection unit Step 13 detects the pulse wave of the person 30 from the face image of the image data acquired in step A1 (step A4).
  • the second awakening degree estimation unit 14 estimates the second awakening degree of the person 30 based on the pulse wave detected in step A4 (step A5). Specifically, in the present embodiment, the second arousal level estimation unit 14 determines whether the person 30 is awake according to the time-series change in the brightness value of the specific pixel detected by the pulse wave detection unit 13. It is determined whether or not it is determined that the determination result is the second awakening degree.
  • the second arousal level estimation unit 14 outputs the second arousal level estimated in step A5 to an external device (step A6). As a result, the second arousal level is displayed on the screen of the external device.
  • step A1 is executed again.
  • Steps A1 to A7 are repeatedly executed. As a result, the latest first arousal level or second arousal level is always displayed on the screen of the external device.
  • Modification 1 In the first modification, when learning the first arousal level estimation model of the first arousal level estimation unit 12, as the first arousal level given as correct data, the multi-step assigned with reference to the face image, For example, a wakefulness level of 5 levels (1: completely sleepless, 0.75: slightly sleepy, 0.5: sleepy, 0.25: quite sleepy, 0.0: very sleepy) is used. The learning of the first arousal level estimation model is performed so that the eye closing time, the number of blinks, or the like is input as the eye state, and the output matches the correct answer data.
  • the output of the first awakening degree estimation unit 12 is not a binary value (0 or 1) but a multivalued value of 0 to 1. Therefore, the pulse wave detection unit 13 causes the first awakening level to be increased. It operates depending on whether the degree is below a threshold value (condition). Further, when it is above the threshold value, the pulse wave detection unit 13 does not operate, and when it is below the threshold value, the pulse wave detection unit 13 operates.
  • Modification 2 In this modification 2, the behavior information is used as the second awakening degree given as the correct answer data when learning the second awakening degree estimation model of the second awakening degree estimating unit 14.
  • the behavior information is, for example, which of four levels (1.0: waking up, 0.66: light sleep, 0.33: normal sleep, 0.0: deep sleep) of the subject. It was obtained by asking what was.
  • the output of the second awakening degree estimation unit 14 is not binary (0 or 1) but multivalued from 0 to 1. Further, in the present second modification, the multi-valued output may be converted into a binary value (awake or sleeping) by the second awakening degree estimation unit 14 and then output.
  • Modification 3 In the third modification, the second arousal level estimation unit 14 uses the learning model constructed by machine learning the relationship between the brain activity of the person 30 and the pulse wave of the person 30 to cause the person 30 to wake up. It is determined whether or not there is, and the determination result is the second awakening degree.
  • the learning model can be constructed by learning a convolutional neural network using the learning data shown in FIG. 5, for example.
  • FIG. 5 is a diagram showing an example of learning data used in the third modification of the embodiment of the present invention.
  • combination data of a pulse wave signal and a label indicating the behavior of the brain of the person 30 at that time is used as learning data.
  • the second arousal level estimation unit 14 estimates the second arousal level by applying the pulse wave time series signal to the learning model.
  • the second awakening degree is estimated from the pulse wave only after it is determined that the person is “sleeping” at the first awakening degree estimated from the eye state.
  • the increase in processing load on the alertness estimation device 10 is suppressed.
  • the pulse wave is detected from the face image similarly to the first awakening degree, it is not necessary to separately prepare a sensor for detecting the pulse wave, so that an increase in introduction cost can be suppressed.
  • the program in the present embodiment may be any program that causes a computer to execute steps A1 to A7 shown in FIG.
  • the processor of the computer functions as the image extraction unit 11, the first arousal level estimation unit 12, the pulse wave detection unit 13, and the second arousal level estimation unit 14, and performs processing.
  • each computer may function as any one of the image extraction unit 11, the first arousal level estimation unit 12, the pulse wave detection unit 13, and the second arousal level estimation unit 14. ..
  • FIG. 6 is a block diagram showing an example of a computer that realizes the arousal level estimation device according to the embodiment of the present invention.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. With. These units are connected to each other via a bus 121 so as to be able to perform data communication with each other.
  • the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or in place of the CPU 111.
  • the CPU 111 expands the program (code) according to the present embodiment stored in the storage device 113 into the main memory 112, and executes these in a predetermined order to perform various calculations.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in computer-readable recording medium 120.
  • the program according to the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to the display device 119 and controls the display on the display device 119.
  • the data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads a program from the recording medium 120, and writes the processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as a flexible disk, or CD- An optical recording medium such as a ROM (Compact Disk Read Only Memory) can be given.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic recording media such as a flexible disk
  • CD- An optical recording medium such as a ROM (Compact Disk Read Only Memory) can be given.
  • the arousal level estimation device 10 can be realized not by using a computer in which a program is installed but by using hardware corresponding to each unit. Further, the awakening degree estimation device 10 may be partially realized by a program and the remaining part may be realized by hardware.
  • An image extraction unit that extracts an image of a portion including eyes from image data of a human face image, A first arousal level estimation unit that estimates a first arousal level based on the extracted image; It is determined whether the estimated first arousal level satisfies a setting condition, and if the first arousal level satisfies the setting condition, a pulse wave of the person is detected from the face image.
  • a detection unit A second arousal level estimation unit that estimates a second arousal level of the person based on the detected pulse wave; Is equipped with An awakening degree estimation device characterized by the above.
  • the arousal level estimation device (Appendix 2) The arousal level estimation device according to appendix 1, The first arousal level estimation unit detects the eye condition from the extracted image, determines whether the person is awake according to the detected condition, and determines the determination result as the first Awakening degree of When the pulse wave detection unit determines that the person is not awake by the first awakening degree estimation unit, the first awakening degree is determined to satisfy the setting condition, and the person from the face image is determined. To detect the pulse wave of An awakening degree estimation device characterized by the above.
  • the arousal level estimation device determines whether or not the person is awake by using a learning model constructed by machine learning the relationship between the eye state shown in the image and the awake state of the person.
  • a learning model constructed by machine learning the relationship between the eye state shown in the image and the awake state of the person.
  • the arousal level estimation device (Appendix 4) The arousal level estimation device according to appendix 1 or 2,
  • the pulse wave detection unit from the face image, detects the pulse wave by detecting a time-series change in the luminance value of a specific pixel in the image,
  • the second arousal level estimation unit determines whether or not the person is awake in accordance with the detected time-series change, and the determination result is the second arousal level.
  • An awakening degree estimation device characterized by the above.
  • the arousal level estimation device determines whether or not the person is awake by using a learning model constructed by machine learning the relationship between a person's behavior and a person's pulse wave.
  • An awakening degree estimation device characterized by the above.
  • the arousal level estimation device determines whether or not the person is awake using a learning model constructed by machine learning the relationship between the activity of the human brain and the pulse wave of the person.
  • An awakening degree estimation device characterized by the above.
  • the awakening degree estimation device according to any one of appendices 1 to 6,
  • the second arousal level estimation unit removes noise included in the pulse wave according to the pulse rate estimated from the pulse wave, and then estimates the second arousal level.
  • (Appendix 8) (A) a step of extracting an image of a portion including eyes from image data of a human face image, (B) estimating a first arousal level based on the extracted image, (C) It is determined whether or not the estimated first arousal level satisfies a setting condition, and when the first arousal level satisfies the setting condition, the pulse wave of the person is detected from the face image. , Step, (D) estimating a second arousal level of the person based on the detected pulse wave, and Has, An awakening degree estimation method characterized by the following.
  • step (Appendix 11) The method of estimating arousal level according to appendix 8 or 9,
  • the pulse wave is detected from the face image by detecting a time-series change in the luminance value of a specific pixel in the image
  • step (d) it is determined whether the person is awake in accordance with the detected time-series change, and the determination result is the second awakening degree.
  • An awakening degree estimation method characterized by the following.
  • appendix 12 The method of estimating arousal level according to appendix 11, comprising: In the step (d), it is determined whether or not the person is awake using a learning model constructed by machine learning the relationship between the person's behavior and the person's pulse wave.
  • An awakening degree estimation method characterized by the following.
  • step (Appendix 16) The computer-readable recording medium according to attachment 15, In the step (b), the state of the eye is detected from the extracted image, whether or not the person is awake is determined according to the detected state, and the determination result is the first awakening state. Degree and In the step (c), if it is determined in the step (b) that the person is not awake, it is determined that the first awakening degree satisfies the setting condition, and the face image of the person Detect pulse wave, A computer-readable recording medium characterized by the above.
  • the present invention it is possible to detect the wakefulness of a person without increasing the introduction cost and the processing load.
  • INDUSTRIAL APPLICABILITY The present invention is useful for a system in which it is required to detect the awakening state of a person, for example, a vehicle driving support system, a business computer system, or the like.
  • Awakening Level Estimating Device 11 Image Extracting Unit 12 First Awakening Level Estimating Unit 13 Pulse Wave Detecting Unit 14 Second Awakening Level Estimating Unit 20 Imaging Device 30 People 110 Computer 111 CPU 112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader/Writer 117 Communication Interface 118 Input Equipment 119 Display Device 120 Recording Medium 121 Bus

Abstract

覚醒度推定装置10は、人の顔画像の画像データから、眼を含む部分の画像を抽出する、画像抽出部11と、抽出された画像に基づいて、第1の覚醒度を推定する、第1の覚醒度推定部12と、推定された第1の覚醒度が設定条件を満たすかどうかを判定し、第1の覚醒度が設定条件を満たす場合に、顔画像から人の脈波を検出する、脈波検出部13と、検出された脈波に基づいて、人の第2の覚醒度を推定する、第2の覚醒度推定部14と、を備えている。

Description

覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、人の覚醒度を推定するための、覚醒度推定装置、及び覚醒度推定方法に関し、更には、これらを実現するためのコンピュータ読み取り可能な記録媒体に関する。
 近年、少子高齢化により生産年齢人口が減少し、労働力不足が進行している。そして、このような状況下において、今まで人が行っていた仕事の一部を、ロボット又はAI(Artificial Intelligence)で置き換える試みが増加している。但し、人が行う仕事のうち、知的労働が必要となる仕事については、ロボット又はAIでの置き換えは困難である。このため、今後、人においては、知的労働の生産性を維持、向上することが必須となる。
 ところで、人は、機械と異なり、睡眠時無呼吸症候群などの疾病、その他何等かが原因で寝不足になったり、二日酔いになったりすることで、就業中に眠気を感じる(低覚醒の状態となる)ことがある。当然、そのような状態では就業者は通常の生産性を維持することが困難となる。
 就業者の覚醒状態を検出し、就業者本人に提示し、寝不足の原因を考えさせたり、生活習慣を見直すきっかけを与えたりすることで、就業中の覚醒度の低下を抑えることができる可能性がある。そのため、人の覚醒状態を精度良く検出することが重要となる。
 例えば、特許文献1は、人の覚醒状態を検出する装置を開示している。具体的には、特許文献1に開示された装置は、顔画像からまばたきの時間を計測し、更に、心拍センサから心拍変動を計測する。そして、特許文献1に開示された装置は、計測したまばたき時間に延長が現れ、且つ、計測した心拍変動においてHF成分の上昇の開始が認められると、入眠予兆と判定する。
特開2009-18091号公報
 ところで、特許文献1に開示された装置によれば、人の覚醒状態を検出することが可能となるが、そのためには、心拍を検出するためのセンサを各人に装着させる必要がある。この結果、特許文献1に開示された装置を企業等で導入するためには、コストが掛かりすぎるという問題がある。
 一方、特許文献1に開示された装置に、人の顔画像から心拍を検出する技術を導入すれば、上記問題は解決できると考えられる。但し、この場合、装置は、顔画像からまばたき時間を計測する処理に加えて、顔画像から心拍を検出する処理も常時行う必要があり、装置における処理負担が増大してしまう。また、特許文献1に開示された装置は、従業員等が業務で使用するコンピュータ、又は別の用途のために用意されたコンピュータによって実現されるため、処理負担の増大は看過できない問題である。
 本発明の目的の一例は、上記問題を解消し、導入コスト及び処理負担を増加させることなく、人の覚醒状態を検出し得る、覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における覚醒度推定装置は、
 人の顔画像の画像データから、眼を含む部分の画像を抽出する、画像抽出部と、
 抽出された前記画像に基づいて、第1の覚醒度を推定する、第1の覚醒度推定部と、
 推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、脈波検出部と、
 検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、第2の覚醒度推定部と、
を備えている、
ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面における覚醒度推定方法は、
(a)人の顔画像の画像データから、眼を含む部分の画像を抽出する、ステップと、
(b)抽出された前記画像に基づいて、第1の覚醒度を推定する、ステップと、
(c)推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、ステップと、
(d)検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、ステップと、
を有する、
ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)人の顔画像の画像データから、眼を含む部分の画像を抽出する、ステップと、
(b)抽出された前記画像に基づいて、第1の覚醒度を推定する、ステップと、
(c)推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、ステップと、
(d)検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、ステップと、
を実行させる命令を含む、プログラムを記録している、
ことを特徴とする。
 以上のように、本発明によれば、導入コスト及び処理負担を増加させることなく、人の覚醒状態を検出することができる。
図1は、本発明の実施の形態における覚醒度推定装置の構成を示すブロック図である。 図2は、本発明の実施の形態において第2の覚醒度推定部が使用するニューラルネットワークの学習に用いられる学習データの一例を示す図である。 図3は、本発明の実施の形態における覚醒度推定装置で行われる処理を模式的に示す図である。 図4は、本発明の実施の形態における覚醒度推定装置の動作を示すフロー図である。 図5は、本発明の実施の形態における変形例3で用いられる学習データの一例を示す図である。 図6は、本発明の実施の形態における覚醒度推定装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
 以下、本発明の実施の形態における、覚醒度推定装置、覚醒度推定方法、及びプログラムについて、図1~図6を参照しながら説明する。
[装置構成]
 最初に、図1を用いて、本実施の形態における覚醒度推定装置の構成について説明する。図1は、本発明の実施の形態における覚醒度推定装置の構成を示すブロック図である。
 図1に示す、本実施の形態における覚醒度推定装置10は、人30の覚醒度を推定する装置である。図1に示すように、覚醒度推定装置10は、画像抽出部11と、第1の覚醒度推定部12と、脈波検出部13と、第2の覚醒度推定部14とを備えている。
 画像抽出部11は、人30の顔画像の画像データから、眼を含む部分の画像を抽出する。第1の覚醒度推定部12は、抽出された画像に基づいて、第1の覚醒度を推定する。脈波検出部13は、推定された第1の覚醒度が設定条件を満たすかどうかを判定し、第1の覚醒度が設定条件を満たす場合に、人30の顔画像から人30の脈波を検出する。第2の覚醒度推定部14は、この検出された脈波に基づいて、人30の第2の覚醒度を推定する。
 このように、本実施の形態では、まず、眼の部分の状態から推定された覚醒度が設定条件を満たす場合にのみ、顔画像からの脈波の検出処理と脈波からの覚醒度の推定とが実行されるので、装置の処理負担の増大が抑制される。また、本実施の形態において、脈波の検出のために、各人にセンサを装着させる必要はない。このため、本実施の形態によれば、導入コスト及び処理負担を増加させることなく、人の覚醒状態を検出することができる。
 続いて、本実施の形態における覚醒度推定装置10の構成及び各部の機能についてより具体的に説明する。
 図1に示すように、本実施の形態では、覚醒度推定装置10は、撮像装置20に接続されている。撮像装置20は、覚醒度推定装置を使用する人30の顔を撮影できるように配置されおり、設定間隔で、撮影した画像(顔を含む画像)の画像データを、覚醒度推定装置10に出力する。撮像装置20は、デジタルカメラ、Webカメラ等である。
 画像抽出部11は、本実施の形態では、まず、撮像装置20が出力した画像データを受け取ると、その度に、受け取った画像データの特徴量を抽出する。続いて、画像抽出部11は、抽出した特徴量と、予め登録されている眼及び他の顔の部分の特徴量とを比較し、比較結果を用いて、画像データ中の眼及びその周辺の領域を特定し、特定した領域の画像を抽出する。
 第1の覚醒度推定部12は、本実施の形態では、画像抽出部11によって抽出された画像(以下「抽出画像」と表記する)から、瞼の開閉状態を検出し、検出した状態に応じて、人30が起きているかどうかを判定し、判定結果を、第1の覚醒度とする。従って、第1の覚醒度は、人30が起きていることを示す値「1」と、人30が眠っていることを示す値「0」と、のうちいずれかとなる。
 具体的には、第1の覚醒度推定部12は、設定期間分の抽出画像を取得し、抽出画像毎に、抽出画像中の瞼の開閉度合(閉じている状態0.0~開いている状態1.0)を算出し、算出した開閉度合の時系列変化から、例えば、瞼が閉じられている時間を算出する。続いて、第1の覚醒度推定部12は、瞼が閉じられている時間が閾値以下の場合は、人30が起きていると判定し、一方、瞼が閉じられている時間が閾値を越えると、人30が眠っていると判定する。
 そして、第1の覚醒度推定部12は、人30が起きていると判定した場合は、人30が起きていることを示す第1の覚醒度を「1」とする。また、第1の覚醒度推定部12は、人30が眠っていると判定した場合は、人30が眠っていることを示す第1の覚醒度を「0(ゼロ)」とする。
 脈波検出部13は、第1の覚醒度推定部12によって、人30が起きていないと判定された場合、即ち、第1の覚醒度が「0」の場合に、第1の覚醒度が設定条件を満たすと判断し、撮像装置20によって撮影された顔画像から人30の脈波を検出する。本実施の形態では、脈波の検出は、既存の手法によって、例えば、ヘモグロビンが緑色光を吸収するという特性を利用して、顔画像における緑色成分の輝度(G値)の変化を検出することによって行われる。
 具体的には、脈波検出部13は、出力されてきた設定期間分の画像データ毎に、抽出された画像中の全画素の緑色成分の輝度値の平均値を算出し、これによって、緑色成分の輝度値の時系列変化を取得する。次に、脈波検出部13は、取得した輝度値の時系列変化に対して、体や頭の動き、顔の表情変化、周囲の光環境の変化等により生じるノイズを除去する処理を行い、これらの処理後の輝度値の時系列変化を、脈波とする。
 ノイズの除去処理方法としては、次に示す方法が望ましい方法としてあげられる。まず、脈波検出部13は、設定期間分(例えば、60秒)のノイズを含む、輝度値の時系列変化の信号を、設定期間より短い時間(例えば4秒)の窓単位で周波数変換し、窓毎にパワーが最大となる周波数(脈拍成分に相当する周波数)を算出する。そして、脈波検出部13は、算出結果を用いて、脈拍成分に相当する周波数の時系列変化の信号を抽出する。
 次に、脈波検出部13は、抽出した周波数の時系列変化の信号から、統計値(例えば、平均値、標準偏差、最大値、及び最小値など)を算出し、算出した統計値を用いて、その周波数の時系列変化の信号がどの周波数範囲に分布するかを特定する。その後、脈波検出部13は、時系列変化の信号が分布している周波数範囲の信号のみを通過させる帯域通過フィルタを、設定期間分(60秒)のノイズを含む輝度値の時系列変化の信号に適用し、これによって、脈拍成分とは無関係のノイズを除去する。
 上述のノイズの除去処理方法によれば、ノイズを含む輝度値の時系列変化の信号から算出した、脈拍に相当する周波数の値は誤差を含むが、設定期間分(60秒)の統計値を算出することにより、時系列変化の信号が分布する周波数範囲という点では誤差は抑えられている。このため、効果的に、ノイズ除去後の輝度値の時系列変化、つまり、脈波を得ることができる。
 第2の覚醒度推定部14は、本実施の形態では、脈波検出部13によって脈波として検出された時系列変化に応じて、人30が起きているかどうかを判定し、判定結果を、第2の覚醒度とする。具体的には、第2の覚醒度推定部14は、図2に示す学習データを用いて学習されたニューラルネットワークを用いて、人30が起きているかどうかを判定する。図2は、本発明の実施の形態において第2の覚醒度推定部が使用するニューラルネットワークの学習に用いられる学習データの一例を示す図である。
 また、本実施の形態において用いられるニューラルネットワークとしては、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network)等が挙げられる。図2においては、時刻T~時刻T+N(例えば、60秒間)の脈波の時系列信号が、畳み込みニューラルネットワークに入力されたときに、その結果が覚醒状態(第2の覚醒度)と一致するように、ネットワークの学習が行われる。
 第2の覚醒度推定部14は、学習データ以外の新たな脈波の時系列信号を、ニューラルネットワークに入力する。これにより、ニューラルネットワークは、第2の覚醒度の判定結果として、0または1を出力する。そして、第2の覚醒度推定部14は、1が出力されると、人30は起きていると判定し、0が出力されると、人30は眠っていると判定する。
 図3は、本発明の実施の形態における覚醒度推定装置で行われる処理を模式的に示す図である。図3に示すように、覚醒度推定装置10では、眼の状態から推定された第1の覚醒度で「眠っている」と判定されて初めて、脈波の検出が行われ、検出された脈波による第2の覚醒度の推定が行われる。
[装置動作]
 次に、本発明の実施の形態における、覚醒度推定装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態における覚醒度推定装置の動作を示すフロー図である。以下の説明においては、適宜図1を参酌する。また、本実施の形態では、覚醒度推定装置10を動作させることによって、覚醒度推定方法が実施される。よって、本実施の形態における覚醒度推定方法の説明は、以下の覚醒度推定装置10の動作説明に代える。
 最初に、図4に示すように、画像抽出部11は、撮像装置20が出力した顔画像の画像データを受け取り、受け取った画像データから、眼を含む部分の画像を抽出する(ステップA1)。
 次に、第1の覚醒度推定部12は、ステップA1で抽出された画像(抽出画像)に基づいて、第1の覚醒度を推定する(ステップA2)。具体的には、第1の覚醒度推定部12は、ステップA1で抽出された画像から、眼の状態を検出し、検出した状態に応じて、人30が起きているかどうかを判定し、判定結果を、第1の覚醒度とする。
 次に、脈波検出部13は、ステップA2で推定された第1の覚醒度が設定条件を満たすかどうかを判定する(ステップA3)。具体的には、脈波検出部13は、第1の覚醒度が、人30が眠っていることを示しているかどうかを判定する。
 ステップA3の判定の結果、第1の覚醒度が設定条件を満たさない場合、即ち、第1の覚醒度が、人30が起きていることを示している場合は、脈波検出部13は、第1の覚醒度を外部の装置に出力する(ステップA7)。これにより、第1の覚醒度が、外部の装置の画面に表示される。外部の装置としては、表示装置、端末装置等が挙げられる。
 一方、ステップA3の判定の結果、第1の覚醒度が設定条件を満たしている場合、即ち、第1の覚醒度が、人30が眠っていることを示している場合は、脈波検出部13は、ステップA1で取得された画像データの顔画像から、人30の脈波を検出する(ステップA4)。
 次に、第2の覚醒度推定部14は、ステップA4で検出された脈波に基づいて、人30の第2の覚醒度を推定する(ステップA5)。具体的には、第2の覚醒度推定部14は、本実施の形態では、脈波検出部13によって検出された特定の画素の輝度値の時系列変化に応じて、人30が起きているかどうかを判定し、判定結果を、第2の覚醒度とする。
 その後、第2の覚醒度推定部14は、ステップA5で推定した第2の覚醒度を外部の装置に出力する(ステップA6)。これにより、第2の覚醒度が、外部の装置の画面に表示される。
 また、ステップA6又はA7の実行後、再度、ステップA1が実行される。ステップA1~A7は繰り返し実行される。これにより、外部の装置の画面上には、常に最新の第1の覚醒度又は第2の覚醒度が表示されることになる。
[変形例]
 以下に、本実施の形態1における変形例1~4について説明する。
変形例1:
 本変形例1では、第1の覚醒度推定部12の第1の覚醒度推定モデルを学習する際に、正解データとして与える第1の覚醒度として、顔画像を参照して付与した多段階、例えば5段階(1:全く眠くなさそう、0.75:やや眠そう、0.5:眠そう、0.25:かなり眠そう、0.0:非常に眠そう)の覚醒度が用いられる。第1の覚醒度推定モデルの学習は、眼の状態として、眼を閉じている時間、又はまばたきの回数等が入力され、出力が上記正解データと一致するように行われる。
 また、本変形例1では、第1の覚醒度推定部12の出力は2値(0または1)ではなく、0~1の多値となるため、脈波検出部13は、第1の覚醒度が閾値を下回るかどうか(条件)に応じて動作する。また、閾値を上回っている場合は、脈波検出部13は動作せず、下回っている場合は、脈波検出部13は動作する。
変形例2:
 本変形2では、第2の覚醒度推定部14の第2の覚醒度推定モデルを学習する際に、正解データとして与える第2の覚醒度として、行動情報が用いられる。行動情報は、例えば、対象者に4段階(1.0:起きていた、0.66:浅い眠りだった、0.33:普通の眠りだった、0.0:深い眠りだった)のどれだったかを聞きとることによって取得される。
 また、本変形例2では、第2の覚醒度推定部14の出力は2値(0または1)ではなく、0~1の多値となる。更に、本変形例2では、第2の覚醒度推定部14によって、多値の出力が2値(起きている又は眠っている)に変換されてから出力されてもよい。
変形例3:
 本変形例3では、第2の覚醒度推定部14は、人30の脳の活動と人30の脈波との関係を機械学習することによって構築された学習モデルを用いて、人30が起きているかどうかを判定し、その判定結果を第2の覚醒度とする。
 本変形例3では、学習モデルは、例えば、図5に示す学習データを用いて畳み込みニューラルネットワークを学習することによって構築できる。図5は、本発明の実施の形態における変形例3で用いられる学習データの一例を示す図である。
 図5の例では、脈波信号と、そのときの人30の脳の行動(レム睡眠、ノンレム睡眠又は起きている)を示すラベルとの、組合せデータが、学習データとして用いられている。この場合、第2の覚醒度推定部14は、脈波の時系列信号を、学習モデルに適用することで、第2の覚醒度を推定する。
[実施の形態における効果]
 以上のように本実施の形態によれば、眼の状態から推定された第1の覚醒度で「眠っている」と判定されて初めて、脈波による第2の覚醒度の推定が行われるので、覚醒度推定装置10における処理負担の増大が抑制される。また、脈波は、第1の覚醒度と同様に、顔画像から検出されるので、脈波の検出のために別途センサを用意する必要はないことから、導入コストの増加も抑制される。
[プログラム]
 本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1~A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における覚醒度推定装置10と覚醒度推定方法とを実現することができる。この場合、コンピュータのプロセッサは、画像抽出部11、第1の覚醒度推定部12、脈波検出部13、及び第2の覚醒度推定部14として機能し、処理を行なう。
 また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像抽出部11、第1の覚醒度推定部12、脈波検出部13、及び第2の覚醒度推定部14のいずれかとして機能しても良い。
 ここで、本実施の形態におけるプログラムを実行することによって、覚醒度推定装置10を実現するコンピュータについて図6を用いて説明する。図6は、本発明の実施の形態における覚醒度推定装置を実現するコンピュータの一例を示すブロック図である。
 図6に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 なお、本実施の形態における覚醒度推定装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、覚醒度推定装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記21)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 人の顔画像の画像データから、眼を含む部分の画像を抽出する、画像抽出部と、
 抽出された前記画像に基づいて、第1の覚醒度を推定する、第1の覚醒度推定部と、
 推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、脈波検出部と、
 検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、第2の覚醒度推定部と、
を備えている、
ことを特徴とする覚醒度推定装置。
(付記2)
付記1に記載の覚醒度推定装置であって、
 前記第1の覚醒度推定部が、抽出された前記画像から、前記眼の状態を検出し、検出した状態に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第1の覚醒度とし、
 前記脈波検出部が、前記第1の覚醒度推定部によって、前記人が起きていないと判定された場合に、前記第1の覚醒度が前記設定条件を満たすとして、前記顔画像から前記人の脈波を検出する、
ことを特徴とする覚醒度推定装置。
(付記3)
付記2に記載の覚醒度推定装置であって、
 前記第1の覚醒度推定部が、画像に示された眼の状態と人の覚醒状態との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とする覚醒度推定装置。
(付記4)
付記1または2に記載の覚醒度推定装置であって、
 前記脈波検出部が、前記顔画像から、画像中の特定の画素の輝度値の時系列変化を検出することによって前記脈波を検出し、
 前記第2の覚醒度推定部が、検出された前記時系列変化に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第2の覚醒度とする、
ことを特徴とする覚醒度推定装置。
(付記5)
付記4に記載の覚醒度推定装置であって、
 前記第2の覚醒度推定部が、人の行動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とする覚醒度推定装置。
(付記6)
付記4に記載の覚醒度推定装置であって、
 前記第2の覚醒度推定部が、人の脳の活動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とする覚醒度推定装置。
(付記7)
付記1から6のいずれかに記載の覚醒度推定装置であって、
 前記第2の覚醒度推定部が、脈波から推定した脈拍に応じて、脈波に含まれるノイズを除去してから、前記第2の覚醒度を推定する、
ことを特徴とする覚醒度推定装置。
(付記8)
(a)人の顔画像の画像データから、眼を含む部分の画像を抽出する、ステップと、
(b)抽出された前記画像に基づいて、第1の覚醒度を推定する、ステップと、
(c)推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、ステップと、
(d)検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、ステップと、
を有する、
ことを特徴とする覚醒度推定方法。
(付記9)
付記8に記載の覚醒度推定方法であって、
 前記(b)のステップにおいて、抽出された前記画像から、前記眼の状態を検出し、検出した状態に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第1の覚醒度とし、
 前記(c)のステップにおいて、前記(b)のステップによって、前記人が起きていないと判定された場合に、前記第1の覚醒度が前記設定条件を満たすとして、前記顔画像から前記人の脈波を検出する、
ことを特徴とする覚醒度推定方法。
(付記10)
付記9に記載の覚醒度推定方法であって、
 前記(b)のステップにおいて、画像に示された眼の状態と人の覚醒状態との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とする覚醒度推定方法。
(付記11)
付記8または9に記載の覚醒度推定方法であって、
 前記(c)のステップにおいて、前記顔画像から、画像中の特定の画素の輝度値の時系列変化を検出することによって前記脈波を検出し、
 前記(d)のステップにおいて、検出された前記時系列変化に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第2の覚醒度とする、
ことを特徴とする覚醒度推定方法。
(付記12)
付記11に記載の覚醒度推定方法であって、
 前記(d)のステップにおいて、人の行動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とする覚醒度推定方法。
(付記13)
付記12に記載の覚醒度推定方法であって、
 前記(d)のステップにおいて、人の脳の活動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とする覚醒度推定方法。
(付記14)
付記8から13のいずれかに記載の覚醒度推定方法であって、
 前記(d)のステップにおいて、脈波から推定した脈拍に応じて、脈波に含まれるノイズを除去してから、前記第2の覚醒度を推定する、
ことを特徴とする覚醒度推定方法。
(付記15)
コンピュータに、
(a)人の顔画像の画像データから、眼を含む部分の画像を抽出する、ステップと、
(b)抽出された前記画像に基づいて、第1の覚醒度を推定する、ステップと、
(c)推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、ステップと、
(d)検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、ステップと、
を実行させる命令を含む、プログラムを記録している、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記16)
付記15に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(b)のステップにおいて、抽出された前記画像から、前記眼の状態を検出し、検出した状態に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第1の覚醒度とし、
 前記(c)のステップにおいて、前記(b)のステップによって、前記人が起きていないと判定された場合に、前記第1の覚醒度が前記設定条件を満たすとして、前記顔画像から前記人の脈波を検出する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記17)
付記16に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(b)のステップにおいて、画像に示された眼の状態と人の覚醒状態との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記18)
付記15または16に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(c)のステップにおいて、前記顔画像から、画像中の特定の画素の輝度値の時系列変化を検出することによって前記脈波を検出し、
 前記(d)のステップにおいて、検出された前記時系列変化に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第2の覚醒度とする、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記19)
付記18に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(d)のステップにおいて、人の行動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記20)
付記18に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(d)のステップにおいて、人の脳の活動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記21)
付記15から20のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記(d)のステップにおいて、脈波から推定した脈拍に応じて、脈波に含まれるノイズを除去してから、前記第2の覚醒度を推定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 以上のように、本発明によれば、導入コスト及び処理負担を増加させることなく、人の覚醒状態を検出することができる。本発明は、人の覚醒状態の検出が求められているシステム、例えば、車両の運転支援システム、業務用のコンピュータシステム等に有用である。
 10 覚醒度推定装置
 11 画像抽出部
 12 第1の覚醒度推定部
 13 脈波検出部
 14 第2の覚醒度推定部
 20 撮像装置
 30 人
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (21)

  1.  人の顔画像の画像データから、眼を含む部分の画像を抽出する、画像抽出部と、
     抽出された前記画像に基づいて、第1の覚醒度を推定する、第1の覚醒度推定部と、
     推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、脈波検出部と、
     検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、第2の覚醒度推定部と、
    を備えている、
    ことを特徴とする覚醒度推定装置。
  2. 請求項1に記載の覚醒度推定装置であって、
     前記第1の覚醒度推定部が、抽出された前記画像から、前記眼の状態を検出し、検出した状態に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第1の覚醒度とし、
     前記脈波検出部が、前記第1の覚醒度推定部によって、前記人が起きていないと判定された場合に、前記第1の覚醒度が前記設定条件を満たすとして、前記顔画像から前記人の脈波を検出する、
    ことを特徴とする覚醒度推定装置。
  3. 請求項2に記載の覚醒度推定装置であって、
     前記第1の覚醒度推定部が、画像に示された眼の状態と人の覚醒状態との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とする覚醒度推定装置。
  4. 請求項1または2に記載の覚醒度推定装置であって、
     前記脈波検出部が、前記顔画像から、画像中の特定の画素の輝度値の時系列変化を検出することによって前記脈波を検出し、
     前記第2の覚醒度推定部が、検出された前記時系列変化に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第2の覚醒度とする、
    ことを特徴とする覚醒度推定装置。
  5. 請求項4に記載の覚醒度推定装置であって、
     前記第2の覚醒度推定部が、人の行動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とする覚醒度推定装置。
  6. 請求項4に記載の覚醒度推定装置であって、
     前記第2の覚醒度推定部が、人の脳の活動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とする覚醒度推定装置。
  7. 請求項1から6のいずれかに記載の覚醒度推定装置であって、
     前記第2の覚醒度推定部が、脈波から推定した脈拍に応じて、脈波に含まれるノイズを除去してから、前記第2の覚醒度を推定する、
    ことを特徴とする覚醒度推定装置。
  8. (a)人の顔画像の画像データから、眼を含む部分の画像を抽出する、ステップと、
    (b)抽出された前記画像に基づいて、第1の覚醒度を推定する、ステップと、
    (c)推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、ステップと、
    (d)検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、ステップと、
    を有する、
    ことを特徴とする覚醒度推定方法。
  9. 請求項8に記載の覚醒度推定方法であって、
     前記(b)のステップにおいて、抽出された前記画像から、前記眼の状態を検出し、検出した状態に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第1の覚醒度とし、
     前記(c)のステップにおいて、前記(b)のステップによって、前記人が起きていないと判定された場合に、前記第1の覚醒度が前記設定条件を満たすとして、前記顔画像から前記人の脈波を検出する、
    ことを特徴とする覚醒度推定方法。
  10. 請求項9に記載の覚醒度推定方法であって、
     前記(b)のステップにおいて、画像に示された眼の状態と人の覚醒状態との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とする覚醒度推定方法。
  11. 請求項8または9に記載の覚醒度推定方法であって、
     前記(c)のステップにおいて、前記顔画像から、画像中の特定の画素の輝度値の時系列変化を検出することによって前記脈波を検出し、
     前記(d)のステップにおいて、検出された前記時系列変化に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第2の覚醒度とする、
    ことを特徴とする覚醒度推定方法。
  12. 請求項11に記載の覚醒度推定方法であって、
     前記(d)のステップにおいて、人の行動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とする覚醒度推定方法。
  13. 請求項12に記載の覚醒度推定方法であって、
     前記(d)のステップにおいて、人の脳の活動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とする覚醒度推定方法。
  14. 請求項8から13のいずれかに記載の覚醒度推定方法であって、
     前記(d)のステップにおいて、脈波から推定した脈拍に応じて、脈波に含まれるノイズを除去してから、前記第2の覚醒度を推定する、
    ことを特徴とする覚醒度推定方法。
  15. コンピュータに、
    (a)人の顔画像の画像データから、眼を含む部分の画像を抽出する、ステップと、
    (b)抽出された前記画像に基づいて、第1の覚醒度を推定する、ステップと、
    (c)推定された前記第1の覚醒度が設定条件を満たすかどうかを判定し、前記第1の覚醒度が前記設定条件を満たす場合に、前記顔画像から前記人の脈波を検出する、ステップと、
    (d)検出された前記脈波に基づいて、前記人の第2の覚醒度を推定する、ステップと、
    を実行させる命令を含む、プログラムを記録している、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  16. 請求項15に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(b)のステップにおいて、抽出された前記画像から、前記眼の状態を検出し、検出した状態に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第1の覚醒度とし、
     前記(c)のステップにおいて、前記(b)のステップによって、前記人が起きていないと判定された場合に、前記第1の覚醒度が前記設定条件を満たすとして、前記顔画像から前記人の脈波を検出する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  17. 請求項16に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(b)のステップにおいて、画像に示された眼の状態と人の覚醒状態との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  18. 請求項15または16に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(c)のステップにおいて、前記顔画像から、画像中の特定の画素の輝度値の時系列変化を検出することによって前記脈波を検出し、
     前記(d)のステップにおいて、検出された前記時系列変化に応じて、前記人が起きているかどうかを判定し、判定結果を、前記第2の覚醒度とする、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  19. 請求項18に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(d)のステップにおいて、人の行動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  20. 請求項18に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(d)のステップにおいて、人の脳の活動と人の脈波との関係を機械学習することによって構築された学習モデルを用いて、前記人が起きているかどうかを判定する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  21. 請求項15から20のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
     前記(d)のステップにおいて、脈波から推定した脈拍に応じて、脈波に含まれるノイズを除去してから、前記第2の覚醒度を推定する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2019/003752 2019-02-01 2019-02-01 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体 WO2020157989A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/003752 WO2020157989A1 (ja) 2019-02-01 2019-02-01 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体
US17/425,840 US20220313132A1 (en) 2019-02-01 2019-02-01 Alertness estimation apparatus, alertness estimation method, and computer-readable recording medium
JP2020569335A JP7211441B2 (ja) 2019-02-01 2019-02-01 覚醒度推定装置、覚醒度推定方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/003752 WO2020157989A1 (ja) 2019-02-01 2019-02-01 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2020157989A1 true WO2020157989A1 (ja) 2020-08-06

Family

ID=71840986

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003752 WO2020157989A1 (ja) 2019-02-01 2019-02-01 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US20220313132A1 (ja)
JP (1) JP7211441B2 (ja)
WO (1) WO2020157989A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7443283B2 (ja) 2021-03-29 2024-03-05 公益財団法人鉄道総合技術研究所 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
RU224098U1 (ru) * 2023-10-13 2024-03-18 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" Прибор для психофизиологического тестирования операторов эргатических систем

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257043A (ja) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd 乗員状態推定装置および乗員状態推定方法
JP2009018091A (ja) * 2007-07-13 2009-01-29 Toyota Motor Corp 居眠り検知装置
JP2009028239A (ja) * 2007-07-26 2009-02-12 Nissan Motor Co Ltd 居眠り運転検出装置
JP2012164040A (ja) * 2011-02-04 2012-08-30 Nissan Motor Co Ltd 覚醒低下検出装置
JP2013081708A (ja) * 2011-10-12 2013-05-09 Aisin Seiki Co Ltd 睡眠状態判別装置および睡眠状態判別方法
JP2017012730A (ja) * 2015-06-29 2017-01-19 パナソニックIpマネジメント株式会社 人状態推定方法、及び、人状態推定システム
JP2017164526A (ja) * 2015-07-22 2017-09-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 覚醒度予測方法および覚醒度予測装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
WO2005114576A1 (ja) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha 動作内容判定装置
JP4985428B2 (ja) * 2007-02-01 2012-07-25 株式会社デンソー ドライバ管理装置および運行管理システム
JP5210773B2 (ja) * 2008-09-16 2013-06-12 トヨタ自動車株式会社 眠気判定装置及びプログラム
US8847771B2 (en) * 2013-01-25 2014-09-30 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for early detection of dynamic attentive states for providing an inattentive warning
JP6201469B2 (ja) * 2013-07-12 2017-09-27 セイコーエプソン株式会社 生体情報処理装置、生体情報処理方法
CN107530016A (zh) * 2015-04-20 2018-01-02 深圳市长桑技术有限公司 一种生理体征信息获取方法和系统
CN106551690A (zh) * 2015-09-30 2017-04-05 齐心 一种生命体征测量装置及方法
JP2017205145A (ja) * 2016-05-16 2017-11-24 富士通株式会社 脈拍推定装置、脈拍推定システム、脈拍推定方法および脈拍推定プログラム
JP2018062308A (ja) * 2016-10-14 2018-04-19 オムロン株式会社 運転モード切替制御装置、方法およびプログラム
US10467488B2 (en) * 2016-11-21 2019-11-05 TeleLingo Method to analyze attention margin and to prevent inattentive and unsafe driving
US10393530B2 (en) * 2016-12-15 2019-08-27 Gracenote, Inc. Dynamic content delivery based on vehicle navigational attributes
JP2018114266A (ja) * 2017-01-19 2018-07-26 パナソニックIpマネジメント株式会社 脈波計測装置、制御方法、及び、プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257043A (ja) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd 乗員状態推定装置および乗員状態推定方法
JP2009018091A (ja) * 2007-07-13 2009-01-29 Toyota Motor Corp 居眠り検知装置
JP2009028239A (ja) * 2007-07-26 2009-02-12 Nissan Motor Co Ltd 居眠り運転検出装置
JP2012164040A (ja) * 2011-02-04 2012-08-30 Nissan Motor Co Ltd 覚醒低下検出装置
JP2013081708A (ja) * 2011-10-12 2013-05-09 Aisin Seiki Co Ltd 睡眠状態判別装置および睡眠状態判別方法
JP2017012730A (ja) * 2015-06-29 2017-01-19 パナソニックIpマネジメント株式会社 人状態推定方法、及び、人状態推定システム
JP2017164526A (ja) * 2015-07-22 2017-09-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 覚醒度予測方法および覚醒度予測装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7443283B2 (ja) 2021-03-29 2024-03-05 公益財団法人鉄道総合技術研究所 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
RU224098U1 (ru) * 2023-10-13 2024-03-18 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" Прибор для психофизиологического тестирования операторов эргатических систем

Also Published As

Publication number Publication date
US20220313132A1 (en) 2022-10-06
JPWO2020157989A1 (ja) 2021-12-16
JP7211441B2 (ja) 2023-01-24

Similar Documents

Publication Publication Date Title
US11406323B2 (en) Method and system for monitoring sleep quality
US20160202667A1 (en) Electronic device and smart method for controlling alarm
Geman et al. Automatic assessing of tremor severity using nonlinear dynamics, artificial neural networks and neuro-fuzzy classifier
US20210090740A1 (en) State estimation apparatus, state estimation method, and non-transitory recording medium
WO2023112384A1 (ja) 計算機システム及び情動推定方法
WO2020157989A1 (ja) 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体
JP2017164397A (ja) 睡眠段階判定方法、睡眠段階判定装置、及び睡眠段階判定プログラム
KR102177740B1 (ko) 인지 능력 평가 방법, 이의 시스템 및 이를 위한 웨어러블 디바이스
JP7279812B2 (ja) ストレス推定装置、ストレス推定装置の作動方法、及び、プログラム
JP6853159B2 (ja) 状態推定装置
WO2019146123A1 (ja) 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体
WO2021260836A1 (ja) 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体
JP7459885B2 (ja) ストレス分析装置、ストレス分析方法、及びプログラム
JP2017209262A (ja) 眠気検知装置
WO2019167679A1 (en) Vital information displaying device, display controlling device, and non-transitory computer-readable medium
JP2018130342A (ja) 覚醒度推定装置、覚醒度推定方法及び覚醒度推定システム
JP7327417B2 (ja) 状態推定装置、状態推定方法、及びプログラム
US20230404475A1 (en) System and method for analyzing brain activity
WO2022101990A1 (ja) 疲労度推定装置、疲労度推定方法、及びコンピュータ読み取り可能な記録媒体
US11626087B2 (en) Head-mounted device and control device thereof
Peng et al. Estimation of Driver's Attention Level Based on Correlation Analysis of Movements
JP2016036540A (ja) 覚醒度判定プログラムおよび覚醒度判定装置
He et al. Fatigue at the wheel: A non-visual approach to truck driver fatigue detection by multi-feature fusion
De Cooman et al. Supervised transfer learning for personalized heart rate based epileptic seizure detection
Paliwal et al. Driver Drowsiness Detection System Using Machine Learning Technique

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19913747

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569335

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19913747

Country of ref document: EP

Kind code of ref document: A1