WO2022113275A1 - 睡眠検出装置及び睡眠検出システム - Google Patents

睡眠検出装置及び睡眠検出システム Download PDF

Info

Publication number
WO2022113275A1
WO2022113275A1 PCT/JP2020/044237 JP2020044237W WO2022113275A1 WO 2022113275 A1 WO2022113275 A1 WO 2022113275A1 JP 2020044237 W JP2020044237 W JP 2020044237W WO 2022113275 A1 WO2022113275 A1 WO 2022113275A1
Authority
WO
WIPO (PCT)
Prior art keywords
occupant
unit
posture
blunting
sleep
Prior art date
Application number
PCT/JP2020/044237
Other languages
English (en)
French (fr)
Inventor
太郎 熊谷
雄大 中村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/044237 priority Critical patent/WO2022113275A1/ja
Priority to JP2022564938A priority patent/JPWO2022113275A1/ja
Priority to DE112020007803.5T priority patent/DE112020007803T5/de
Publication of WO2022113275A1 publication Critical patent/WO2022113275A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined

Definitions

  • the occupant may fall asleep momentarily and fall into so-called microsleep, and in order to prevent drowsy driving, it is necessary to detect the above-mentioned momentary sleep.
  • the momentary sleep cannot be detected only by estimating which drowsiness stage the occupant is in, and the accuracy of detecting the occupant's sleep is poor.
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide a sleep detection device that detects the momentary sleep of an occupant and improves the detection accuracy of the occupant's sleep.
  • the sleep detection device is extracted from an image acquisition unit that acquires an image captured by the occupant and an image captured by the image acquisition unit from an image pickup device mounted on the vehicle that captures an image of the occupant inside the vehicle.
  • a blunting determination unit that determines whether or not the occupant has been slowed down, and an attitude determination unit that determines whether or not the occupant's posture extracted from the captured image acquired by the image acquisition unit is abnormal.
  • a sleep detection unit that detects the sleep of the occupant using the determination result of the blunting determination unit and the determination result of the posture determination unit is provided. When it is determined that the occupant is in an abnormal position and the occupant's posture is determined to be abnormal by the attitude determination unit, it is considered that the occupant has fallen into sleep.
  • the sleep detection system includes an image pickup device mounted on the vehicle to capture an image of an occupant inside the vehicle, an image acquisition unit for acquiring an image captured by the occupant from the image pickup device, and an image acquisition unit. Whether or not the occupant's posture extracted from the captured image acquired by the image acquisition unit is abnormal, and the blunting determination unit that determines whether or not the occupant extracted from the acquired image has been slowed down.
  • the sleep detection unit is provided with a posture determination unit for determining the occupant, a sleep detection unit for detecting the sleep of the occupant using the determination result of the blunting determination unit and the determination result of the posture determination unit. When it is determined that the sensation is slowed down and the posture determination unit determines that the occupant's posture is abnormal, it is assumed that the occupant has fallen asleep.
  • FIG. It is a block diagram which shows the structural example of the sleep detection system which concerns on Embodiment 1.
  • FIG. It is explanatory drawing which shows the image pickup range of the image pickup apparatus which concerns on Embodiment 1.
  • FIG. It is explanatory drawing which shows the detection process of the feature point detection part of the sleep detection apparatus which concerns on Embodiment 1.
  • FIG. It is explanatory drawing which shows the face orientation detection processing of the face orientation detection part of the sleep detection apparatus which concerns on Embodiment 1.
  • FIG. It is explanatory drawing which shows the sleep detection result of the sleep detection apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation example of the sleep detection apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation example of the sleep detection apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the hardware configuration example of the sleep detection apparatus which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the structural example of the sleep detection system which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the operation example of the sleep detection apparatus which concerns on Embodiment 2.
  • FIG. 1 is a block diagram showing a configuration example of the sleep detection system 100 according to the first embodiment.
  • the sleep detection system 100 includes a sleep detection device 10 and an image pickup device 20, and the sleep detection device 10 and the image pickup device 20 are mounted on a vehicle, respectively.
  • FIG. 2 is an explanatory diagram showing an imaging range of the imaging apparatus 20 according to the first embodiment.
  • the image pickup device 20 is composed of, for example, a wide-angle camera, an infrared camera, or the like, and images the inside of the vehicle.
  • the image pickup device 20 may be a distance image sensor such as a TOF (Time-of-flight) camera capable of capturing an image reflecting the distance between the image pickup device 20 and the subject.
  • the image pickup apparatus 20 images the inside of the vehicle at intervals of, for example, 30 to 60 fps (frames per second), and outputs the captured images to the image acquisition unit 11 of the sleep detection device 10.
  • the image captured by the image pickup apparatus 20 is referred to as a captured image.
  • the image pickup region of the image pickup apparatus 20 is shown by the region A.
  • the image pickup apparatus 20 is arranged in one or a plurality of units, an instrument panel, a steering column, a rearview mirror, etc. so that at least the occupant 211 and the occupant 212 seated in the driver's seat 201 and the passenger's seat 202 can be simultaneously imaged. ..
  • the image pickup apparatus 20 may include a rear seat (not shown) in the image pickup range.
  • the occupants 211 and 212 to be imaged by the image pickup apparatus 20 are collectively referred to as “occupants”. That is, the occupants include the driver.
  • the sleep detection device 10 includes an image acquisition unit 11 that acquires an image captured by an occupant from the image pickup device 20, and a blunting determination unit that determines whether or not the occupant extracted from the captured image has a blunted perception. 16, the posture determination unit 17 for determining whether or not the posture of the occupant extracted from the captured image is abnormal, and the determination results of the blunting determination unit 16 and the posture determination unit 17 are used to sleep the occupant.
  • a sleep detection unit 18 for detecting is provided.
  • the image acquisition unit 11 acquires an image captured by an occupant inside the vehicle from the image pickup device 20. Further, it is preferable that the sleep detection device 10 performs the sleep detection process described later each time the captured image is acquired from the image pickup device 20. Then, the captured image acquired by the image acquisition unit 11 is output to the feature point detection unit 12 described below.
  • the feature point detection unit 12 extracts feature points related to the occupant's body organs from the captured image acquired by the image acquisition unit 11.
  • Various known algorithms can be used in the feature point extraction process by the feature point detection unit 12, and detailed description of these algorithms will be omitted.
  • the feature point detection unit 12 corresponds to each of a plurality of face parts (for example, right eye, left eye, right eyebrow, left eyebrow, nose, and mouth). Executes the process of detecting the feature points of.
  • FIG. 3 is an explanatory diagram showing a detection process of the feature point detection unit 12 of the sleep detection device 10 according to the first embodiment.
  • 3A is an explanatory diagram of the captured image 300
  • FIG. 3B is an explanatory diagram of the face region 301
  • FIG. 3C is an explanatory diagram of the feature points.
  • the feature point detection unit 12 acquires, for example, the captured image 300 shown in FIG. 3A from the image acquisition unit 11.
  • the feature point detection unit 12 detects the face region 301, which is a region including the face parts, with respect to the captured image 300 acquired from the image acquisition unit 11.
  • the feature point detection unit 12 detects the face region 301 shown in FIG. 3B with respect to the captured image 300 of FIG. 3A.
  • the feature point detecting unit 12 is a face part such as both outer corners 311, both inner corners 312, both upper eyelids 313, and both lower eyelids 314 with respect to the eyes. Acquire the position information of the component. Further, the feature point detection unit 12 obtains position information of components of the face parts such as the nose root 315, the nose tip 316, the dorsal nose, and the ala of nose with respect to the nose in the face region 301, for example, as shown in FIG. 3C. get.
  • the feature point detection unit 12 acquires the position information of the face parts such as the upper lip 317, the lower lip 318, and the mouth angle 319 with respect to the mouth in the face region 301, for example, as shown in FIG. 3C.
  • the position information of the component of each face part acquired by the feature point detection unit 12 is the coordinates starting from the specific position O of the captured image 300 shown in FIG. 3A, or the center in the captured image 300 shown in FIG. 3A. Information indicating the coordinates and the like as the starting point.
  • the position information acquired by the feature point detection unit 12 is detected as a feature point.
  • the feature points detected by the feature point detection unit 12 may be recorded in a storage unit (not shown) of the sleep detection device 10.
  • the feature amount calculation unit 13 calculates the feature amount of the occupant from the feature points extracted by the feature point detection unit 12.
  • the feature amount of the occupant is, specifically, information indicating the positional relationship between the feature points of the occupant, such as the distance between the right eye and the left eye and the position of the nose on the face of the occupant.
  • the feature amount calculation unit 13 may acquire the position information of the face region 301 such as the size and coordinates of the captured image 300 of the face region 301.
  • Various known algorithms can also be used for calculating the feature amount.
  • the feature amount calculated by the feature amount calculation unit 13 may also be recorded in the storage unit of the sleep detection device 10.
  • the face orientation detection unit 14 detects the face orientation of the occupant in the captured image acquired by the image acquisition unit 11 by using the feature amount calculated by the feature amount calculation unit 13.
  • the face orientation detected by the face orientation detection unit 14 may also be recorded in the storage unit of the sleep detection device 10.
  • FIG. 4 is an explanatory diagram showing a face orientation detection process of the face orientation detection unit 14 of the sleep detection device 10 according to the first embodiment.
  • the face orientation detection unit 14 acquires the positional relationship between the nose tip 316 and both eyes. Further, the face orientation detection unit 14 detects the face orientation of the occupant from the positional relationship between the nose tip 316 and both eyes.
  • the face orientation detection unit 14 detects that the occupant's face orientation is right because the nose tip 316 is located near the straight line Qa passing through the outer corner of the left eye 311.
  • the face orientation detection unit 14 detects that the occupant's face orientation is in front because the nose tip 316 is located between the binocular heads 312.
  • the face orientation detection unit 14 since the face orientation detection unit 14 is located near the straight line Qb where the nose tip 316 passes through the outer corner of the right eye 311, the face orientation detection unit 14 detects that the occupant's face orientation is on the left. .. In this way, the face orientation detection unit 14 detects the left-right orientation of the occupant's face, that is, the yaw angle of the occupant's face.
  • the face orientation detection unit 14 detects the vertical orientation of the occupant's face, that is, the pitch angle of the occupant's face, using the straight line Qc passing through the point where the nose tip 316 is located. do.
  • the straight line Qc may be set from, for example, an captured image in which the occupant is facing the front in both the vertical direction and the horizontal direction.
  • Various known algorithms can be used for the face orientation detection process of the occupant by the face orientation detection unit 14, and various known algorithms can be used for the detection process of the roll angle of the occupant's face.
  • the posture determination unit 17 described later it is preferable to use at least one of the roll angle and the pitch angle of the occupant's face in the posture determination process of the occupant by the posture determination unit 17 described later. If the occupant falls asleep momentarily, it is accompanied by nodding, falling, or squeezing. As a result, the occupant who has fallen into a momentary sleep changes at least one of the roll angle and the pitch angle of the face. Therefore, if at least one of the roll angle and the pitch angle is used for the posture determination process described later, the posture determination is performed. The reliability of the result can be improved.
  • the face orientation change amount calculation unit 15 calculates the change amount of the occupant's face orientation using the occupant's face orientation detected by the face orientation detection unit 14.
  • the amount of change in the occupant's face orientation is, for example, the pitch angle of the occupant's face with respect to the reference position detected from the captured image in frame A and the pitch angle of the occupant's face with respect to the reference position detected from the captured image in frame B. It is the difference with.
  • the amount of change in the face orientation of the occupant includes not only the amount of change in the angle of the occupant's face but also the amount of change in the position of the occupant's face or the size of the face area and the coordinates in the captured image.
  • the amount of change may be not only the difference of each parameter but also the difference from the average value calculated from each parameter detected in a plurality of captured images, and is calculated from each parameter detected in a plurality of captured images. It may be a median value, a standard deviation, or the like.
  • the blunting determination unit 16 determines whether or not the occupant extracted from the captured image has a blunting of perception.
  • the fact that the occupant has a blunted perception means that the occupant does not show a strong reaction to an external stimulus. It has been found that if the occupant falls into a momentary sleep, the occupant will experience a desensitization prior to this momentary sleep. Therefore, in order to accurately detect the momentary sleep of the occupant, it is necessary to determine whether or not the occupant has a blunted perception.
  • the blunting determination unit 16 will explain by giving an example of determining whether or not the occupant's perception is blunted by using the occupant's face orientation. For the sake of explanation, the determination as to whether or not the occupant's perception is slowed down is also referred to as a slowdown determination.
  • the blunting determination unit 16 is voluntary to the occupant when the state in which the amount of change in the face orientation is less than the set threshold value (hereinafter referred to as the blunting determination threshold value) continues for a set time (hereinafter referred to as the blunting determination time). It is determined that the occupant's perception has slowed down, assuming that the number of behaviors has decreased.
  • the occupant will behave voluntarily. Therefore, it is determined that the occupant's perception has not slowed down.
  • the blunted state the state in which the occupant does not see any voluntary movement
  • the change in face orientation may be small during driving. Therefore, when the blunting state continues for the set blunting determination time or longer, the blunting determination determination result is reflected in the sleep detection process described later, so that the sleep detection accuracy of the occupant can be improved.
  • the blunting determination unit 16 acquires, for example, the standard deviation of the pitch angle of the occupant's face as the amount of change in face orientation in a set period from the face orientation change amount calculation unit 15. Then, if the acquired standard deviation is less than the blunting determination threshold value and the standard deviation is less than the blunting determination threshold value continues for the blunting determination time or longer, that is, the standard deviation is less than the blunting determination threshold value. If the period of time is longer than the blunting determination time, it is determined that the occupant's perception is blunted. On the other hand, if the acquired standard deviation is equal to or greater than the blunting determination threshold value, the blunting determination unit 16 determines that the occupant's perception has not been blunted.
  • the blunting determination unit 16 determines that the occupant's perception has not been blunted even if the period during which the acquired standard deviation is less than the blunting determination threshold value is less than the blunting determination time. Further, the blunting determination unit 16 outputs the determination result to the sleep detection unit 18, which will be described later.
  • the posture determination unit 17 determines whether or not the posture of the occupant extracted from the captured image is abnormal. When the occupant falls asleep momentarily, the occupant is accompanied by an abnormal posture such as nodding, falling down, or squeezing. Therefore, the posture determination unit 17 determines whether or not the occupant is in an abnormal posture, and the determination result of the posture determination unit 17 is used for the sleep detection process described later.
  • the posture determination unit 17 determines whether or not the posture of the occupant extracted from the captured image is abnormal by using, for example, the amount of change in the face orientation calculated by the face orientation change amount calculation unit 15. Then, the posture determination unit 17 outputs the determination result to the sleep detection unit 18. For the sake of explanation, the determination by the posture determination unit 17 whether or not the posture of the occupant is abnormal is also referred to as a posture determination.
  • the posture determination unit 17 has, for example, from the face orientation change amount calculation unit 15, the maximum value of the pitch angle of the occupant's face as the face orientation change amount within a set time (hereinafter referred to as posture determination time) and Get the minimum value. Then, the posture determination unit 17 determines whether or not the posture of the occupant is abnormal depending on whether or not the amount of change in the face orientation is equal to or greater than the set threshold value (hereinafter referred to as the posture determination threshold value) within the posture determination time. To judge.
  • the posture determination threshold value the set threshold value
  • the posture determination unit 17 from the face orientation change amount calculation unit 15 determines the maximum value of the pitch angle with respect to the reference position of the occupant's face and the minimum value of the pitch angle with respect to the reference position of the occupant's face within the posture determination time. And get each. Then, if the difference between the minimum value and the maximum value is equal to or greater than the posture determination threshold value, the posture determination unit 17 determines that the posture of the occupant is abnormal. On the other hand, if the difference between the minimum value and the maximum value is less than the posture determination threshold value, the posture determination unit 17 determines that the posture of the occupant is not abnormal.
  • the occupant may slowly change his / her face direction to secure the front view, for example, even if he / she does not fall into a momentary sleep.
  • the posture determination unit 17 determines the posture using the amount of change in the face orientation within the posture determination time as described above, the occupant does not fall into a momentary sleep and the face orientation changes slowly. It is possible to suppress the false detection that the occupant has fallen asleep.
  • the posture determination unit 17 may perform posture determination using the size of the face region.
  • the posture determination unit 17 acquires the size of the face area as the feature amount from the feature amount calculation unit 13, and if the size of the face area is outside the set range, the posture of the occupant is abnormal. If the size of the face area is within the set range, it may be determined that the posture of the occupant is not abnormal. In this case, the posture determination unit 17 may not be connected to the face orientation change amount calculation unit 15, but may be connected to the feature amount calculation unit 13.
  • the posture determination unit 17 may perform posture determination using the distance between the image pickup device 20 and the occupant.
  • the image pickup device 20 is composed of an image pickup device 20 capable of capturing an image reflecting the distance between the image pickup device 20 such as a TOF camera and the subject, and the distance indicating the distance between the occupant and the image pickup device 20 included in the captured image. It is possible to determine whether or not the posture is abnormal using the data.
  • the posture determination unit 17 determines that the occupant's posture is abnormal. Then, if the distance between the occupant's face and the image pickup device 20 is within the set range, it is determined that the occupant's posture is not abnormal.
  • the feature amount calculation unit 13 may be configured so that the distance between the occupant's face included in the captured image and the image pickup device 20 can be calculated, and the posture determination unit 17 and the feature amount calculation unit 13 may be connected. ..
  • the posture determination unit 17 uses distance data indicating the distance between the occupant and the sensor acquired from a sensor capable of acquiring the distance to the occupant, such as a depth sensor provided in the vehicle, to determine whether or not the posture is abnormal. It is also possible to determine whether or not. That is, in the above example, the TOF camera is also included in the depth sensor.
  • the sleep detection unit 18 detects the sleep of the occupant using the determination result of the blunting determination unit 16 and the determination result of the posture determination unit 17.
  • the sleep detection unit 18 determines that the occupant has slowed perception by the blunting determination unit 16, and the posture determination unit 17 determines that the occupant's posture is abnormal, the occupant has fallen into sleep. Is detected.
  • the sleep detection unit 18 outputs the detection result to a vehicle control device (not shown) that controls the in-vehicle device mounted on the vehicle, and operates the notification unit 50 mounted on the vehicle to perform notification.
  • the notification unit 50 may be provided in the sleep detection device 10.
  • the sleep detection device 10 and the vehicle control device are connected to each other.
  • the notification unit 50 may be, for example, at least one of a speaker or a display mounted on the vehicle, or may be a mobile terminal or the like possessed by an occupant.
  • the notification unit 50 notifies the occupant by issuing a warning sound or the like in order to prevent the occupant from falling asleep.
  • the sleep detection device 10 may be connected to a communication unit (not shown) and communication may be performed between the communication unit and the mobile terminal.
  • the vehicle control device may control an in-vehicle device such as an air conditioner so as to eliminate the drowsiness.
  • FIG. 5 is an explanatory diagram showing a sleep detection result of the sleep detection device 10 according to the first embodiment.
  • FIG. 5A is a diagram showing the sleep detection results in the comparative example
  • FIG. 5B is a diagram showing the sleep detection results of the sleep detection device 10 according to the present embodiment.
  • the vertical axis of FIGS. 5A and 5B shows the detection result, and the horizontal axis shows the time. In FIGS. 5A and 5B, it represents that the occupant was detected to have fallen asleep at the time the points were plotted.
  • the sleep of the occupant is detected only by the determination result of the posture determination unit 17.
  • the face changes due to various factors.
  • the occupant actually falls into a momentary sleep.
  • FIG. 5A in the comparative example, it is detected that the occupant has fallen into sleep other than t1, and the accuracy of detecting the sleep of the occupant is poor.
  • the posture determination unit 17 determines that the occupant's posture is abnormal. In some cases, the occupant fell asleep. Therefore, as shown in FIG. 5B, if the occupant's face is simply changed without falling into a momentary sleep, the occupant is not erroneously detected as having fallen into sleep, and the occupant actually falls into a momentary sleep. It can be detected that the occupant has fallen asleep only at time t1. As described above, by using the determination result of the posture determination unit 17 and the determination result of the blunting determination unit 16 in the sleep detection process, the sleep detection accuracy of the occupant can be improved.
  • the same result can be obtained regardless of whether the posture determination by the posture determination unit 17 uses the size of the face region instead of the face orientation or the distance between the occupant and the sensor. , As shown in FIG. 5B, the sleep of the occupant can be detected with high accuracy.
  • FIGS. 6 and 7 are flowcharts showing operation examples of the sleep detection device 10 according to the first embodiment, respectively.
  • the sleep detection device 10 performs a blunting determination and a posture determination using the face orientation of the occupant will be described.
  • the flowcharts of FIGS. 6 and 7 do not show the process of terminating the operation of the sleep detection device 10
  • the sleep detection device 10 receives a command from the vehicle control device to end the operation. End the operation.
  • the processes shown in FIGS. 6 and 7 are repeated at predetermined intervals, for example, with the power of the sleep detection device 10 turned on.
  • the image acquisition unit 11 of the sleep detection device 10 acquires an captured image from the image pickup device 20 (ST1). Then, the image acquisition unit 11 outputs the acquired captured image to the feature point detection unit 12. Next, the feature point detection unit 12 detects the occupant's face part in the captured image using the captured image, and extracts the feature points of the occupant's face (ST2). Then, the feature amount calculation unit 13 calculates the feature amount of the occupant extracted from the captured image by using the extracted feature points (ST3).
  • feature amount calculation process ST101 the processes of ST1 to ST3 shown in FIG. 6 are collectively referred to as feature amount calculation process ST101.
  • the face orientation detection unit 14 acquires the feature amount and detects the face orientation of the occupant extracted from the captured image (ST102). Then, the face orientation detection unit 14 outputs the detected face orientation of the occupant to the face orientation change amount calculation unit 15. Next, the face orientation change amount calculation unit 15 calculates the change amount of the occupant's face orientation using the occupant's face orientation acquired from the face orientation detection unit 14 (ST103). Here, the amount of change in the face orientation may be recorded in the storage unit.
  • the blunting determination unit 16 determines whether or not the occupant's perception is blunted (ST104).
  • the blunting determination unit 16 acquires, for example, the standard deviation of the pitch angle indicating the face orientation of the occupant from the face orientation change amount calculation unit 15 as the amount of change in a set period. Then, when the acquired change amount is equal to or greater than the blunting determination threshold value, the blunting determination unit 16 determines that the occupant's perception has not been blunted (ST104; NO), and outputs the determination result to the sleep detection unit 18. do.
  • the process of the sleep detection device 10 proceeds to ST101.
  • the blunting determination unit 16 determines that the occupant is in a state where the perception is blunted (ST104; YES), and performs the next ST105 process. move on.
  • the blunting determination unit 16 determines whether or not the state in which the occupant's perception is blunted continues for the blunting determination time or longer (ST105).
  • the blunting determination unit 16 continues, for example, when the acquired standard deviation is less than the blunting determination threshold value for the blunting determination time or longer, the occupant's perception is blunted for the blunting determination time or longer. It is determined that it has been done.
  • the blunting determination unit 16 determines that the state in which the occupant's perception is blunted does not continue for the blunting determination time or longer (ST105; NO), it is determined that the occupant's perception has not been blunted. The process of the sleep detection device 10 proceeds to ST101. On the other hand, when the blunting determination unit 16 determines that the state in which the occupant's perception is blunted continues for the blunting determination time or longer (ST105; YES), it is determined that the occupant's perception is blunted. Then, the determination result is output to the sleep detection unit 18. Then, the process of the sleep detection device 10 proceeds to ST106 described below.
  • the posture determination unit 17 of the sleep detection device 10 acquires the amount of change in the face orientation of the occupant from the face orientation change amount calculation unit 15 (ST106).
  • the posture determination unit 17 acquires, for example, the amount of change in the face orientation from the face orientation change amount calculation unit 15, and determines whether the posture of the occupant is abnormal depending on whether or not the amount of change in the face orientation is equal to or greater than the posture determination threshold value. It is determined whether or not (ST107).
  • the posture determination unit 17 acquires, for example, the maximum value of the pitch angle with respect to the reference position of the occupant's face and the minimum value of the pitch angle with respect to the reference position of the occupant's face in a set period as the amount of change. ..
  • the posture determination unit 17 determines that the posture of the occupant is not abnormal if the difference between the minimum value and the maximum value is less than the posture determination threshold value (ST107; NO), and then the process of the sleep detection device 10 is performed. Proceed to ST101.
  • the posture determination unit 17 determines that the posture of the occupant is abnormal (ST107; YES). The process of the sleep detection device 10 proceeds to ST108 described below.
  • the posture determination unit 17 determines whether or not the posture of the occupant is determined to be abnormal within the posture determination time (ST108). For example, the posture determination unit 17 refers to the frame A in which the captured image in which the pitch angle of the occupant's face is maximized is acquired, and the frame B in which the captured image in which the pitch angle of the occupant's face is minimized is acquired. , The elapsed time between frame A and frame B is calculated. If the calculated elapsed time is equal to or less than the posture determination time, it is determined that the amount of change in the face orientation of the occupant is equal to or greater than the posture determination threshold within the posture determination time. The above-mentioned processing can be omitted if the face orientation change amount calculation unit 15 calculates the minimum value and the maximum value of the pitch angle within the posture determination time.
  • the process of the sleep detection device 10 proceeds to ST101. That is, if it is determined in the process of ST108 that the attitude of the occupant is abnormal is not the determination within the attitude determination time, the determination result that the attitude of the occupant is abnormal in the process of ST107 is rejected.
  • the posture On the other hand, when the posture determination unit 17 determines that the determination that the attitude of the occupant is abnormal is within the set attitude determination time (ST108; YES), it is determined that the attitude of the occupant is abnormal. , The determination result is output to the sleep detection unit 18. Then, the sleep detection unit 18 detects that the occupant has fallen into sleep, and the notification unit 50 notifies the occupant by issuing a warning sound or the like (ST109).
  • FIG. 8 is a diagram showing a hardware configuration example of the sleep detection device 10 according to the first embodiment.
  • Eighteen functions are realized by a processing circuit. That is, the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face orientation detection unit 14, the face orientation change amount calculation unit 15, the blunting determination unit 16, the posture determination unit 17, and the sleep detection device 10 of the sleep detection device 10.
  • the sleep detection unit 18 may be a processing circuit 10a which is dedicated hardware as shown in FIG. 8A, or may be a processor 10b which executes a program stored in the memory 10c as shown in FIG. 8B. May be good.
  • the processing circuit 10a may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-programmable). GateArray) or a combination of these is applicable.
  • Each may be realized by a processing circuit, or the functions of each part may be collectively realized by one processing circuit.
  • the detection unit 18 is the processor 10b
  • the function of each unit is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 10c.
  • the processor 10b reads and executes the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face orientation detection unit 14, the face orientation change amount calculation unit 15, and the like.
  • Each function of the blunting determination unit 16, the posture determination unit 17, and the sleep detection unit 18 is realized.
  • the image acquisition unit 11, the feature point detection unit 12, the feature amount calculation unit 13, the face orientation detection unit 14, the face orientation change amount calculation unit 15, the blunting determination unit 16, the posture determination unit 17, and the sleep detection unit 18 are It comprises a memory 10c for storing a program for which each step shown in FIG. 4 will resultly be executed when executed by the processor 10b. Further, these programs include an image acquisition unit 11, a feature point detection unit 12, a feature amount calculation unit 13, a face orientation detection unit 14, a face orientation change amount calculation unit 15, a blunting determination unit 16, a posture determination unit 17, and sleep. It can also be said that the procedure or method of the detection unit 18 is executed by the computer.
  • the processor 10b is, for example, a CPU (Central Processing Unit), a processing device, a computing device, a processor, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the memory 10c may be, for example, a non-volatile or volatile semiconductor memory such as RAM (RandomAccessMemory), ROM (ReadOnlyMemory), flash memory, EPROM (ErasableProgrammableROM), and EPROM (ElectricallyEPROM).
  • RAM RandomAccessMemory
  • ROM ReadOnlyMemory
  • flash memory EPROM (ErasableProgrammableROM), and EPROM (ElectricallyEPROM).
  • it may be a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a mini disk, a CD (Compact Disc), or a DVD (Digital Versatile Disc).
  • Some of the functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • the processing circuit 10a in the sleep detection device 10 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • Some functions may be executed by an external server.
  • the sleep detection unit 18 includes a posture determination unit 17 for determining the occupant's sleep, and a sleep detection unit 18 for detecting the sleep of the occupant using the determination result of the blunting determination unit 16 and the determination result of the attitude determination unit 17.
  • the determination unit 17 determines that the occupant's posture is abnormal and the blunting determination unit 16 determines that the occupant has a blunted perception, it is assumed that the occupant has fallen asleep. It can detect momentary sleep and improve the accuracy of occupant sleep detection.
  • the face orientation detecting unit 14 may acquire the position of the right eye, the position of the left eye, and the distance between the right eye and the left eye as the feature amount from the feature amount calculation unit 13, and may use it for detecting the face orientation.
  • the face orientation detection unit 14 may detect feature points related to organs in the body other than the face, such as the position of the shoulders of the occupant.
  • FIG. 9 is a block diagram showing a configuration example of the sleep detection system 101 according to the second embodiment. Similar to the first embodiment, the sleep detection device 30 according to the second embodiment determines whether or not the image acquisition unit 11 for acquiring the captured image and the occupant extracted from the captured image have slowed perception. Using the blunting determination unit 32 for determination, the posture determination unit 17 for determining whether or not the posture of the occupant extracted from the captured image is abnormal, and the determination result of the blunting determination unit 32 and the determination result of the posture determination unit 17. A sleep detection unit 18 for detecting the sleep of the occupant is provided.
  • the present embodiment is different from the first embodiment in that the blunting determination unit 32 determines whether or not the occupant has a blunting of perception by using the occupant's face information extracted from the captured image. ..
  • the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the blunting determination can be performed not only by using the amount of change in the face orientation described in the first embodiment, but also by using the face information which is the information regarding the state of the occupant's face.
  • the facial information is information on the state of the occupant's face, such as the degree of eye opening, the frequency of blinking, and the change in facial expression.
  • the sleep detection device 30 includes a face information detection unit 31.
  • the face information detection unit 31 detects the face information of the occupant by using the feature amount of the occupant acquired from the feature amount calculation unit 13.
  • the face information detection unit 31 When acquiring the degree of eye opening as face information, the face information detection unit 31 acquires, for example, the distance between the upper and lower eyelids of the eyes as the feature amount from the feature amount calculation unit 13, and uses this distance as the face. Detect as information.
  • the face information detection unit 31 acquires, for example, the distance between the upper and lower eyelids of the eyes as the feature amount calculation unit 13. Then, it is assumed that blinking is performed when this distance is less than the set threshold value, and it is assumed that the eyes are open when this distance is equal to or more than the set threshold value, and blinking is performed from the state in which the eyes are open.
  • the face information detection unit 31 acquires, for example, the distance between the upper and lower eyelids of the eyes as the feature amount calculation unit 13. Then, assuming that the blink is performed when this distance is less than the set threshold value, the time elapsed between the previous blink and the next blink is acquired as face information.
  • the face information detection process of the face information detection unit 31 is not limited to the above example, and various known algorithms can be used.
  • the blunting determination unit 32 acquires face information from the face information detection unit 31, and uses the face information to determine whether or not the occupant has a blunted perception. For example, when the blunting determination unit 32 acquires the eye opening degree as face information from the face information detection unit 31, the occupant when the eye opening degree is less than the blunting determination threshold value continues for the blunting determination time or longer. It is determined that the perception is slowed down. On the other hand, the blunting determination unit 32 is perceived by the occupant when the eye opening degree is equal to or higher than the blunting determination threshold value or when the eye opening degree is less than the blunting determination threshold value does not continue for the blunting determination time or longer. It is determined that the blunting of is not occurring.
  • the blunting determination unit 32 acquires the blinking speed as face information from the face information detection unit 31, the occupant when the blinking speed is less than the blunting determination threshold value continues for the blunting determination time or longer. It is determined that the perception is slowed down.
  • the blunting determination unit 32 slows down the perception of the occupant when the blinking speed is equal to or higher than the blunting determination threshold value or when the blinking speed is less than the blunting determination threshold value does not continue for the blunting determination time or longer. Is not generated.
  • the blunting determination unit 32 acquires the blink frequency as face information from the face information detection unit 31, the occupant when the blink frequency is less than the blunting determination threshold value continues for the blunting determination time or longer. It is determined that the perception is slowed down.
  • the blunting determination unit 32 slows down the perception of the occupant when the frequency of blinking is equal to or higher than the blunting determination threshold value or when the frequency of blinking is less than the blunting determination threshold value does not continue for the blunting determination time or longer. Is not generated.
  • the blunting determination threshold here is different from the blunting determination threshold in the first embodiment. That is, the blunting determination threshold in the first embodiment is a threshold for the amount of change in the face orientation, whereas the blunting determination threshold in the second embodiment is a threshold for the face information.
  • the blunting determination threshold value to be compared with the eye opening degree is the threshold value for the eye opening degree
  • the blunting determination threshold value to be compared with the blinking speed is the threshold value for the blinking speed, and is compared with the blinking frequency.
  • the blunting determination threshold is a threshold for the frequency of blinking.
  • the blunting determination time may be different for each determination.
  • the blunting determination threshold value may be a predetermined value or a value set based on the face information acquired from the time of boarding to the lapse of a predetermined time. This is because it is considered that the occupant's arousal degree is high at the time of boarding, and the accuracy of the blunting determination can be improved by using the face information acquired when the arousal degree is high as a reference.
  • FIG. 10 is a flowchart showing an operation example of the sleep detection device 30 according to the second embodiment.
  • the same steps as the processing of the sleep detection device 30 according to the first embodiment are designated by the same reference numerals as those shown in FIGS. 6 and 7, and the description thereof will be omitted or simplified.
  • the face information detection unit 31 detects the face information using the feature amount acquired from the feature amount calculation unit 13 (ST201).
  • the face information detection unit 31 detects the degree of eye opening as face information
  • the blunting determination unit 32 makes a blunting determination using the blunting determination threshold values for the eye opening degree and the eye opening degree. explain.
  • the blunting determination unit 32 determines whether or not the occupant's perception is blunted (ST202).
  • the blunting determination unit 32 acquires, for example, the degree of eye opening of the occupant's eyes during a period set as face information from the face information detection unit 31. Then, when the acquired eye opening degree is equal to or higher than the blunting determination threshold value, the blunting determination unit 32 determines that the occupant has not been blunted in perception (ST202; NO), and outputs the determination result to the sleep detection unit 18. do.
  • the process of the sleep detection device 30 proceeds to ST101.
  • the blunting determination unit 32 determines that the occupant is in a state where the perception is blunted (ST202; YES), and next Proceed to ST105 processing.
  • the blunting determination unit 32 determines whether or not the state in which the occupant's perception is blunted continues for the blunting determination time or longer (ST105).
  • ST105 determines that the state in which the occupant is experiencing blunting of perception does not continue for the blunting determination time or longer (ST105; NO)
  • ST105 determines that the occupant is not blunted in perception.
  • the process of the sleep detection device 30 proceeds to ST101.
  • the blunting determination unit 32 determines that the state in which the occupant's perception is blunted continues for the blunting determination time or longer (ST105; YES)
  • the determination result is output to the sleep detection unit 18.
  • the process of the sleep detection device 30 proceeds to the next ST102.
  • the face orientation detection unit 14 acquires the feature amount and detects the face orientation of the occupant extracted from the captured image (ST102). Then, the posture determination unit 17 of the sleep detection device 30 acquires the amount of change in the face orientation of the occupant from the face orientation change amount calculation unit 15 (ST106). The posture determination unit 17 acquires the amount of change in face orientation from the face orientation change amount calculation unit 15, and determines whether or not the posture of the occupant is abnormal depending on whether or not the acquired amount of change is equal to or greater than the posture determination threshold value. Judgment (ST107). If the acquired change amount is less than the posture determination threshold value, the posture determination unit 17 determines that the posture of the occupant is not abnormal (ST107; NO), and outputs the determination result to the sleep detection unit 18. Next, the process of the sleep detection device 30 proceeds to ST101. As in the first embodiment, the posture determination by the posture determination unit 17 does not use the face orientation, but can also use the size of the face region and the distance between the occupant and the sensor.
  • the posture determination unit 17 determines that the posture of the occupant is abnormal if, for example, the difference between the minimum value and the maximum value of the pitch angle is equal to or greater than the set threshold value (ST107; YES), and further, sleep.
  • the process of the detection device 30 proceeds to ST108 described below.
  • the posture determination unit 17 determines whether or not the posture of the occupant is determined to be abnormal within the posture determination time (ST108). When the posture determination unit 17 determines that the posture of the occupant is abnormal and the determination is not within the posture determination time (ST108; NO), it determines that the posture of the occupant is not abnormal and processes the sleep detection device 30. Proceeds to ST101. That is, if it is determined in the process of ST108 that the attitude of the occupant is abnormal is not the determination within the attitude determination time, the determination result that the attitude of the occupant is abnormal in the process of ST107 is rejected. The posture.
  • the posture determination unit 17 determines that the determination that the posture of the occupant is abnormal is the determination within the posture determination time (ST108; YES)
  • the determination result is output to the sleep detection unit 18.
  • the sleep detection unit 18 detects that the occupant has fallen into sleep, and the notification unit 50 notifies the occupant (ST109).
  • the sleep detection device 30 is further provided with a face information detection unit 31 that detects face information regarding the state of the occupant's face by using the feature amount calculated by the feature amount calculation unit 13, and the blunting determination unit 32 is provided.
  • the blunted perception that appears before the occupant's momentary sleep is caused by the occupant. It can be determined from the condition of the face, and it is possible to detect the momentary sleep of the occupant and improve the detection accuracy of the occupant's sleep.
  • the blunting determination unit 32 acquires the eye opening degree as face information from the face information detection unit 31 and uses the eye opening degree for the blunting determination.
  • the blunting determination unit 32 has been described.
  • the facial information used for the blunting determination is not limited to the degree of eye opening.
  • the blunting determination unit 32 acquires the degree of eye opening, the speed of blinking, and the frequency of blinking as face information from the face information detection unit 31, and at least one of the acquired face information is a set threshold value. If it is less than, it may be determined that the occupant has a blunted perception.
  • FIG. 11 is a block diagram showing a configuration example of the sleep detection system 102 according to the third embodiment. Similar to the first embodiment, the sleep detection device 40 according to the third embodiment determines whether or not the perception is slowed down in the image acquisition unit 11 that acquires the captured image and the occupant extracted from the captured image. Using the blunting determination unit 16 for determination, the posture determination unit 17 for determining whether or not the posture of the occupant extracted from the captured image is abnormal, the determination result of the blunting determination unit 16 and the determination result of the posture determination unit 17. A sleep detection unit 42 that detects the sleep of the occupant is provided.
  • the sleep detection unit 42 uses the drowsiness level calculation result of the drowsiness level calculation unit 41 in addition to the determination results of the drowsiness determination unit 16 and the posture determination unit 17, and the occupant's perception is slowed down. It is different from the first embodiment in that it determines whether or not it is.
  • the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the sleep detection device 40 of the present embodiment includes a face information detection unit 31 and a sleepiness level calculation unit 41 for calculating the sleepiness level of the occupant. Since the configuration of the face information detection unit 31 is the same as the configuration described in the second embodiment, the description thereof will be omitted.
  • the drowsiness level is a scale of drowsiness that is gradually divided from a state with a high degree of arousal to a state with a low degree of arousal.
  • the state with the highest arousal level is defined as drowsiness level 1
  • the state with the lowest arousal level is defined as drowsiness level 9
  • the drowsiness level 1 is changed to drowsiness level 9. ..
  • the sleep detection unit 42 improves the reliability of the sleep detection result of the occupant by using the sleepiness level calculation result of the sleepiness level calculation unit 41 in addition to the determination results of the blunting determination unit 16 and the posture determination unit 17. can do.
  • the drowsiness level calculation unit 41 acquires face information from the face information detection unit 31 and calculates the drowsiness level of the occupant. For example, when the eye opening degree is acquired as face information, the drowsiness level calculation unit 41 acquires the eye opening degree from the face information detection unit 31, and calculates the sleepiness level of the occupant higher as the eye opening degree becomes smaller. do.
  • a plurality of threshold values may be set for the degree of eye opening, and the drowsiness level may be calculated depending on whether or not the threshold values are less than the respective threshold values.
  • the drowsiness level calculation unit 41 acquires the blinking speed from the face information detecting unit 31, and calculates the drowsiness level of the occupant higher as the blinking speed becomes smaller. ..
  • a plurality of threshold values may be set for the blinking speed, and the drowsiness level may be calculated depending on whether or not the threshold value is less than each threshold value.
  • the drowsiness level calculation unit 41 acquires the frequency of blinking from the face information detection unit 31, and calculates the drowsiness level of the occupant higher as the frequency of blinking decreases. ..
  • a plurality of threshold values may be set for the frequency of blinking, and the drowsiness level may be calculated depending on whether or not the threshold value is less than each threshold value.
  • the drowsiness level calculation process by the drowsiness level calculation unit 41 is not limited to the above example, and various known algorithms can be used. Then, the calculation result by the drowsiness level calculation unit 41 is output to the sleep detection unit 42.
  • the sleep detection unit 42 acquires the calculation result by the sleepiness level calculation unit 41, and if the sleepiness level of the occupant calculated by the sleepiness level calculation unit 41 is equal to or higher than the set sleepiness level, that is, the set threshold value, the slowdown determination unit 42 The sleep of the occupant is detected by using the determination result of 16 and the determination result of the posture determination unit 17.
  • the sleep detection unit 42 uses the determination result of the blunting determination unit 16 and the determination result of the posture determination unit 17 to occupy the occupant. It is preferable to detect sleep.
  • the blunting determination unit 16 determines that the occupant's perception is blunted, and the posture determination unit 17 determines that the occupant's posture is abnormal.
  • the sleep detection unit 42 detects that the occupant has fallen asleep.
  • FIG. 12 is a flowchart showing an operation example of the sleep detection device 40 according to the third embodiment.
  • the same steps as the processing of the sleep detection device 40 according to the first embodiment are designated by the same reference numerals as those shown in FIGS. 6 and 7, and the description thereof will be omitted or simplified.
  • the face information detection unit 31 detects face information using the feature amount acquired from the feature amount calculation unit 13 (ST301), and the detected face information is drowsy. Output to the level calculation unit 41.
  • the face information detection unit 31 detects the occupant's eye opening degree as face information
  • the drowsiness level calculation unit 41 calculates the occupant's drowsiness level using the eye opening degree. ..
  • the sleepiness level calculation unit 41 calculates the sleepiness level of the occupant using the degree of opening / closing of the eyes of the occupant acquired as face information (ST302), and outputs the calculated sleepiness level of the occupant to the sleep detection unit 42. ..
  • the drowsiness level calculation unit 41 acquires the eye opening degree as face information from the face information detection unit 31, and calculates the drowsiness level of the occupant higher as the eye opening degree becomes smaller.
  • the sleep detection unit 42 determines whether or not the acquired drowsiness level is equal to or higher than the set threshold value (ST303).
  • the sleep detection unit 42 determines that the sleepiness level is less than the set threshold value (ST303; NO)
  • the process of the sleep detection device 40 proceeds to ST101.
  • the sleep detection unit 42 determines that the sleepiness level is equal to or higher than the set threshold value (ST303; YES)
  • the process of the sleep detection device 40 proceeds to ST102.
  • the face orientation detection unit 14 acquires the feature amount of the occupant and detects the occupant's face orientation in the captured image (ST102). Then, the face orientation detection unit 14 outputs the face orientation of the occupant detected by the face orientation change amount calculation unit 15. Next, the face orientation change amount calculation unit 15 calculates the change amount of the occupant's face orientation using the occupant's face orientation acquired from the face orientation detection unit 14 (ST103).
  • the blunting determination unit 16 determines whether or not the occupant's perception is blunted (ST104).
  • the blunting determination unit 16 acquires, for example, the amount of change in the face orientation of the occupant from the face orientation change amount calculation unit 15. Then, when the acquired change amount of the face orientation is equal to or larger than the blunting determination threshold value, the blunting determination unit 16 determines that the occupant's perception has not been blunted (ST104; NO), and determines the determination result as the sleep detection unit. Output to 42. Next, the process of the sleep detection device 40 proceeds to ST101.
  • the blunting determination unit 16 determines that the occupant is in a state where the perception is blunted (ST104; YES), and the next ST105 Proceed to the process of.
  • the blunting determination by the blunting determination unit 16 can be performed not by using the face orientation but also by using the face information.
  • the blunting determination unit 16 determines whether or not the state in which the occupant's perception is blunted continues for the blunting determination time or longer (ST105).
  • the blunting determination unit 16 determines that the state in which the occupant's perception is blunted does not continue for the blunting determination time or longer (ST105; NO)
  • the process of the sleep detection device 40 proceeds to ST101.
  • the blunting determination unit 16 determines that the state in which the occupant is experiencing blunting of perception continues for the blunting determination time or longer (ST105; YES)
  • the determination result is output to the sleep detection unit 18, and the process of the sleep detection device 40 proceeds to ST106 described below.
  • the posture determination unit 17 of the sleep detection device 40 acquires the amount of change in the face orientation of the occupant from the face orientation change amount calculation unit 15 (ST106).
  • the posture determination unit 17 acquires the amount of change in face orientation from the face orientation change amount calculation unit 15, and determines whether or not the posture of the occupant is abnormal depending on whether or not the amount of change in face orientation is equal to or greater than the posture determination threshold. Is determined (ST107). If the amount of change in the face orientation is less than the posture determination threshold value, the posture determination unit 17 determines that the posture of the occupant is not abnormal (ST107; NO), and outputs the determination result to the sleep detection unit 42. Next, the process of the sleep detection device 40 proceeds to the process of ST101.
  • the posture determination unit 17 determines that the posture of the occupant is abnormal (ST107; YES), and proceeds to the process of ST108 described below.
  • the posture determination by the posture determination unit 17 does not use the face orientation, but can also use the size of the face region and the distance between the occupant and the sensor.
  • the posture determination unit 17 determines whether or not the posture of the occupant is determined to be abnormal within the posture determination time (ST108). When the posture determination unit 17 determines that the determination that the posture of the occupant is abnormal is not the determination within the posture determination time (ST108; NO), it determines that the attitude of the occupant is not abnormal, and the sleep detection device 40 determines. The process proceeds to ST101. That is, if it is determined in the process of ST108 that the attitude of the occupant is abnormal is not the determination within the attitude determination time, the determination result that the attitude of the occupant is abnormal in the process of ST107 is rejected. The posture.
  • the posture determination unit 17 determines that the determination that the attitude of the occupant is abnormal is within the set attitude determination time (ST108; YES), it is determined that the attitude of the occupant is abnormal. Then, the determination result is output to the sleep detection unit 42. Then, the sleep detection unit 42 assumes that the occupant has fallen into sleep, and the notification unit 50 issues an alarm to the occupant (ST109).
  • the blunting determination by the blunting determination unit, the posture determination by the posture determination unit, and the calculation of the drowsiness level by the drowsiness level calculation unit have been described as being performed using the occupant's feature amount.
  • the blunting determination, the posture determination, and the calculation of the drowsiness level are not limited to those performed using the occupant's feature amount.
  • the blunting determination, the posture determination, and the calculation of the drowsiness level may be performed using, for example, machine learning.
  • a learning device is provided in the blunting determination unit, and the learning device includes, for example, an image of an occupant when a blunting of perception is occurring, and a blunting of perception. The image of the occupant when it is not occurring is input and learned. Then, the learning device of the blunting determination unit may acquire the captured image from the image acquisition unit, and it may be determined whether or not the occupant's perception in the captured image is blunted.
  • the posture determination unit is provided with a learning device, and the learning device is equipped with an occupant when the posture is abnormal, for example, by sneaking, nodding, or falling down.
  • the captured image and the captured image of the occupant when the posture is not abnormal are input and learned.
  • the learning device of the posture determination unit may acquire the captured image from the image acquisition unit, and determine whether or not the posture of the occupant in the captured image is abnormal.
  • the drowsiness level calculation unit is provided with a learning device, and the learning device is used, for example, an image of an occupant corresponding to the stepwise drowsiness level. To learn by inputting each. Then, the learning device of the drowsiness level calculation unit may acquire the captured image from the image acquisition unit, and the drowsiness level of the occupant in the captured image may be calculated.
  • 10, 30, 40 sleep detection device 10a processing circuit, 10b processor, 10c memory, 11 image acquisition unit, 12 feature point detection unit, 13 feature amount calculation unit, 14 face orientation detection unit, 15 face orientation change amount calculation unit, 16, 32 blunting determination unit, 17 posture determination unit, 18, 42 sleep detection unit, 20 imaging device, 31 face information detection unit, 41 sleepiness level calculation unit, 50 notification unit, 100, 101, 102 sleep detection system, 201 operation Seat, 202 passenger seat, 211, 212 occupants, 300 captured images, 301 face area, 311 outer corners of the eyes, 312 inner corners, 313 upper eyelids, 314 lower eyelids, 315 nose roots, 316 nose tips, 317 upper lips, 318 lower lips, 319 mouth corners.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

乗員の睡眠の検出精度を向上する睡眠検出装置を提供する。 睡眠検出装置に、車両の内部の乗員を撮像する撮像装置(20)から、乗員が撮像された撮像画像を取得する画像取得部(11)と、画像取得部(11)が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部(16)と、画像取得部(11)が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部(17)と、鈍化判定部(16)の判定結果及び姿勢判定部(17)の判定結果を用いて、乗員の睡眠を検出する睡眠検出部(18)と、を備え、睡眠検出部(18)は、鈍化判定部(16)により乗員に知覚の鈍化が発生していると判定され、姿勢判定部(17)により乗員の姿勢が異常であると判定された場合、乗員が睡眠に陥ったとする。これにより、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。

Description

睡眠検出装置及び睡眠検出システム
 本開示は、睡眠検出装置及び睡眠検出システムに関する。
 自動車等の車両を運転する乗員の居眠り運転を防止するために、乗員の顔や姿勢の状態を検出し、乗員が感じる眠気を推定する技術が提案されている。従来、強い眠気に至るまでに、段階的に眠気の状態が変化することから、目の開眼度及び目と眉との距離等、眠気の兆候に関連する情報を用いて、段階的に分けられた眠気ステージのうち、乗員がどの眠気ステージにあるのかを推定していた(例えば、特許文献1参照)。
特開2008-220424号公報
 乗員は、瞬間的に眠って倒れこむ等、いわゆるマイクロスリープに陥る場合があり、居眠り運転を防止するためには、前述の瞬間的な睡眠を検出する必要がある。しかしながら、乗員がどの眠気ステージにあるのかを推定していただけでは、瞬間的な睡眠を検出できず、乗員の睡眠の検出精度が悪いという課題があった。
 本開示は、上述の課題を解決するためになされたもので、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上する睡眠検出装置を提供することを目的とする。
 本開示に係る睡眠検出装置は、車両に搭載され車両の内部の乗員を撮像する撮像装置から、乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、画像取得部が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部と、鈍化判定部の判定結果及び姿勢判定部の判定結果を用いて、乗員の睡眠を検出する睡眠検出部と、を備え、睡眠検出部は、鈍化判定部により乗員に知覚の鈍化が発生していると判定され、姿勢判定部により乗員の姿勢が異常であると判定された場合、乗員が睡眠に陥ったとするものである。
 また、本開示に係る睡眠検出システムは、車両に搭載され車両の内部の乗員を撮像する撮像装置と、撮像装置から、乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、画像取得部が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部と、鈍化判定部の判定結果及び姿勢判定部の判定結果を用いて、乗員の睡眠を検出する睡眠検出部と、を備え、睡眠検出部は、鈍化判定部により乗員に知覚の鈍化が発生していると判定され、姿勢判定部により乗員の姿勢が異常であると判定された場合、乗員が睡眠に陥ったとするものである。
 本開示によれば、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。
実施の形態1に係る睡眠検出システムの構成例を示すブロック図である。 実施の形態1に係る撮像装置の撮像範囲を示す説明図である。 実施の形態1に係る睡眠検出装置の特徴点検出部の検出処理を示す説明図である。 実施の形態1に係る睡眠検出装置の顔向き検出部の顔向き検出処理を示す説明図である。 実施の形態1に係る睡眠検出装置の睡眠検出結果を示す説明図である。 実施の形態1に係る睡眠検出装置の動作例を示すフローチャートである。 実施の形態1に係る睡眠検出装置の動作例を示すフローチャートである。 実施の形態1に係る睡眠検出装置のハードウェア構成例を示す図である。 実施の形態2に係る睡眠検出システムの構成例を示すブロック図である。 実施の形態2に係る睡眠検出装置の動作例を示すフローチャートである。 実施の形態3に係る睡眠検出システムの構成例を示すブロック図である。 実施の形態3に係る睡眠検出装置の動作例を示すフローチャートである。
 以下、図面に基づいて実施の形態について説明する。
実施の形態1.
 図1は、実施の形態1に係る睡眠検出システム100の構成例を示すブロック図である。睡眠検出システム100は、睡眠検出装置10及び撮像装置20を備えており、睡眠検出装置10及び撮像装置20はそれぞれ車両に搭載される。
 図2は、実施の形態1に係る撮像装置20の撮像範囲を示す説明図である。図2では、睡眠検出装置10を搭載した車両の内部を上方から見ている。撮像装置20は、例えば広角カメラ、赤外線カメラ等で構成され、車両の内部を撮像する。また、撮像装置20は、撮像装置20と被写体との距離を反映した画像を撮像可能な、TOF(Time-of-flight)カメラ等の距離画像センサであってもよい。撮像装置20は、例えば30~60fps(frames per second)の間隔で車両内部を撮像して、撮像した画像を睡眠検出装置10の画像取得部11へ出力する。以下、撮像装置20により撮像された画像を、撮像画像という。
 図2の例において、撮像装置20の撮像領域を領域Aで示している。撮像装置20は、少なくとも運転席201及び助手席202にそれぞれ着座する乗員211及び乗員212を同時に撮像可能なように、一台又は複数台、インストルメントパネル、ステアリングコラム、ルームミラー等に配置される。ここで、撮像装置20は、図示していない後部座席を撮像範囲に含んでいてもよい。以下、撮像装置20の撮像対象となる乗員211、212をまとめて「乗員」ともいう。すなわち、乗員は運転者を含むものである。
 図1に戻り、睡眠検出装置10の各構成について説明する。睡眠検出装置10は、撮像装置20から乗員が撮像された撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16及び姿勢判定部17のそれぞれの判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備える。
 画像取得部11は、撮像装置20から車両の内部の乗員が撮像された撮像画像を取得する。また、睡眠検出装置10は、撮像装置20から撮像画像を取得する度に、後述する睡眠検出の処理を行うと好ましい。そして、画像取得部11が取得した撮像画像は、次に説明する特徴点検出部12に出力される。
 特徴点検出部12は、画像取得部11が取得した撮像画像から、乗員の身体の器官に関する特徴点を抽出する。特徴点検出部12による特徴点の抽出処理は、公知の種々のアルゴリズムを用いることができるものであり、これらのアルゴリズムの詳細な説明は省略する。例えば、特徴点検出部12は、乗員の顔に関する特徴点を抽出する場合、複数個の顔パーツ(例えば、右目、左目、右眉、左眉、鼻、及び口)の各々に対応する複数個の特徴点を検出する処理を実行する。
 特徴点検出部12の特徴点の検出処理について説明する。図3は、実施の形態1に係る睡眠検出装置10の特徴点検出部12の検出処理を示す説明図である。図3Aは撮像画像300についての説明図であり、図3Bは顔領域301についての説明図であり、図3Cは特徴点についての説明図である。特徴点検出部12は、画像取得部11から例えば図3Aに示す撮像画像300を取得する。そして、特徴点検出部12は、画像取得部11から取得した撮像画像300に対して、顔パーツが含まれる領域である顔領域301を検出する。例えば、特徴点検出部12は、図3Aの撮像画像300に対して、図3Bに示す顔領域301を検出する。
 特徴点検出部12は、検出した顔領域301内で、例えば図3Cに示すように、目に関して、両目尻311、両目頭312、両上瞼313、及び両下瞼314等の、顔パーツの構成要素の位置情報を取得する。また、特徴点検出部12は、顔領域301内で、例えば図3Cに示すように、鼻に関して、鼻根315、鼻尖316、鼻背、及び鼻翼等の、顔パーツの構成要素の位置情報を取得する。さらに、特徴点検出部12は、顔領域301内で、例えば図3Cに示すように、口に関して、上唇317、下唇318、及び口角319等の、顔パーツの位置情報を取得する。特徴点検出部12が取得する各顔パーツの構成要素の位置情報は、図3Aで示した撮像画像300の特定の位置Oを始点とした座標、又は図3Aで示した撮像画像300における中心を始点とした座標等を示す情報である。そして、特徴点検出部12が取得した位置情報が、特徴点として検出される。なお、特徴点検出部12が検出した特徴点は、睡眠検出装置10の記憶部(図示せず)に記録されてもよい。
 そして、特徴量算出部13は、特徴点検出部12が抽出した特徴点から、乗員の特徴量を算出する。ここで、乗員の特徴量とは、具体的には、例えば、右目と左目との距離、乗員の顔における鼻の位置等、乗員の特徴点間の位置関係を示す情報である。また、特徴量算出部13は、顔領域301の撮像画像300における大きさ、座標等、顔領域301の位置情報を取得してもよい。特徴量の算出についても、公知の種々のアルゴリズムを用いることができる。なお、特徴量算出部13が算出した特徴量についても、睡眠検出装置10の記憶部に記録されてもよい。
 顔向き検出部14は、特徴量算出部13が算出した特徴量を用いて、画像取得部11が取得した撮像画像における乗員の顔向きを検出する。ここで、例えば、基準位置に対して乗員の顔のロール角、ピッチ角、及びヨー角の少なくともいずれかを検出して、乗員の顔向きを検出すればよい。なお、顔向き検出部14が検出した顔向きについても、睡眠検出装置10の記憶部に記録されてもよい。
 顔向き検出部14の顔向きの検出処理について説明する。図4は、実施の形態1に係る睡眠検出装置10の顔向き検出部14の顔向き検出処理を示す説明図である。例えば、図4Aから図4Cに示すように、顔向き検出部14は、鼻尖316と両目の位置関係を取得する。また、顔向き検出部14は、鼻尖316と両目の位置関係から、乗員の顔向きを検出する。
 図4Aの場合、顔向き検出部14は、鼻尖316が左目の目尻311を通る直線Qa付近に位置していることから、乗員の顔向きは右であると検出する。図4Bの場合、顔向き検出部14は、鼻尖316が両眼頭312の間に位置していることから、乗員の顔向きは正面であると検出する。図4Cの場合、顔向き検出部14は、鼻尖316が右目の目尻311を通る直線Qb付近に位置していることから、顔向き検出部14は、乗員の顔向きは左であると検出する。このように、顔向き検出部14は、乗員の顔の左右の向き、すなわち、乗員の顔のヨー角を検出する。
 また、例えば図4Bに示すように、顔向き検出部14は、鼻尖316が位置する点を通る直線Qcを利用して、乗員の顔の上下の向き、すなわち、乗員の顔のピッチ角を検出する。なお、直線Qcは、例えば、乗員が上下方向、及び左右方向のいずれにおいても正面を向いている状態の撮像画像から設定すればよい。なお、顔向き検出部14による乗員の顔向き検出処理については、公知の種々のアルゴリズムを用いることができ、乗員の顔のロール角の検出処理についても公知の種々のアルゴリズムを用いることができる。また、後述の姿勢判定部17による乗員の姿勢の判定処理には、乗員の顔のロール角及びピッチ角の少なくともいずれかを用いると好ましい。乗員が瞬間的な睡眠に陥る場合は、うなずき、倒れこみ、又はのけぞりが伴う。これにより、瞬間的な睡眠に陥った乗員は、顔のロール角及びピッチ角の少なくともいずれかが変化するため、ロール角及びピッチ角の少なくともいずれかを後述の姿勢判定処理に用いれば、姿勢判定結果の信頼性を向上できる。
 顔向き変化量算出部15は、顔向き検出部14が検出した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する。乗員の顔向きの変化量とは、例えば、フレームAにおける撮像画像から検出された基準位置に対する乗員の顔のピッチ角と、フレームBにおける撮像画像から検出された基準位置に対する乗員の顔のピッチ角との差分である。ここで、乗員の顔向きの変化量とは、乗員の顔の角度の変化量だけでなく、撮像画像における乗員の顔の位置又は顔領域の大きさ、座標の変化量も含むものである。なお、変化量とは、各パラメータの差分のみではなく、複数の撮像画像で検出された各パラメータより算出された平均値からの差分でもよく、複数の撮像画像で検出された各パラメータより算出された中央値及び標準偏差等であってもよい。
 次に、鈍化判定部16について説明する。鈍化判定部16は、撮像画像より抽出された乗員に、知覚の鈍化が発生しているか否かを判定する。ここで、乗員に知覚の鈍化が発生しているとは、乗員が外部からの刺激に対して強い反応を示さない状態にあることをいう。乗員が瞬間的な睡眠に陥る場合、この瞬間的な睡眠の前には、乗員に知覚の鈍化が発生することが分かっている。したがって、乗員の瞬間的な睡眠を精度よく検出するためには、乗員に知覚の鈍化が発生しているか否かを判定する必要がある。
 乗員に知覚の鈍化が発生している場合、例えば、覚醒時と比較して、顔の動きが少なくなる等、特徴的な行動の変化がみられる。この行動の変化は、乗員が外部からの刺激に対して強い反応を示さなくなったことを意味しており、知覚の鈍化が発生した乗員には、覚醒時と比較して随意的な動作が少なくなる。
 鈍化判定部16が乗員の顔向きを用いて、乗員の知覚に鈍化が発生しているか否かを判定する例を挙げて説明する。なお、説明のため、乗員の知覚に鈍化が発生しているか否かの判定を鈍化判定ともいう。鈍化判定部16は、顔向きの変化量が設定された閾値(以下、鈍化判定閾値という)未満である状態が、設定された時間(以下、鈍化判定時間という)以上継続した場合、乗員に随意的な行動が少なくなったとして、乗員の知覚に鈍化が発生していると判定する。一方、顔向きの変化量が鈍化判定閾値以上である場合、又は顔向きの変化量が鈍化判定閾値未満である状態が鈍化判定時間以上継続しなかった場合、乗員に随意的な行動がみられるとして、乗員の知覚に鈍化が発生していないと判定する。
 乗員に知覚の鈍化が発生する場合は、乗員から随意的な動作が見られなくなった状態(以下、鈍化状態という)は所定の時間継続する。一方で、乗員は覚醒状態にありながらも、運転中に顔向きの変化が少なくなる場合もある。そのため、鈍化状態が設定された鈍化判定時間以上継続した場合に、鈍化判定の判定結果を、後述の睡眠検出処理に反映することで、乗員の睡眠の検出精度を向上することができる。
 鈍化判定部16は、例えば、顔向き変化量算出部15から、顔向きの変化量として乗員の顔のピッチ角の、設定された期間における標準偏差を取得する。そして、鈍化判定部16は、取得した標準偏差が鈍化判定閾値未満であり、標準偏差が鈍化判定閾値未満である状態が鈍化判定時間以上継続していれば、すなわち標準偏差が鈍化判定閾値未満となった期間が鈍化判定時間以上であれば、乗員の知覚に鈍化が発生していると判定する。一方、鈍化判定部16は、取得した標準偏差が鈍化判定閾値以上であれば、乗員の知覚に鈍化が発生していないと判定する。また、鈍化判定部16は、取得した標準偏差が鈍化判定閾値未満となった期間が鈍化判定時間未満であっても、乗員の知覚に鈍化が発生していないと判定する。さらに、鈍化判定部16は、判定結果を後述する睡眠検出部18に出力する。
 次に、姿勢判定部17について説明する。姿勢判定部17は、撮像画像より抽出された乗員の姿勢が異常であるか否かを判定する。乗員は、瞬間的に睡眠に陥る場合、うなずき、倒れこみ、又はのけぞり等、異常な姿勢が伴う。そのため、姿勢判定部17により、乗員が異常な姿勢であるか否かを判定して、姿勢判定部17の判定結果を後述の睡眠検出処理に用いる。
 姿勢判定部17は、例えば、顔向き変化量算出部15が算出した顔向きの変化量を用いて、撮像画像より抽出された乗員の姿勢が異常であるか否かを判定する。そして、姿勢判定部17は判定結果を睡眠検出部18に出力する。なお、説明のため、姿勢判定部17による乗員の姿勢が異常であるか否かの判定を、姿勢判定ともいう。
 姿勢判定部17による姿勢判定例について説明する。例えば、姿勢判定部17は、例えば、顔向き変化量算出部15から、顔向きの変化量として乗員の顔のピッチ角の、設定された時間(以下、姿勢判定時間という)内における最大値及び最小値を取得する。そして、姿勢判定部17は、顔向きの変化量が姿勢判定時間内において、設定された閾値(以下、姿勢判定閾値という)以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する。つまり、姿勢判定部17は、顔向き変化量算出部15から、姿勢判定時間内における、乗員の顔向きの基準位置に対するピッチ角の最大値と、乗員の顔向きの基準位置に対するピッチ角最小値とをそれぞれ取得する。そして、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値以上であれば、乗員の姿勢が異常であると判定する。一方、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定する。
 ここで、乗員は、瞬間的な睡眠に陥らなくても、例えば、前方視野の確保のためにゆっくりと顔向きを変化させる場合がある。一方で、上述のように姿勢判定部17が、姿勢判定時間内における顔向きの変化量を用いて姿勢判定を行えば、乗員が瞬間的な睡眠に陥らずに、ゆっくりと顔向きが変化した場合を、乗員が睡眠に陥ったと誤検出することを抑制できる。
 また、姿勢判定部17は、顔領域の大きさを用いて姿勢判定を行ってもよい。乗員が瞬間的な睡眠に陥る場合、乗員は、撮像装置20から離れる方向にのけぞる、撮像装置20に近づく方向にうなずく又は倒れこむことがある。このとき、検出される乗員の顔領域の大きさに変化が生じる。そのため、姿勢判定部17は、例えば、特徴量算出部13から特徴量として顔領域の大きさを取得し、顔領域の大きさが設定された範囲外にあれば、乗員の姿勢が異常であると判定し、顔領域の大きさが設定された範囲内にあれば乗員の姿勢が異常でないと判定するようにしてもよい。この場合、姿勢判定部17は、顔向き変化量算出部15と接続せず、特徴量算出部13と接続するようにすればよい。
 さらに、姿勢判定部17は、撮像装置20と乗員との距離を用いて姿勢判定を行ってもよい。上述したように、乗員が瞬間的な睡眠に陥る場合、乗員は、撮像装置20から離れる方向にのけぞる、撮像装置20に近づく方向にうなずく又は倒れこむことがある。そのため、撮像装置20をTOFカメラ等の撮像装置20と被写体との距離を反映した画像を撮像可能な撮像装置20で構成し、撮像画像に含まれる、乗員と撮像装置20との距離を示す距離データを用いて姿勢が異常であるか否かを判定することが可能である。
 姿勢判定部17は、例えば、画像取得部11が取得した撮像画像に含まれる乗員の顔と撮像装置20との距離が、設定された範囲外にあれば、乗員の姿勢が異常であると判定し、乗員の顔と撮像装置20との距離が設定された範囲内にあれば乗員の姿勢が異常でないと判定する。この場合、特徴量算出部13を、撮像画像に含まれる乗員の顔と撮像装置20との距離を算出可能なように構成し、姿勢判定部17と特徴量算出部13とを接続すればよい。
 なお、姿勢判定部17は、車両に備えられた深度センサ等、乗員との距離を取得可能なセンサから取得した、乗員とセンサとの距離を示す距離データを用いて姿勢が異常であるか否かを判定することも可能である。すなわち、上述の例では、TOFカメラも深度センサに含まれる。
 睡眠検出部18は、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する。睡眠検出部18は、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定された場合、乗員が睡眠に陥ったことを検出する。
 そして、睡眠検出部18は、検出結果を、車両に搭載された車載機器の制御を行う車両制御装置(図示せず)へ出力し、車両に搭載された報知部50を作動させて報知を行わせる。また、報知部50は、睡眠検出装置10に備えてもよい。なお、睡眠検出装置10と車両制御装置は接続されている。ここで、報知部50は、例えば、車両に搭載されたスピーカ又はディスプレイの少なくとも一方でもよいし、乗員が所持している携帯端末等であってもよい。報知部50は、睡眠検出部18により乗員が睡眠に陥ったことが検出された場合、乗員に向けて居眠り運転を防止させるため警告音を発する等して報知を行う。また、乗員が所持している携帯端末に報知を行わせる場合、睡眠検出装置10を通信部(図示せず)と接続し、通信部と携帯端末との間で通信を行わせればよい。なお、睡眠検出部18により、乗員が睡眠に陥ったことが検出された場合、車両制御装置によって眠気を解消するように空調等の車載機器の制御を行ってもよい。
 睡眠検出部18による乗員の睡眠検出の結果について説明する。図5は、実施の形態1に係る睡眠検出装置10の睡眠検出結果を示す説明図である。図5Aは、比較例における睡眠検出結果を示した図であり、図5Bは、本実施の形態に係る睡眠検出装置10の睡眠検出結果を示した図である。図5A及び図5Bの縦軸は検出結果を示しており、横軸は時間を示している。図5A及び図5Bでは、点がプロットされた時間において、乗員が睡眠に陥ったと検出されたことを表している。
 図5Aの比較例は、睡眠検出処理において、姿勢判定部17の判定結果のみで乗員の睡眠を検出したものである。乗員は、車両に乗車しているとき、様々な要因によって顔向きが変化する。図5中に示す時間t1において、実際に乗員が瞬間的な睡眠に陥っている。しかしながら、図5Aに示すように、比較例では、t1以外にも乗員が睡眠に陥ったと検出されており、乗員の睡眠の検出精度が悪い。
 一方、本実施の形態に係る睡眠検出装置10においては、鈍化判定部16によって乗員に知覚の鈍化が発生したと判定された後に、姿勢判定部17によって乗員の姿勢が異常であると判定された場合に、乗員が睡眠に陥ったとするようにした。そのため、図5Bに示すように、瞬間的な睡眠に陥らず、単に乗員の顔向きが変化した場合は、乗員が睡眠に陥ったと誤検出せず、実際に乗員が瞬間的な睡眠に陥った時間t1のみ、乗員が睡眠に陥ったことが検出できる。このように、睡眠検出処理において、姿勢判定部17の判定結果及び鈍化判定部16の判定結果を用いることで、乗員の睡眠の検出精度を向上できる。なお、姿勢判定部17による姿勢判定を、顔向きを用いたものでなく、顔領域の大きさを用いたものとしても、乗員とセンサとの距離を用いたものとしても同様の結果が得られ、図5Bに示すように、精度よく乗員の睡眠を検出できる。
 次に、睡眠検出装置10の動作例について説明する。図6及び図7は、それぞれ実施の形態1に係る睡眠検出装置10の動作例を示すフローチャートである。以下、睡眠検出装置10が、乗員の顔向きを用いて、鈍化判定及び姿勢判定をそれぞれ行う例を挙げて説明する。また、図6及び図7のフローチャートには、睡眠検出装置10の動作を終了する処理が示されていないが、睡眠検出装置10は、車両制御装置から、動作を終了する旨の指令を取得したら動作を終了する。なお、図6及び図7に示す処理は、睡眠検出装置10の電源がオンにされた状態で、例えば所定の間隔で繰り返される。
 まず、睡眠検出装置10の画像取得部11は、撮像装置20から撮像画像を取得する(ST1)。そして、画像取得部11は、取得した撮像画像を特徴点検出部12に出力する。次いで、特徴点検出部12は、撮像画像を用いて、撮像画像における乗員の顔パーツを検出し、乗員の顔の特徴点を抽出する(ST2)。そして、特徴量算出部13は、抽出された特徴点を用いて、撮像画像から抽出された乗員の特徴量を算出する(ST3)。以下、説明のために、図6に示すST1~ST3の処理をまとめて、特徴量算出処理ST101という。
 図7に基づき睡眠検出装置10の動作例について説明する。特徴量算出処理ST101にて乗員の特徴量を算出したら、顔向き検出部14は、特徴量を取得し、撮像画像から抽出された乗員の顔向きを検出する(ST102)。そして、顔向き検出部14は検出した乗員の顔向きを、顔向き変化量算出部15に出力する。次いで、顔向き変化量算出部15は、顔向き検出部14から取得した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する(ST103)。ここで、顔向きの変化量は、記憶部に記録されていてもよい。
 次に、鈍化判定部16は、乗員の知覚に鈍化が発生しているか否かを判定する(ST104)。鈍化判定部16は、変化量として、例えば、顔向き変化量算出部15から乗員の顔向きを示すピッチ角の、設定された期間における標準偏差を取得する。そして、鈍化判定部16は、取得した変化量が、鈍化判定閾値以上である場合、乗員の知覚に鈍化が発生していないと判定し(ST104;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置10の処理は、ST101に進む。一方、鈍化判定部16は、取得した変化量が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST104;YES)、次のST105の処理に進む。
 次に、鈍化判定部16は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。ここで、鈍化判定部16は、例えば、取得した標準偏差が鈍化判定閾値未満である状態が鈍化判定時間以上継続した場合に、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したと判定する。
 鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、乗員の知覚に鈍化が発生していないと判定し、睡眠検出装置10の処理は、ST101に進む。一方、鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定して、判定結果を睡眠検出部18に出力する。そして、睡眠検出装置10の処理は、次に説明するST106に進む。
 次に、睡眠検出装置10の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、例えば、顔向き変化量算出部15から顔向きの変化量を取得し、顔向きの変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、例えば、変化量として、設定された期間における乗員の顔向きの基準位置に対するピッチ角の最大値と、乗員の顔向きの基準位置に対するピッチ角の最小値とをそれぞれ取得する。そして、姿勢判定部17は、最小値と最大値との差分が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、次いで、睡眠検出装置10の処理は、ST101に進む。
 一方、姿勢判定部17は、変化量として取得した、ピッチ角の最小値と最大値との差分が姿勢判定閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、睡眠検出装置10の処理は、次に説明するST108に進む。
 姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。例えば、姿勢判定部17は、乗員の顔のピッチ角が最大となった撮像画像を取得したフレームAと、乗員の顔のピッチ角が最小となった撮像画像を取得したフレームBとを参照し、フレームAとフレームBとの間に経過した時間を算出する。そして、算出した経過時間が姿勢判定時間以下であれば、姿勢判定時間内において、乗員の顔向きの変化量が姿勢判定閾値以上となったと判断する。なお、上述の処理は、顔向き変化量算出部15が姿勢判定時間内におけるピッチ角の最小値と最大値とを算出すれば省略可能である。
 姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、睡眠検出装置10の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が設定された姿勢判定時間内における判定であると判断した場合(ST108;YES)、乗員の姿勢が異常であると判定し、判定結果を睡眠検出部18に出力する。そして、睡眠検出部18は、乗員が睡眠に陥ったことを検出し、報知部50は乗員に向けて警告音を発する等して報知を行う(ST109)。
 次に、睡眠検出装置10の機能を実現するハードウェア構成について説明する。図8は、実施の形態1に係る睡眠検出装置10のハードウェア構成例を示す図である。睡眠検出装置10における画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の機能は、処理回路によって実現される。すなわち、睡眠検出装置10の、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18は、図8Aに示すように専用のハードウェアである処理回路10aであってもよいし、図8Bに示すようにメモリ10cに格納されているプログラムを実行するプロセッサ10bであってもよい。
 図8Aに示すように、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18が専用のハードウェアである場合、処理回路10aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
 図8Bに示すように、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18がプロセッサ10bである場合、各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ10cに格納される。プロセッサ10bは、メモリ10cに記憶されたプログラムを読み出して実行することにより、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各機能を実現する。すなわち、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18は、プロセッサ10bにより実行されるときに、図4に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ10cを備える。また、これらのプログラムは、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の手順又は方法をコンピュータに実行させるものであるともいえる。
 ここで、プロセッサ10bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ10cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、睡眠検出装置10における処理回路10aは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。また、画像取得部11、特徴点検出部12、特徴量算出部13、顔向き検出部14、顔向き変化量算出部15、鈍化判定部16、姿勢判定部17、及び睡眠検出部18の少なくとも一部の機能を、外部サーバに実行させてもよい。
 このように、睡眠検出装置10に、車両に搭載され車両の内部の乗員を撮像する撮像装置20から、乗員が撮像された撮像画像を取得する画像取得部11と、画像取得部11が取得した撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、画像取得部11が取得した撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備え、睡眠検出部18は、姿勢判定部17により乗員の姿勢が異常であると判定され、鈍化判定部16により乗員に知覚の鈍化が発生していると判定された場合、乗員が睡眠に陥ったとするものであると、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できる。
 なお、本実施の形態において、顔向き検出部14が、乗員の顔の鼻の位置を用いて検出する例について説明したが、顔向き検出部14が、顔向きの検出に用いる顔パーツは限定しない。例えば、顔向き検出部14は、特徴量算出部13から特徴量として、右目の位置、左目の位置、及び右目と左目との間の距離を取得し、顔向きの検出に用いてもよい。また、顔向き検出部14は、例えば、乗員の肩の位置等、顔以外の身体に器官に関する特徴点を検出してもよい。
実施の形態2.
 図9は、実施の形態2に係る睡眠検出システム101の構成例を示すブロック図である。実施の形態2に係る睡眠検出装置30は、実施の形態1と同様に、撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部32と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部32の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部18と、を備える。本実施の形態では、鈍化判定部32が、撮像画像から抽出された乗員の顔情報を用いて、乗員に知覚の鈍化が発生しているか否かを判定する点について、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
 乗員が瞬間的な睡眠に陥る前には、例えば、覚醒度が高いときと比較して、瞬きが減る、瞬きの速度が遅くなる、開眼度が低下する、表情の変化が少なくなる等、知覚の鈍化に起因した行動の変化がみられる。そのため、鈍化判定は、実施の形態1で説明した顔向きの変化量を用いるのみでなく、乗員の顔の状態に関する情報である顔情報を用いて行うこともできる。
 まず、鈍化判定に用いる顔情報について説明する。顔情報とは、例えば、目の開眼度、瞬きの頻度、表情の変化等、乗員の顔の状態に関する情報である。図9に示すように、本実施の形態に係る睡眠検出装置30は、顔情報検出部31を備える。顔情報検出部31は、特徴量算出部13から取得した乗員の特徴量を用いて、乗員の顔情報を検出する。
 顔情報検出部31による顔情報の検出処理の例について説明する。顔情報として目の開眼度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13から、特徴量として目の上瞼及び下瞼の間の距離を取得し、この距離を顔情報として検出する。また、顔情報として瞬きの速度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13として目の上瞼及び下瞼の間の距離を取得する。そして、この距離が設定された閾値未満である場合に瞬きが行われたとし、また、この距離が設定された閾値以上である場合に目が開いているとして、目が開いている状態から瞬きが行わるまでに経過した時間を顔情報として取得する。さらに、顔情報として瞬きの頻度を取得する場合、顔情報検出部31は、例えば、特徴量算出部13として目の上瞼及び下瞼の間の距離を取得する。そして、この距離が設定された閾値未満である場合に瞬きが行われたとして、前の瞬きと次の瞬きの間に経過した時間を顔情報として取得する。なお、顔情報検出部31の顔情報の検出処理は、上述の例に限らず、公知の種々のアルゴリズムを用いることができる。
 次に鈍化判定部32による鈍化判定例について説明する。鈍化判定部32は、顔情報検出部31から顔情報を取得し、顔情報を用いて乗員に知覚の鈍化が発生しているか否かを判定する。鈍化判定部32は、例えば、顔情報検出部31から顔情報として目の開眼度を取得した場合、目の開眼度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、目の開眼度が鈍化判定閾値以上である場合、又は目の開眼度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。
 また、鈍化判定部32は、例えば、顔情報検出部31から顔情報として瞬きの速度を取得した場合、瞬きの速度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、瞬きの速度が鈍化判定閾値以上である場合、又は瞬きの速度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。
 さらに、鈍化判定部32は、例えば、顔情報検出部31から顔情報として瞬きの頻度を取得した場合、瞬きの頻度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続した場合に、乗員に知覚の鈍化が発生していると判定する。一方、鈍化判定部32は、瞬きの頻度が鈍化判定閾値以上である場合、又は瞬きの頻度が鈍化判定閾値未満である状態が、鈍化判定時間以上継続しなかった場合に、乗員に知覚の鈍化が発生していないと判定する。
 なお、鈍化判定について、鈍化判定閾値を用いて行う例について説明した。ここでの鈍化判定閾値は、実施の形態1における鈍化判定閾値とは異なる。つまり、実施の形態1における鈍化判定閾値は、顔向きの変化量についての閾値であるのに対し、実施の形態2における鈍化判定閾値は、顔情報についての閾値である。目の開眼度と比較する鈍化判定閾値は、目の開眼度についての閾値であり、瞬きの速度と比較する鈍化判定閾値は、瞬きの速度についての閾値であり、また、瞬きの頻度と比較する鈍化判定閾値は、瞬きの頻度についての閾値である。ここで、鈍化判定時間についても同様に、各判定で鈍化判定時間を異なるものとしてもよい。さらに、鈍化判定閾値は、予め定められた値であってもよいし、乗車時から所定の時間経過するまでに取得した顔情報を基準として設定された値であってもよい。乗車時は、乗員の覚醒度が高いと考えられ、覚醒度が高いときに取得した顔情報を基準とすれば、鈍化判定の精度を向上できるためである。
 次に、睡眠検出装置30の動作例について説明する。図10は、実施の形態2に係る睡眠検出装置30の動作例を示すフローチャートである。ここで、以下では実施の形態1に係る睡眠検出装置30の処理と同一のステップには、図6及び図7で示した符号と同一の符号を付し、説明を省略又は簡略化する。
 まず、特徴量算出処理ST101にて特徴量を算出したら、顔情報検出部31は、特徴量算出部13から取得した特徴量を用いて顔情報を検出する(ST201)。以下では、顔情報検出部31が、顔情報として目の開眼度を検出し、鈍化判定部32が目の開眼度及び目の開眼度に関する鈍化判定閾値を用いて鈍化判定を行う例を挙げて説明する。
 次に、鈍化判定部32は、乗員の知覚に鈍化が発生しているか否かを判定する(ST202)。鈍化判定部32は、例えば、顔情報検出部31から、顔情報として設定された期間における乗員の目の開眼度を取得する。そして、鈍化判定部32は、取得した開眼度が、鈍化判定閾値以上である場合、乗員に知覚の鈍化が発生していないと判定し(ST202;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置30の処理は、ST101に進む。一方、鈍化判定部32は、取得した乗員の眼の開眼度が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST202;YES)、次のST105の処理に進む。
 次に、鈍化判定部32は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。鈍化判定部32が、乗員に知覚の鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、乗員に知覚の鈍化が発生していないと判定し、睡眠検出装置30の処理は、ST101に進む。一方、鈍化判定部32は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定し、判定結果を睡眠検出部18に出力する。そして、睡眠検出装置30の処理は、次のST102に進む。
 顔向き検出部14は、特徴量を取得し、撮像画像から抽出された乗員の顔向きを検出する(ST102)。そして、睡眠検出装置30の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、顔向き変化量算出部15から顔向きの変化量を取得し、取得した変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、取得した変化量が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、判定結果を睡眠検出部18に出力する。次いで、睡眠検出装置30の処理は、ST101に進む。なお、実施の形態1と同様に、姿勢判定部17による姿勢判定は顔向きを用いるものでなく、顔領域の大きさ、乗員とセンサとの距離を用いたものでも可能である。
 一方、姿勢判定部17は、例えば、ピッチ角の最小値と最大値との差分が設定された閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、さらに、睡眠検出装置30の処理は、次に説明するST108に進む。
 姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。姿勢判定部17が、乗員の姿勢が異常であると判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、乗員の姿勢が異常でないと判定して、睡眠検出装置30の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。
 一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定であると判断した場合(ST108;YES)、判定結果を睡眠検出部18に出力する。そして、睡眠検出部18は、乗員が睡眠に陥ったことを検出し、報知部50は乗員に向けて報知を行う(ST109)。
 このように、睡眠検出装置30に、特徴量算出部13が算出した特徴量を用いて、乗員の顔の状態に関する顔情報を検出する顔情報検出部31をさらに備え、鈍化判定部32が、顔情報検出部31が検出した顔情報を用いて、乗員に知覚の鈍化が発生しているか否かを判定するものであると、乗員の瞬間的な睡眠の前に現れる知覚の鈍化を乗員の顔の状態から判定でき、乗員の瞬間的な睡眠を検出して、乗員の睡眠の検出精度を向上できる。
 なお、本実施の形態において、鈍化判定部32が、顔情報検出部31から顔情報として目の開眼度を取得し、目の開眼度を鈍化判定に用いる例について説明したが、鈍化判定部32が鈍化判定に用いる顔情報は、目の開眼度に限らない。例えば、鈍化判定部32は、顔情報検出部31から、目の開眼度、瞬きの速度、及び瞬きの頻度を顔情報として取得し、取得した顔情報のうち少なくともいずれかが、設定された閾値未満であれば、乗員に知覚の鈍化が発生していると判定してもよい。
実施の形態3.
 図11は、実施の形態3に係る睡眠検出システム102の構成例を示すブロック図である。実施の形態3に係る睡眠検出装置40は、実施の形態1と同様に、撮像画像を取得する画像取得部11と、撮像画像から抽出された乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部16と、撮像画像から抽出された乗員の姿勢が異常であるか否かを判定する姿勢判定部17と、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する睡眠検出部42と、を備える。本実施の形態では、睡眠検出部42が、鈍化判定部16及び姿勢判定部17の判定結果に加え、眠気レベル算出部41の眠気レベルの算出結果を用いて、乗員に知覚の鈍化が発生しているか否かを判定する点について、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
 本実施の形態の睡眠検出装置40は、顔情報検出部31及び乗員の眠気レベルを算出する眠気レベル算出部41を備える。なお、顔情報検出部31の構成については、実施の形態2に説明した構成と同様のため、説明を省略する。ここで、覚醒度が高い状態から、覚醒度が低い状態まで段階的に分けられた眠気の尺度を眠気レベルという。本開示においては、覚醒度が最も高い状態を眠気レベル1、覚醒度が最も低い状態を眠気レベル9とし、覚醒度が低くなるにつれて、眠気レベル1から眠気レベル9に推移していくものとする。
 乗員に知覚の鈍化が発生しているときは、眠気レベルが高い状態にある場合がある。そのため、睡眠検出部42が、鈍化判定部16及び姿勢判定部17の判定結果に加え、眠気レベル算出部41の眠気レベルの算出結果を用いることで、乗員の睡眠の検出結果の信頼性を向上することができる。
 眠気レベル算出部41による眠気レベルの算出について説明する。眠気レベル算出部41は、顔情報検出部31から顔情報を取得し、乗員の眠気レベルを算出する。例えば、目の開眼度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から目の開眼度を取得し、目の開眼度が小さくなるにつれて乗員の眠気レベルを高く算出する。この場合、目の開眼度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。
 また、例えば、瞬きの速度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から瞬きの速度を取得し、瞬きの速度が小さくなるにつれて乗員の眠気レベルを高く算出する。この場合、瞬きの速度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。
 さらに、例えば、瞬きの頻度を顔情報として取得する場合、眠気レベル算出部41は、顔情報検出部31から瞬きの頻度を取得し、瞬きの頻度が少なくなるにつれて乗員の眠気レベルを高く算出する。この場合、瞬きの頻度に対して複数の閾値を設け、それぞれの閾値未満であるか否かにより眠気レベルを算出すればよい。なお、眠気レベル算出部41による眠気レベルの算出処理は、上述の例に限らず、公知の種々のアルゴリズムを用いることができる。そして、眠気レベル算出部41による算出結果は、睡眠検出部42に出力される。
 次に、本実施の形態に係る睡眠検出部42について説明する。睡眠検出部42は、眠気レベル算出部41による算出結果を取得し、眠気レベル算出部41が算出した乗員の眠気レベルが設定された眠気レベル、すなわち設定された閾値以上であれば、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出する。ここで、睡眠検出部42は、眠気レベルが、乗員が眠気を感じていると考えられる眠気レベル以上であれば、鈍化判定部16の判定結果及び姿勢判定部17の判定結果を用いて、乗員の睡眠を検出すると好ましい。上述したように、乗員に知覚の鈍化が発生しているときは、眠気レベルが高い状態にある、つまり乗員が眠気を感じている場合があるためである。そして、眠気レベルが設定された閾値以上である場合に、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定されれば、睡眠検出部42は、乗員が睡眠に陥ったことを検出する。
 次に、睡眠検出装置40の動作例について説明する。図12は、実施の形態3に係る睡眠検出装置40の動作例を示すフローチャートである。ここで、以下では実施の形態1に係る睡眠検出装置40の処理と同一のステップには、図6及び図7で示した符号と同一の符号を付し、説明を省略又は簡略化する。
 まず、特徴量算出処理ST101にて特徴量を算出したら、顔情報検出部31は、特徴量算出部13から取得した特徴量を用いて顔情報を検出し(ST301)、検出した顔情報を眠気レベル算出部41に出力する。以下では、顔情報検出部31が、顔情報として乗員の目の開眼度を検出し、眠気レベル算出部41が目の開眼度を用いて乗員の眠気レベルの算出を行う例を挙げて説明する。
 次に、眠気レベル算出部41は、顔情報として取得した乗員の目の開閉度を用いて、乗員の眠気レベルを算出し(ST302)、算出した乗員の眠気レベルを睡眠検出部42に出力する。ここで、眠気レベル算出部41は、顔情報検出部31から顔情報として目の開眼度を取得し、目の開眼度が小さくなるにつれて乗員の眠気レベルを高く算出する。
 そして、睡眠検出部42は、取得した眠気レベルが設定された閾値以上であるか否かを判定する(ST303)。睡眠検出部42により、眠気レベルが設定された閾値未満であると判定された場合(ST303;NO)、睡眠検出装置40の処理は、ST101に進む。一方、睡眠検出部42により、眠気レベルが設定された閾値以上であると判定された場合(ST303;YES)、睡眠検出装置40の処理は、ST102に進む。
 次に、顔向き検出部14は、乗員の特徴量を取得し、撮像画像における乗員の顔向きを検出する(ST102)。そして、顔向き検出部14は、顔向き変化量算出部15に検出した乗員の顔向きを出力する。次いで、顔向き変化量算出部15は、顔向き検出部14から取得した乗員の顔向きを用いて、乗員の顔向きの変化量を算出する(ST103)。
 次に、鈍化判定部16は、乗員の知覚に鈍化が発生しているか否かを判定する(ST104)。鈍化判定部16は、例えば、顔向き変化量算出部15から乗員の顔向きの変化量を取得する。そして、鈍化判定部16は、取得した顔向きの変化量が、鈍化判定閾値以上である場合、乗員の知覚に鈍化が発生していないと判定し(ST104;NO)、判定結果を睡眠検出部42に出力する。次いで、睡眠検出装置40の処理は、ST101に進む。一方、鈍化判定部16は、取得した顔向きの変化量が、鈍化判定閾値未満である場合、乗員が知覚の鈍化が発生している状態にあると判定し(ST104;YES)、次のST105の処理に進む。なお、実施の形態2と同様に、鈍化判定部16による鈍化判定は、顔向きを用いるものでなく、顔情報を用いたものでも可能である。
 次に、鈍化判定部16は、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続したか否かを判定する(ST105)。鈍化判定部16が、乗員の知覚に鈍化が発生している状態が鈍化判定時間以上継続していないと判定した場合(ST105;NO)、睡眠検出装置40の処理は、ST101に進む。一方、鈍化判定部16が、乗員に知覚の鈍化が発生している状態が鈍化判定時間以上継続していると判定した場合(ST105;YES)、乗員に知覚の鈍化が発生していると判定し、判定結果を睡眠検出部18に出力し、睡眠検出装置40の処理は、次に説明するST106に進む。
 次に、睡眠検出装置40の姿勢判定部17は、顔向き変化量算出部15から、乗員の顔向きの変化量を取得する(ST106)。姿勢判定部17は、顔向き変化量算出部15から顔向きの変化量を取得し、顔向きの変化量が姿勢判定閾値以上であるか否かにより、乗員の姿勢が異常であるか否かを判定する(ST107)。姿勢判定部17は、顔向きの変化量が姿勢判定閾値未満であれば、乗員の姿勢が異常でないと判定し(ST107;NO)、判定結果を睡眠検出部42に出力する。次いで、睡眠検出装置40の処理は、ST101の処理に進む。
 一方、姿勢判定部17は、顔向きの変化量が設定された閾値以上であれば、乗員の姿勢が異常であると判定し(ST107;YES)、次に説明するST108の処理に進む。なお、実施の形態1と同様に、姿勢判定部17による姿勢判定は顔向きを用いるものでなく、顔領域の大きさ、乗員とセンサとの距離を用いたものでも可能である。
 姿勢判定部17は、姿勢判定時間内において、乗員の姿勢が異常であると判定したかを判断する(ST108)。姿勢判定部17が、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断した場合(ST108;NO)、乗員の姿勢が異常でないと判定して、睡眠検出装置40の処理は、ST101に進む。すなわち、ST108の処理で、乗員の姿勢が異常であるとの判定が姿勢判定時間内における判定でないと判断された場合、ST107の処理で乗員の姿勢が異常であるとされた判定結果は棄却される。
 一方、姿勢判定部17が、乗員の姿勢が異常であるとの判定が設定された姿勢判定時間内における判定であると判断した場合(ST108;YES)、乗員の姿勢が異常であると判定して、判定結果を睡眠検出部42に出力する。そして、睡眠検出部42は、乗員が睡眠に陥ったとし、報知部50は乗員に向けて警報を行う(ST109)。
 このように、本実施の形態における睡眠検出装置40は、乗員の顔の状態に関する顔情報を用いて、乗員の眠気レベルを算出する眠気レベル算出部41をさらに備え、睡眠検出部42は、乗員の眠気レベルが設定された閾値以上にあると判定された場合に、鈍化判定部16により乗員に知覚の鈍化が発生していると判定され、姿勢判定部17により乗員の姿勢が異常であると判定されたら、乗員が睡眠に陥ったことを検出するものである。このようにすると、乗員の瞬間的な睡眠を検出し、乗員の睡眠の検出精度を向上できるとともに、眠気レベルの算出結果を用いれば、知覚の鈍化は覚醒度が低い状態で発生する可能性があるため、乗員の睡眠の検出結果の信頼性を向上できる。
 なお、実施の形態1~3において、鈍化判定部による鈍化判定、姿勢判定部による姿勢判定、及び眠気レベル算出部による眠気レベルの算出は、乗員の特徴量を用いて行うものとして説明したが、鈍化判定、姿勢判定、及び眠気レベルの算出は、乗員の特徴量を用いて行うものに限定しない。鈍化判定、姿勢判定、及び眠気レベルの算出は、例えば、機械学習を用いたものであってもよい。鈍化判定を、機械学習を用いたものとする場合、鈍化判定部に学習装置を備え、学習装置に、例えば、知覚の鈍化が発生しているときの乗員を撮像した画像と、知覚の鈍化が発生していないときの乗員を撮像した画像とをそれぞれ入力して学習させる。そして、鈍化判定部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の知覚に鈍化が発生しているか否かを判定すればよい。
 また、姿勢判定を、機械学習を用いたものとする場合、姿勢判定部に学習装置を備え、学習装置に、例えば、のけぞる、うなずく、倒れこむ等して、姿勢が異常であるときの乗員を撮像した画像と、姿勢が異常でないときの乗員を撮像した画像とをそれぞれ入力して学習させる。そして、姿勢判定部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の姿勢が異常であるか否かを判定すればよい。
 さらに、眠気レベルの算出を、機械学習を用いたものとする場合、眠気レベル算出部に学習装置を備え、学習装置に、例えば、段階的に分けられた眠気レベルに対応した乗員を撮像した画像をそれぞれ入力して学習させる。そして、眠気レベル算出部の学習装置に画像取得部から撮像画像を取得させ、撮像画像における乗員の眠気レベルを算出すればよい。
 また、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。
10、30、40 睡眠検出装置、10a 処理回路、10b プロセッサ、10c メモリ、11 画像取得部、12 特徴点検出部、13 特徴量算出部、14 顔向き検出部、15 顔向き変化量算出部、16、32 鈍化判定部、17 姿勢判定部、18、42 睡眠検出部、20 撮像装置、31 顔情報検出部、41 眠気レベル算出部、50 報知部、100、101、102 睡眠検出システム、201 運転席、202 助手席、211、212 乗員、300 撮像画像、301 顔領域、311 目尻、312 目頭、313 上瞼、314 下瞼、315 鼻根、316 鼻尖、317 上唇、318 下唇、319 口角。

Claims (13)

  1.  車両に搭載され前記車両の内部の乗員を撮像する撮像装置から、前記乗員が撮像された撮像画像を取得する画像取得部と、
     前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
     前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
     前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、を備え、
     前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員が睡眠に陥ったとする
     ことを特徴とする睡眠検出装置。
  2.  前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定された後に、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合に、前記乗員が睡眠に陥ったとする
     ことを特徴とする請求項1に記載の睡眠検出装置。
  3.  前記姿勢判定部は、前記乗員との距離を取得するセンサから取得した前記乗員と前記センサとの距離が、設定された範囲外である場合、前記乗員の姿勢が異常であると判定する
     ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
  4.  前記姿勢判定部は、前記撮像画像から抽出された前記乗員の顔パーツが含まれる領域である顔領域の大きさが、設定された範囲外である場合、前記乗員の姿勢が異常であると判定する
     ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
  5.  前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔向きを検出する顔向き検出部と、
     前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
     前記姿勢判定部は、設定された姿勢判定時間内において、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された姿勢判定閾値以上となれば、前記乗員の姿勢が異常であると判定する
     ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
  6.  前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔向きを検出する顔向き検出部と、
     前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
     前記鈍化判定部は、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された鈍化判定閾値未満である状態が、設定された鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定する
     ことを特徴とする請求項1から請求項4のいずれか一項に記載の睡眠検出装置。
  7.  前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔向きを検出する顔向き検出部と、
     前記顔向き検出部が検出した前記乗員の顔向きの変化量を算出する顔向き変化量算出部と、をさらに備え、
     前記鈍化判定部は、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された鈍化判定閾値未満である状態が、設定された鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定し、
     前記姿勢判定部は、設定された姿勢判定時間内において、前記顔向き変化量算出部が算出した前記乗員の顔向きの変化量が、設定された姿勢判定閾値以上となれば、前記乗員の姿勢が異常であると判定する
     ことを特徴とする請求項1又は請求項2に記載の睡眠検出装置。
  8.  前記画像取得部が取得した前記撮像画像から抽出された前記乗員の顔の状態に関する顔情報を検出する顔情報検出部をさらに備え、
     前記鈍化判定部は、前記顔情報検出部が検出した顔情報を用いて、前記乗員に知覚の鈍化が発生しているか否かを判定する
     ことを特徴とする請求項1から請求項5のいずれか一項に記載の睡眠検出装置。
  9.  前記顔情報検出部は、前記乗員の、目の開眼度、瞬きの速度、及び瞬きの頻度の少なくともいずれかを前記顔情報として検出し、
     前記鈍化判定部は、前記乗員の、目の開眼度、瞬きの速度、及び瞬きの頻度の少なくともいずれかが、設定された鈍化判定閾値未満である状態が、設定された鈍化判定時間以上継続した場合、前記乗員に知覚の鈍化が発生していると判定する
     ことを特徴とする請求項8に記載の睡眠検出装置。
  10.  前記顔情報検出部が検出した前記顔情報を用いて、前記乗員の眠気レベルを算出する眠気レベル算出部をさらに備え、
     前記睡眠検出部は、前記眠気レベル算出部により前記乗員の眠気レベルが設定された閾値以上にあると判定され、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合に、前記乗員が睡眠に陥ったとする
     ことを特徴とする請求項8又は請求項9に記載の睡眠検出装置。
  11.  前記画像取得部が取得した前記撮像画像から抽出された前記乗員の状態に関する顔情報を検出する顔情報検出部と、
     前記顔情報検出部が検出した前記顔情報を用いて、前記乗員の眠気レベルを算出する眠気レベル算出部と、をさらに備え、
     前記睡眠検出部は、前記眠気レベル算出部により、前記乗員の眠気レベルが設定された閾値以上にあると判定された場合に、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定されたら、前記乗員が睡眠に陥ったとする
     ことを特徴とする請求項1から請求項7のいずれか一項に記載の睡眠検出装置。
  12.  前記車両に搭載され、前記睡眠検出部により前記乗員が睡眠に陥ったことが検出された場合、前記乗員に向けて報知を行う報知部をさらに備えた
     ことを特徴とする請求項1から請求項11のいずれか一項に記載の睡眠検出装置。
  13.  車両に搭載され前記車両の内部の乗員を撮像する撮像装置と、
     前記撮像装置から、前記乗員が撮像された撮像画像を取得する画像取得部と、
     前記画像取得部が取得した前記撮像画像から抽出された前記乗員に知覚の鈍化が発生しているか否かを判定する鈍化判定部と、
     前記画像取得部が取得した前記撮像画像から抽出された前記乗員の姿勢が異常であるか否かを判定する姿勢判定部と、
     前記鈍化判定部の判定結果及び前記姿勢判定部の判定結果を用いて、前記乗員の睡眠を検出する睡眠検出部と、を備え、
     前記睡眠検出部は、前記鈍化判定部により前記乗員に知覚の鈍化が発生していると判定され、前記姿勢判定部により前記乗員の姿勢が異常であると判定された場合、前記乗員が睡眠に陥ったとする
     ことを特徴とする睡眠検出システム。
PCT/JP2020/044237 2020-11-27 2020-11-27 睡眠検出装置及び睡眠検出システム WO2022113275A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/044237 WO2022113275A1 (ja) 2020-11-27 2020-11-27 睡眠検出装置及び睡眠検出システム
JP2022564938A JPWO2022113275A1 (ja) 2020-11-27 2020-11-27
DE112020007803.5T DE112020007803T5 (de) 2020-11-27 2020-11-27 Schlafdetektionsvorrichtung und Schlafdetektionsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044237 WO2022113275A1 (ja) 2020-11-27 2020-11-27 睡眠検出装置及び睡眠検出システム

Publications (1)

Publication Number Publication Date
WO2022113275A1 true WO2022113275A1 (ja) 2022-06-02

Family

ID=81755449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044237 WO2022113275A1 (ja) 2020-11-27 2020-11-27 睡眠検出装置及び睡眠検出システム

Country Status (3)

Country Link
JP (1) JPWO2022113275A1 (ja)
DE (1) DE112020007803T5 (ja)
WO (1) WO2022113275A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116077798A (zh) * 2023-04-10 2023-05-09 南京信息工程大学 一种基于语音诱导与计算机视觉相结合的催眠方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757172A (ja) * 1993-08-16 1995-03-03 Mitsubishi Electric Corp 運転者異常事態発生警報装置
JP2010198313A (ja) * 2009-02-25 2010-09-09 Denso Corp 開眼度特定装置
JP2014092965A (ja) * 2012-11-05 2014-05-19 Denso Corp 乗員監視装置
JP2016539446A (ja) * 2013-10-29 2016-12-15 キム,ジェ−チョル 動作と、顔面と、目及び口形状の認知を通じた2段階に亘っての居眠り運転の防止装置
JP2017049636A (ja) * 2015-08-31 2017-03-09 マツダ株式会社 運転者状態検出装置
JP2019148491A (ja) * 2018-02-27 2019-09-05 オムロン株式会社 乗員監視装置
JP2020086907A (ja) * 2018-11-26 2020-06-04 トヨタ自動車株式会社 漫然運転判定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4259585B2 (ja) 2007-03-08 2009-04-30 株式会社デンソー 眠気判定装置,プログラムおよび眠気判定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757172A (ja) * 1993-08-16 1995-03-03 Mitsubishi Electric Corp 運転者異常事態発生警報装置
JP2010198313A (ja) * 2009-02-25 2010-09-09 Denso Corp 開眼度特定装置
JP2014092965A (ja) * 2012-11-05 2014-05-19 Denso Corp 乗員監視装置
JP2016539446A (ja) * 2013-10-29 2016-12-15 キム,ジェ−チョル 動作と、顔面と、目及び口形状の認知を通じた2段階に亘っての居眠り運転の防止装置
JP2017049636A (ja) * 2015-08-31 2017-03-09 マツダ株式会社 運転者状態検出装置
JP2019148491A (ja) * 2018-02-27 2019-09-05 オムロン株式会社 乗員監視装置
JP2020086907A (ja) * 2018-11-26 2020-06-04 トヨタ自動車株式会社 漫然運転判定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116077798A (zh) * 2023-04-10 2023-05-09 南京信息工程大学 一种基于语音诱导与计算机视觉相结合的催眠方法

Also Published As

Publication number Publication date
DE112020007803T5 (de) 2023-11-16
JPWO2022113275A1 (ja) 2022-06-02

Similar Documents

Publication Publication Date Title
CN104573623B (zh) 人脸检测装置、方法
JP6573193B2 (ja) 判定装置、判定方法、および判定プログラム
JP4915413B2 (ja) 検出装置および方法、並びに、プログラム
JP6973928B2 (ja) 瞼開閉判定装置および眠気検知装置
JP7369184B2 (ja) 運転者注意状態推定
US11453401B2 (en) Closed eye determination device
JP4776581B2 (ja) 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム
US20240096116A1 (en) Devices and methods for detecting drowsiness of drivers of vehicles
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
US11430231B2 (en) Emotion estimation device and emotion estimation method
JP7024332B2 (ja) ドライバモニタシステム
US11195108B2 (en) Abnormality detection device and abnormality detection method for a user
US11161470B2 (en) Occupant observation device
JP7046748B2 (ja) 運転者状態判定装置および運転者状態判定方法
JP2011125620A (ja) 生体状態検出装置
JP6594595B2 (ja) 運転不能状態判定装置および運転不能状態判定方法
JP6689470B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
JP7325687B2 (ja) 眠気推定装置及び眠気推定システム
JP7420277B2 (ja) 運転状態判定装置、方法、及びプログラム
WO2023017595A1 (ja) 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム
JP7374386B2 (ja) 状態判定装置および状態判定方法
JP2022161318A (ja) 顔認識装置
WO2022190413A1 (ja) 目開閉判定装置および目開閉判定方法
JP2019079285A (ja) 安全運転促進装置及び安全運転促進方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20963539

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022564938

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112020007803

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20963539

Country of ref document: EP

Kind code of ref document: A1