WO2024047856A1 - 眠気推定装置および眠気推定方法 - Google Patents

眠気推定装置および眠気推定方法 Download PDF

Info

Publication number
WO2024047856A1
WO2024047856A1 PCT/JP2022/033046 JP2022033046W WO2024047856A1 WO 2024047856 A1 WO2024047856 A1 WO 2024047856A1 JP 2022033046 W JP2022033046 W JP 2022033046W WO 2024047856 A1 WO2024047856 A1 WO 2024047856A1
Authority
WO
WIPO (PCT)
Prior art keywords
drowsiness
reliability
state
overdetection
factor
Prior art date
Application number
PCT/JP2022/033046
Other languages
English (en)
French (fr)
Inventor
有実子 岡本
奈津季 田原
雄大 中村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/033046 priority Critical patent/WO2024047856A1/ja
Publication of WO2024047856A1 publication Critical patent/WO2024047856A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to drowsiness estimation technology.
  • a drowsiness determination function is one of the functions of a passenger monitoring system (hereinafter sometimes simply referred to as "PMS") that monitors vehicle drivers and other occupants.
  • PMS passenger monitoring system
  • the drowsiness determination function is a function that estimates the drowsiness level of the occupant by capturing information about the occupant using a sensor such as a camera. Traffic accidents can be prevented by issuing a warning to alert the occupants based on the estimation results.
  • drowsiness features features such as the occupant's eyes closed or yawning are quantified as feature quantities (hereinafter referred to as "drowsiness features"), and changes in the quantified drowsiness features are comprehensively judged. Based on this, the presence or absence of drowsiness and the degree of drowsiness are determined.
  • drowsiness features feature quantities
  • changes in the quantified drowsiness features are comprehensively judged. Based on this, the presence or absence of drowsiness and the degree of drowsiness are determined.
  • Patent Document 1 In order to resolve the difficulties associated with such rule-based models, there is a technique that uses a machine learning model to determine drowsiness, such as the technique disclosed in Patent Document 1, for example. Further, paragraph 0020 of Patent Document 1 states that a machine learning model and a rule-based model may be combined.
  • the numerical value of the drowsiness feature may change in the same way when there is drowsiness and when there is no drowsiness. Therefore, it is difficult to distinguish between these cases using a technique that simply uses a machine learning model to determine drowsiness.
  • Patent Document 1 states that a machine learning model and a rule-based model may be combined, there is no mention of a specific method of combination. Therefore, the problem with the prior art is that it is not clear how to estimate drowsiness by combining a machine learning model and a rule-based model.
  • the present disclosure has been made to solve such problems, and aims to provide a drowsiness estimation technology that combines a machine learning model and a rule-based model to estimate the drowsiness of a vehicle occupant.
  • a drowsiness estimation device calculates a drowsiness score indicating the degree of drowsiness of a vehicle occupant using a trained machine learning model based on an image of the face of the vehicle occupant.
  • a drowsiness score calculation unit determines whether an overdetection factor that affects the calculation of the drowsiness score exists, and when it is determined that the overdetection factor exists, the overdetection factor exists.
  • An over-detection factor index indicating that the over-detection factor index and the reliability of the over-detection factor index are calculated on a rule basis, the calculated drowsiness score, the calculated over-detection factor index, and the calculation thereof.
  • the drowsiness of the occupant is determined to be one of a plurality of drowsiness states including a first drowsiness state with a low degree of drowsiness and a second drowsiness state with a degree of drowsiness higher than the first drowsiness state. and a state transition determination unit that determines which of the sleepiness states the user is in.
  • the drowsiness estimation device it is possible to estimate the drowsiness of a vehicle occupant by combining a machine learning model and a rule-based model.
  • FIG. 2 is a block diagram showing a configuration example of a drowsiness estimation device.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of a drowsiness estimation device.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of a drowsiness estimation device.
  • 3 is a flowchart showing a schematic operation of the drowsiness estimation device. It is a flowchart which shows the operation of the overdetection factor reliability calculation part of a drowsiness estimation device.
  • FIG. 3 is a diagram for explaining a method of calculating a rate of opening both eyelids. It is a flowchart which shows the operation of the state transition judgment part of a drowsiness estimating device.
  • FIG. 3 is a state transition diagram between a plurality of drowsy states.
  • FIG. 1 is a block diagram illustrating a configuration example of a drowsiness estimation device 100 according to Embodiment 1 of the present disclosure.
  • a vehicle 1 includes an imaging device 2 and a drowsiness estimation device 100.
  • the imaging device 2 is a device for imaging the interior of the vehicle 1.
  • the imaging device 2 is installed, for example, in the front part of the vehicle interior of the vehicle 1, and images an area including the face of a passenger such as a driver of the vehicle 1 from the front.
  • the imaging device 2 includes one visible light camera, multiple visible light cameras, one infrared camera, or multiple infrared cameras.
  • a light source (not shown) is provided that irradiates an area including the driver's face with infrared rays for imaging.
  • This light source is composed of, for example, an LED (Light Emitting Diode).
  • the drowsiness estimation device 100 includes a face information detection section 10 and a drowsiness determination section 20. Further, the face information detection section 10 includes a video acquisition section 11 , a face detection section 12 , and a facial parts detection section 13 .
  • the drowsiness determination unit 20 also includes a feature value calculation unit 14 , a drowsiness score calculation unit 15 , an overdetection factor reliability calculation unit 16 , and a state transition determination unit 17 .
  • the drowsiness estimating device 100 also includes a control section (hereinafter simply referred to as "control section") not shown. In FIG. 1, illustration of the control unit is omitted in order to show the general flow of data.
  • the control unit controls the operation of each functional unit of the imaging device 2 and the drowsiness estimation device 100. Specifically, the control unit instructs the imaging device 2 to capture an image of the driver using the in-vehicle camera. The control unit also instructs the video acquisition unit 11, the face detection unit 12, the facial parts detection unit 13, the feature amount calculation unit 14, the drowsiness score calculation unit 15, the overdetection factor reliability calculation unit 16, and the state transition determination unit 17. control the operation timing and the exchange of information.
  • the video acquisition unit 11 acquires a facial image from a video (imaging information) including a plurality of frame images captured by the imaging device 2, and outputs the acquired facial image to the control unit.
  • a face image means an image in which a partial region including a face is extracted from the entire region of each frame image.
  • the face detection unit 12 receives the face image acquired by the video acquisition unit 11 from the control unit, detects a face from the face image, and outputs data of the detected face to the control unit as a face detection result.
  • the face detection unit 12 is a classifier using a general algorithm, for example, a Haar-Like detector combined with Adaboost or Casecade.
  • the facial parts detection unit 13 receives the face detection result outputted by the face detection unit 12 from the control unit, detects facial parts such as eyes or mouth from the face data included in the face detection result, and detects the detected facial parts. It is output to the control unit as a facial parts detection result. Facial parts can be detected using general image processing techniques, for example, by detecting edges using a differential filter.
  • the facial parts detection unit 13 may calculate the degree of opening of the facial parts from the shape of the detected facial parts, and may include information indicating the degree of opening of the facial parts in the facial parts detection result and output it.
  • the degree of eye opening may be calculated as information indicating the degree of opening of facial parts.
  • the degree of eye opening is determined by detecting the position of the inner corner of the eye, the position of the outer corner of the eye, and the position of the highest point of the upper eyelid.
  • the flatness of the eye can be determined by dividing by the distance, and the value obtained by dividing the flatness by a predetermined reference value can be calculated.
  • the facial parts detection unit 13 may calculate the degree of opening of the mouth as information indicating the degree of opening of the mouth.
  • the facial parts detection unit 13 may calculate the reliability of the degree of eye opening and include information indicating the reliability of the calculated degree of eye opening in the facial parts detection result and output it.
  • the reliability of the degree of eye opening indicates whether the degree of eye opening can be stably measured.
  • the facial parts detection unit 13 is configured to acquire both eyes of the passenger from the face detection result, and if only one eye of the passenger can be acquired, it is determined that there is a landscape reflection.
  • the reliability of the degree of eye opening is also set low when the driver turns his or her head to the side (when the Yaw angle of the face is large). The reliability of the degree of eye opening may be calculated by taking into consideration a plurality of indicators such as the presence or absence of scenery reflection and the Yaw angle of the face.
  • the feature quantity calculation unit 14 receives the facial parts detection results from the control unit, calculates the drowsiness feature quantity representing a sign of drowsiness appearing in the facial part detection results, and outputs the calculated drowsiness feature quantity to the control unit.
  • Examples of the drowsiness feature amount include the eye-closed time ratio, which captures the increase in the driver's blinks due to drowsiness, and the number of yawns, which captures the yawning due to drowsiness.
  • the eye-closed time ratio is calculated by calculating the eye-closed time ratio in a certain period of time. Eye closure means a state in which the distance between the upper and lower eyelids is less than or equal to a predetermined threshold.
  • the number of yawns is calculated by counting the number of yawns in a certain period of time.
  • Yawning refers to a state in which the mouth remains open for a predetermined threshold or more for a predetermined period of time. Distinguish between cases where the mouth is open due to conversation and cases where the mouth is open due to yawning by determining whether the mouth remains open for more than a predetermined threshold for a predetermined period of time. be able to.
  • the feature amount calculation unit 14 may calculate only one drowsiness feature amount, such as only the eye-closed time ratio, or may calculate a plurality of drowsiness feature amounts.
  • the drowsiness score calculation unit 15 receives the value of the drowsiness feature amount from the control unit, calculates the drowsiness score, and outputs the calculated drowsiness score to the control unit. Calculation of the drowsiness score is performed using a trained machine learning model that has learned the relationship between the drowsiness feature amount and the drowsiness score using a machine learning model such as a support vector machine (SVM) or a random forest. That is, the drowsiness score calculation unit 15 calculates the drowsiness score by inputting one or more feature quantities calculated by the feature quantity calculation unit 14 into the learned model and obtaining the drowsiness score from the learned model.
  • the method of outputting the sleepiness score may be a discrete value divided into multiple stages, or a continuous value such as 0 to 1, for example.
  • the overdetection factor reliability calculation unit 16 receives the facial parts detection results from the control unit, determines whether or not there is an overdetection factor based on the facial parts detection results, and if it is determined that there is an overdetection factor, the overdetection factor is calculated.
  • the reliability of the overdetection factor index indicating the presence of the detection factor is further calculated.
  • the reliability includes, for example, a first reliability with a low reliability and a second reliability with a higher reliability than the first reliability, and the overdetection factor reliability calculation unit 16 calculates the overdetection factor index.
  • the first reliability or the second reliability is calculated as the reliability of.
  • the reliability may be further divided.
  • the overdetection factor reliability calculation unit 16 outputs to the control unit an overdetection factor index indicating that an overdetection factor exists, and the reliability of the overdetection factor index indicating the probability that the overdetection factor exists.
  • the over-detection factor index means an index that indicates whether a factor that can lead to over-detection is occurring. Overdetection means that the driver is erroneously determined to be drowsy even though the driver does not actually feel drowsy. Overdetection is a concept that is distinguished from non-detection, and non-detection means that the driver is mistakenly determined to be not drowsy, even though the driver actually feels drowsy. Examples of such overdetection factor indicators include, for example, a downward gaze indicator that indicates that the driver's line of sight is directed downward, and a conversation indicator that indicates that the driver is having a conversation with a fellow passenger.
  • the downward gaze index by distinguishing between closed eyes and downward gaze based on the distance between the upper and lower eyelids, it is possible to determine whether it is downward gaze. That is, since the distance between the upper and lower eyelids is generally longer when looking downward than when the eyes are closed, it is possible to distinguish between closed eyes and downward looking based on the distance between the upper and lower eyelids.
  • the conversation index openings where the upper and lower lips are equal to or greater than a predetermined threshold and mouth closings where the upper and lower lips are less than the threshold are detected, and the speed of mouth opening and closing movements is calculated.
  • the speed of opening and closing movements is faster in speaking than in yawning, so yawning and speaking can be distinguished based on the speed of opening and closing movements.
  • the reliability of the overdetection factor index is a value that represents the certainty of the overdetection factor index, that is, the probability that the overdetection factor exists.
  • the reliability of the downward-looking index decreases when there is a possibility that the downward-looking index cannot be correctly determined. For example, the time series variance of the coordinates of the upper and lower eyelids is calculated, and if the value is greater than or equal to a threshold value, it is determined that the coordinates of the upper and lower eyelids cannot be stably detected, and the reliability is determined to be low. Conversely, if it is less than the threshold, it is determined that the reliability is high.
  • the reliability of the downward vision index may be determined using the reliability of the degree of eye opening received as the face detection result and a preset threshold.
  • a predetermined threshold if the time-series variance of the speed of opening and closing movements is greater than or equal to a predetermined threshold, the reliability is determined to be low, and if it is less than the threshold, the reliability is determined to be high. It's fine.
  • the state transition determining unit 17 receives the drowsiness score, the over-detection factor index, and the reliability of the over-detection factor index from the control unit, determines the drowsiness state of the driver, and outputs the determined drowsiness state.
  • the over-detection factor index and the reliability of the over-detection factor index will not be output if they do not exist for the current frame, so in such a case, the state transition determination unit 17 will not output the over-detection factor index Can not accept.
  • the state transition determination unit 17 may indicate current drowsiness. maintain the condition. Further, if the drowsiness score is smaller than the drowsiness lowering threshold, a transition is made to a weaker drowsiness state, and the drowsiness state after the transition is output. Note that the drowsiness lowering threshold is a threshold for determining a transition from the current drowsiness state to a weaker drowsiness state.
  • the state transition determination unit 17 checks whether there is an overdetection factor index, and if the result of the check is that there is no overdetection factor, the drowsiness state transitions according to the drowsiness score. It's okay.
  • the drowsiness increase threshold is a threshold for determining a transition from the current drowsiness state to a stronger drowsiness state.
  • the state transition determination unit 17 determines that the increase in the drowsiness score is due to the overdetection factor rather than an increase in drowsiness. It is not necessary to determine that there is a drowsiness state and not change the drowsiness state. That is, the current sleepy state may be maintained. As a result of checking the over-detection factor index, if there is an over-detection factor and the reliability of the over-detection factor index is low, the state transition determination unit 17 may make a correction to make the transition of the drowsiness state more difficult.
  • the correction may be made by increasing the threshold for transitioning from a first drowsiness state where the degree of drowsiness is low to a second drowsiness state where the degree of drowsiness is higher than the first drowsiness state.
  • the correction may be performed by transitioning to an intermediate state between the first drowsiness state and the second drowsiness state.
  • Each functional unit of the drowsiness estimation device 100 is realized by a processing circuit.
  • a processing circuit even if it is a dedicated processing circuit 100a as shown in FIG. 2A, executes a program stored in a memory 100c as shown in FIG. 2B. It may be the processor 100b.
  • the dedicated processing circuit 100a is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an application specific integrated circuit (ASIC). , FPGA (field-programmable gate array), or a combination of these.
  • Each functional unit may be realized by a plurality of separate processing circuits, or each functional unit may be realized by a single processing circuit.
  • each functional unit is realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are written as programs and stored in memory 100c.
  • the processor 100b implements each functional unit by reading and executing programs stored in memory. Examples of the memory 100c include non-volatile or Includes volatile semiconductor memory, magnetic disks, flexible disks, optical disks, compact disks, minidisks, and DVDs.
  • the processing circuit can implement each functional unit using hardware, software, firmware, or a combination thereof.
  • the drowsiness score calculation unit 15 calculates a drowsiness score indicating the degree of drowsiness of the driver using a trained machine learning model based on an image of the driver's face.
  • the drowsiness score calculation unit 15 calculates the drowsiness extracted from the driver's face using a trained machine learning model that has learned the relationship between the drowsiness feature extracted from the image of the face and the drowsiness score. Input the features into a machine learning model to obtain the driver's drowsiness score.
  • the overdetection factor reliability calculation unit 16 determines whether there is an overdetection factor that affects the calculation of the drowsiness score based on the image of the driver's face, and determines whether the overdetection factor exists. When it is determined that this is the case, the reliability of the overdetection factor index is calculated. These determination and calculation processes are performed on a rule basis. As an example, the over-detection factor reliability calculation unit 16 determines whether an over-detection factor exists based on the driver's facial part detection results, and if the over-detection factor exists, the reliability of the over-detection factor index is Calculate. For example, it is determined whether downward gaze exists based on the distance between the upper and lower eyelids, and in the case of downward gaze, the reliability of the downward gaze index is calculated from the time-series variance of the coordinates of the upper and lower eyelids.
  • step ST11 and step ST12 may be performed either first or at the same time.
  • step ST13 the state transition determining unit 17 determines the driver's drowsiness state based on the calculated drowsiness score, the calculated over-detection factor index, and the reliability of the calculated over-detection factor index.
  • the overdetection factor reliability calculation unit 16 will be explained in more detail using the flowchart in FIG. 4. Although the flowchart of FIG. 4 is described based on the case where the overdetection factor is downward gaze, the process may be performed in the same flow as FIG. 4 in the case of other overdetection factors such as conversation. As a premise at the start of the flowchart of FIG. 4, it is assumed that the overdetection factor reliability calculation unit 16 has received information regarding the open/closed state of the eyes, such as the degree of eye opening, as a facial part detection result.
  • the overdetection factor reliability calculation unit 16 analyzes the state of the eyes and determines whether downward gaze is present or not according to a plurality of states of the eyes. In addition, when the overdetection factor reliability calculation unit 16 determines that downward gaze is present, the overdetection factor reliability calculation unit 16 further determines the reliability of the determination that downward gaze is present. A more detailed explanation will be given below.
  • step ST101 it is confirmed whether the eyes are closed. Whether or not the eyes are closed can be confirmed, for example, by determining whether the degree of eye opening received as the facial parts detection result is less than or equal to a predetermined threshold. If "NO", it is determined in step ST111 that there is no downward view. That is, if the eye state is not closed, in other words, if the eye state is open, the process proceeds to step ST111, and it is determined in step ST111 that there is no downward gaze. On the other hand, if "YES” in step ST101, that is, if it is determined that the eyes are closed, the process proceeds to steps ST102 to ST104, in which both eyelids are opened, which is used to determine whether the eyes are truly closed or whether the eyes are looking downward. Calculate the rate. Note that if the cause of overdetection is conversation, open eyes may be determined instead of closed eyes.
  • step ST102 curve fitting is performed for the upper and lower eyelids.
  • FIG. 5 shows how curve fitting is performed for one human eye.
  • both an upper eyelid curve and a lower eyelid curve connecting the inner corner coordinates and the outer corner coordinates are calculated.
  • the apex coordinates of the upper eyelid are calculated from the calculated upper eyelid curve
  • the apex coordinates of the lower eyelid are calculated from the calculated lower eyelid curve.
  • step ST103 the distance between the eyelids shown in FIG. 5 is measured based on the vertex coordinates of the upper and lower eyelids calculated in step ST102.
  • the inter-eyelid distance is the difference between the vertex coordinates of the upper eyelid and the vertex coordinates of the lower eyelid.
  • “when the eyes are closed” in the denominator means a case where it is determined that the eyes are closed using the above-mentioned degree of eye opening.
  • “Distance between eyelids when eyes are closed” is the distance between both eyelids in such a case, and is a reference value measured for each driver. This reference value is calculated by averaging the distance between the eyelids when the eyes are closed multiple times over a certain period of time.
  • step ST106 it is determined whether the eyelid opening rate is greater than or equal to a preset threshold.
  • a preset threshold the state of the eyes determined to be closed is distinguished from a state in which the eyes are truly closed and a state in which the eyes are determined to be closed despite downward gaze. Note that when the cause of overdetection is conversation, instead of the eyelid opening rate, it may be determined whether the speed of opening and closing movements is equal to or higher than a threshold value.
  • step ST106 determines whether the eyelid opening rate is less than the threshold. If “NO” in step ST106, that is, if the eyelid opening rate is less than the threshold, it is considered that the driver really closes his eyes. Therefore, in such a case, it is determined in step ST111 that there is no downward view.
  • step ST106 determines whether the eyelid opening rate is equal to or higher than the threshold value. If “YES” in step ST106, that is, if the eyelid opening rate is equal to or higher than the threshold value, it is considered that the driver is not closing his eyes but looking down. Therefore, in such a case, it is determined that downward viewing is present (steps ST109 and ST110). That is, a flag for the downward view indicator is set.
  • the overdetection factor reliability calculation unit 16 may further determine the reliability of the determination that downward gaze is present, that is, the reliability of the downward gaze index (steps ST107 to ST108).
  • step ST107 time-series variance of the coordinates of the upper and lower eyelids for determining the reliability of the downward vision index is calculated. If the time-series variance is equal to or greater than a predetermined threshold (“YES” in step ST108), it is considered that the result of upper and lower eyelid curve fitting in step ST102 is unstable for some reason, so step ST109 It is determined that downward gaze is present (low reliability). In other words, although downward gaze is a factor in overdetection, it is determined that the reliability is low. On the other hand, if the time-series variance is less than a predetermined threshold (“NO” in step ST108), it is determined in step ST110 that there is downward looking (high reliability).
  • the variance of the coordinates of the upper and lower eyelids is used as the reliability, but the time-series average value of the reliability of the degree of eye opening received as the face detection result may be taken and used as the reliability of the downward vision index.
  • step ST113 it is determined whether the drowsiness score output from the drowsiness score calculation unit 15 is equal to or higher than the drowsiness increase threshold for transitioning from the current drowsiness state to a drowsiness state with stronger drowsiness.
  • the drowsiness state is divided into multiple stages, and a threshold value for the drowsiness score for transition between each state is determined in advance.
  • the sleepiness score p is a sleepiness state with stronger sleepiness than "sleepiness state 2".
  • step ST113 determines whether or not the drowsiness increase threshold T23 for transitioning to "drowsiness state 3" is greater than or equal to. If the current sleepiness state is "Sleepiness State 1,” whether the sleepiness score p is equal to or higher than the sleepiness increase threshold T12 for transitioning from "Drowsiness State 1" to "Sleepiness State 2,” which is a sleepiness state with stronger sleepiness. Determine. If the determination result in step ST113 is "NO”, the process proceeds to step ST118, and a state transition is determined based on the drowsiness score. On the other hand, if "YES”, the process proceeds to step ST114.
  • step ST114 the overdetection factor index that is the output of the overdetection factor reliability calculation unit 16 is checked to determine whether there is an overdetection factor. If “NO”, the process proceeds to step ST118, and a state transition is determined based on the drowsiness score. If "YES”, the process proceeds to step ST115.
  • step ST115 the reliability that is the output of the overdetection factor reliability calculation unit 16 is checked, and it is determined whether the reliability is high. If "YES”, it is determined in step ST116 that there is no state transition. In other words, when the reliability of the overdetection factor is high, for example, when the reliability of downward gaze is high, the evaluation of the driver's drowsiness is not performed between multiple drowsiness states, but is performed on the previous frame. maintain a judgment regarding the sleepiness state level.
  • correction is performed in step ST117 so that the sleepiness state is less likely to increase.
  • the correction method may be a method of adjusting a transition threshold for the drowsiness score, or a method of making the transition to a state that is the average of the destination drowsiness state based on the drowsiness score and the current drowsiness state.
  • the drowsiness score calculated using the machine learning model based on the change in the feature amount is corrected using the overdetection factor index and its reliability determined using the rule-based method. Therefore, even in cases where it is difficult to distinguish between drowsiness and non-drowsiness using only a machine learning model, it is possible to distinguish between the cases using a rule-based method.
  • the drowsiness level can be estimated more accurately than when simply using the overdetection factor index.
  • the drowsiness estimation device 100 determines the transition of a drowsiness state using a drowsiness score based on a machine learning model, an overdetection factor index based on a rule, and its reliability.
  • the drowsiness state may increase depending on the determination result for a certain frame, and the drowsiness state may immediately decrease depending on the determination result for the next frame.
  • actual sleepiness does not decrease immediately after increasing.
  • the transition thresholds between different levels of drowsiness may be set to different values.
  • the transition threshold for determining the transition from the first drowsiness state where the level of drowsiness is stronger to the second drowsiness state where the level of drowsiness is weaker is set as the transition threshold for determining the transition from the second drowsiness state to the first drowsiness state. It may be set lower than the transition threshold for determining transition to the state.
  • sleepiness states with different sleepiness levels are represented in three stages.
  • the relationship between these three sleepiness states is ⁇ Sleepiness State 1'', which is the sleepiness state with the least sleepiness level, ⁇ Sleepiness State 3'', which is the sleepiness state with the strongest sleepiness level, and ⁇ Sleepiness State 3'', which is the sleepiness state with the strongest sleepiness level, and ⁇ Sleepiness State 3'', which is the sleepiness state with the strongest sleepiness level.
  • the user is in a "sleepy state 2" which is an intermediate sleepy state.
  • the drowsiness descending threshold T21 for determining the transition from drowsiness state 2 to drowsiness state 1 is lower by ⁇ than the drowsiness increase threshold T12 for determining the transition from drowsiness state 1 to drowsiness state 2.
  • the drowsiness decrease threshold T32 from drowsiness state 3 to drowsiness state 2 is set lower than the drowsiness increase threshold T23 from drowsiness state 2 to drowsiness state 3 by ⁇ .
  • the state transition determination unit 17 determines the transition of the sleepy state based on the state transition threshold set as described above. That is, in step ST118 in FIG. 6, the state transition determination section 17 determines the drowsiness state transition using the drowsiness score received from the drowsiness score calculation section 15, the drowsiness increase threshold, and the drowsiness decrease threshold.
  • the drowsiness estimation device (100) of Appendix 1 calculates a drowsiness score indicating the degree of drowsiness of the vehicle occupant using a trained machine learning model based on an image of the face of the vehicle occupant. (15), based on the image, determining whether there is an overdetection factor that affects the calculation of the drowsiness score, and when it is determined that the overdetection factor exists, the overdetection factor exists.
  • An over-detection factor reliability calculation unit (16) that calculates an over-detection factor index indicating that the over-detection factor index and the reliability of the over-detection factor index on a rule basis, the calculated drowsiness score, the calculated over-detection factor index, Based on the reliability of the calculated overdetection factor index, the drowsiness of the occupant is determined to be a first drowsiness state in which the degree of drowsiness is low and a second drowsiness state in which the degree of drowsiness is higher than the first drowsiness state. and a state transition determination unit (17) that determines which of a plurality of drowsiness states including drowsiness states.
  • the drowsiness estimating device is the drowsiness estimating device described in appendix 1, and the reliability of the overdetection factor index is higher than the first reliability, which is lower than the first reliability. and a second reliability with a high reliability, and the state transition determination unit determines whether the calculated reliability is higher than the second reliability when the calculated overdetection factor index exists. In this case, the determination regarding the previous drowsiness state is maintained without transitioning the determination regarding the drowsiness state among the plurality of drowsiness states.
  • the drowsiness estimation device is the drowsiness estimation device described in Supplementary note 1 or 2, in which the state transition determination unit is configured to detect the calculated overdetection factor index when the calculated overdetection factor index exists.
  • the reliability is the first reliability, correction is made so that the transition from the first drowsiness state to the second drowsiness state becomes more difficult.
  • the drowsiness estimating device is the drowsiness estimating device described in appendix 3, in which the state transition determination unit detects the calculated reliability when the calculated overdetection factor index exists. is the first reliability, the correction is performed by increasing the threshold for transitioning from the first drowsiness state to the second drowsiness state.
  • the drowsiness estimating device is the drowsiness estimating device described in appendix 3, in which the state transition determination unit determines the calculated reliability when the calculated overdetection factor index exists.
  • the correction is performed by transitioning to an intermediate state between the first drowsiness state and the second drowsiness state.
  • the drowsiness estimating device is the drowsiness estimating device described in appendix 2, in which the overdetection factor is the downward gaze of the occupant, and the overdetection factor reliability calculation unit is configured to The reliability of the overdetection factor index is calculated when the rate of eyelid opening of both eyelids is equal to or higher than a predetermined threshold value.
  • the drowsiness estimating device is the drowsiness estimating device described in appendix 6, in which the overdetection factor reliability calculation unit calculates the method of detecting drowsiness when the time-series variance of the vertex coordinates of the upper and lower eyelids is equal to or greater than a predetermined threshold.
  • the reliability of the overdetection factor index is determined to be the first reliability, and when the time series variance of the vertex coordinates of the upper and lower eyelids is less than the predetermined threshold, the overdetection factor index is determined to be the first reliability.
  • the reliability of the index is determined to be the second reliability.
  • the drowsiness estimation device is the drowsiness estimation device described in appendix 6, in which the overdetection factor reliability calculation unit calculates the reliability of the overdetection factor index based on the reliability of the degree of eye opening. .
  • the drowsiness estimating device according to appendix 9 is the drowsiness estimating device described in appendix 2, wherein the overdetection factor is the conversation of the occupant, and the overdetection factor reliability calculation unit is the drowsiness estimation device according to appendix 2.
  • the reliability of the overdetection factor index is calculated when the speed of movement is equal to or higher than a predetermined threshold.
  • the drowsiness estimation device is the drowsiness estimation device described in appendix 9, in which the overdetection factor reliability calculation unit calculates that the time-series variance of the vertex coordinates of the upper and lower lips is equal to or greater than a predetermined threshold. In this case, it is determined that the reliability of the overdetection factor index is the first reliability, and when the time series variance of the vertex coordinates of the upper and lower lips is less than the predetermined threshold, the overdetection is performed. The reliability of the factor index is determined to be the second reliability.
  • the drowsiness estimation device is the drowsiness estimation device described in any one of appendices 1 to 10, and includes a feature amount calculation unit (14) that calculates a drowsiness feature amount representing a sign of drowsiness based on the image.
  • the trained machine learning model is a trained model that has learned the relationship between the drowsiness feature and the drowsiness score
  • the drowsiness score calculation unit uses the trained machine learning model to: A drowsiness score of the occupant is calculated from the calculated drowsiness feature amount.
  • the drowsiness estimation device is the drowsiness estimation device described in any one of appendices 1 to 11, and includes a threshold value for determining a transition from the first drowsiness state to the second drowsiness state.
  • the value of is set higher than the threshold value for determining the transition from the second drowsiness state to the first drowsiness state.
  • the drowsiness estimation method of appendix 13 is a drowsiness estimation method performed by a drowsiness estimation device including a drowsiness score calculation unit (15), an overdetection factor reliability calculation unit (16), and a state transition determination unit (17), a step (ST11) in which the drowsiness score calculation unit calculates a drowsiness score indicating the degree of drowsiness of the vehicle occupant using a trained machine learning model based on an image of the face of the vehicle occupant;
  • the detection factor reliability calculation unit determines whether there is an overdetection factor that affects the calculation of the drowsiness score based on the image, and when it is determined that the overdetection factor exists, the overdetection factor is determined.
  • the drowsiness estimation technology of the present disclosure can be used as a technology for realizing the drowsiness estimation function of PMS.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

眠気推定装置は、車両の乗員の顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いて前記乗員の眠気の度合いを示す眠気スコアを算出する眠気スコア算出部(15)と、前記画像に基づいて、前記眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、前記過検知要因が存在すると判定した場合に前記過検知要因が存在することを示す過検知要因指標およびその過検知要因指標の信頼度をルールベースで算出する過検知要因信頼度算出部(16)と、その算出された眠気スコア、その算出された過検知要因指標、およびその算出された過検知要因指標の信頼度に基づいて、前記乗員の眠気が、眠気度合いが低い第1の眠気状態と、前記第1の眠気状態よりも眠気度合いが高い第2の眠気状態を含む複数の眠気状態のうちのいずれの眠気状態であるかを判定する状態遷移判定部(17)と、を備える。

Description

眠気推定装置および眠気推定方法
 本開示は、眠気推定技術に関する。
 交通事故の原因の1つに、ドライバの眠気による運転操作誤りがある。そのような原因による交通事故を防止するため、車両のドライバ等の乗員を監視する乗員監視システム(Passenger Monitoring System;以下、単に「PMS」と称する場合がある。)の1機能として眠気判定機能が用いられることがある。眠気判定機能とは、カメラ等のセンサを用いて乗員の情報を捉えて乗員の眠気度合を推定する機能である。推定の結果に基づいて乗員の覚醒を促すための警告を行うことにより交通事故の発生が防止される。
 眠気判定機能を実現するために、乗員の閉眼またはあくび等の特徴を特徴量(以下、「眠気特徴量」という。)として数値化し、数値化された眠気特徴量の変化を総合的に判断して、眠気の有無および眠気の度合いが判定される。ただし、眠気が発生した際における眠気の眠気特徴量への現れ方は個人差が大きいため、どのような場合に眠気ありと判定するのかをルール化してルールベースモデルで眠気判定を行うことは難しい。
 このようなルールベースモデルに伴う難しさを解消するため、例えば、特許文献1に開示された技術のように、機械学習モデルを用いて眠気判定を行う技術がある。また、特許文献1の段落0020では、機械学習モデルとルールベースモデルを組み合わせてもよいとの記載がなされている。
特表2020-514861号公報
 眠気特徴量の数値は、眠気ありの場合と眠気なしの場合とで同様の変化をする場合がある。そのため、単に機械学習モデルを用いて眠気判定を行う技術によれば、これらの場合を識別することが困難である。上述のとおり、特許文献1には機械学習モデルとルールベースモデルを組み合わせてもよいとの記載がなされているものの、具体的な組み合わせ方法については言及がなされていない。したがって、従来技術には、機械学習モデルとルールベースモデルを組み合わせてどのように眠気推定を行うかが明らかでないという課題がある。
 本開示は、このような課題を解決するためになされたものであり、機械学習モデルとルールベースモデルを組み合わせて車両の乗員の眠気を推定する眠気推定技術を提供することを目的とする。
 本開示の実施形態の一側面による眠気推定装置は、車両の乗員の顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いて前記乗員の眠気の度合いを示す眠気スコアを算出する眠気スコア算出部と、前記画像に基づいて、前記眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、前記過検知要因が存在すると判定した場合に前記過検知要因が存在することを示す過検知要因指標およびその過検知要因指標の信頼度をルールベースで算出する過検知要因信頼度算出部と、その算出された眠気スコア、その算出された過検知要因指標、およびその算出された過検知要因指標の信頼度に基づいて、前記乗員の眠気が、眠気度合いが低い第1の眠気状態と、前記第1の眠気状態よりも眠気度合いが高い第2の眠気状態を含む複数の眠気状態のうちのいずれの眠気状態であるかを判定する状態遷移判定部と、を備える。
 本開示の実施形態による眠気推定装置によれば、機械学習モデルとルールベースモデルを組み合わせて車両の乗員の眠気を推定することができる。
眠気推定装置の構成例を示すブロック図である。 眠気推定装置のハードウェアの構成例を示す図である。 眠気推定装置のハードウェアの構成例を示す図である。 眠気推定装置の概略的な動作を示すフローチャートである。 眠気推定装置の過検知要因信頼度算出部の動作を示すフローチャートである。 両まぶた開眼率の算出方法を説明するための図である。 眠気推定装置の状態遷移判定部の動作を示すフローチャートである。 複数の眠気状態間の状態遷移図である。
 以下、添付の図面を参照して、本開示における種々の実施形態について詳細に説明する。なお、図面において同一または類似の符号を付された構成要素は、同一または類似の構成または機能を有するものであり、そのような構成要素についての重複する説明は省略する。
実施の形態1.
<構成>
 図1を参照して、本開示の実施の形態1による眠気推定装置について説明する。図1は、本開示の実施の形態1による眠気推定装置100の構成例を示すブロック図である。図1に示されているように、車両1は、撮像装置2と眠気推定装置100を備える。
(撮像装置)
 撮像装置2は、車両1の室内を撮像するための装置である。撮像装置2は、例えば車両1の車室内の前方部に設置され、車両1のドライバ等の乗員の顔を含む範囲を前方から撮像する。撮像装置2は、1個の可視光カメラ、複数個の可視光カメラ、1個の赤外線カメラまたは複数個の赤外線カメラによって構成されている。撮像装置2が赤外線カメラにより構成されている場合、ドライバの顔を含む範囲に対して撮像用の赤外線を照射する光源(不図示)が設けられている。この光源は、例えばLED(Light Emitting Diode)により構成されている。
(眠気推定装置)
 図1に示されているように、眠気推定装置100は、顔情報検出部10と眠気判定部20を備える。また、顔情報検出部10は、映像取得部11、顔検出部12、および顔パーツ検出部13を備える。また、眠気判定部20は、特徴量算出部14、眠気スコア算出部15、過検知要因信頼度算出部16、および状態遷移判定部17を備える。また、眠気推定装置100は不図示の制御部(以下、単に「制御部」と称する。)を備える。図1ではデータの大局的な流れを示すため、制御部の図示は省略している。制御部は、撮像装置2と、眠気推定装置100の各機能部の動作を制御する。具体的には、制御部は、撮像装置2に指示を出してドライバの映像を車内カメラで撮像する。また、制御部は映像取得部11、顔検出部12、顔パーツ検出部13、特徴量算出部14、眠気スコア算出部15、過検知要因信頼度算出部16、および状態遷移判定部17に指示を出して動作タイミングおよび情報の授受を制御する。
(映像取得部)
 映像取得部11は、撮像装置2が撮像した複数のフレーム画像を備える映像(撮像情報)から顔画像を取得し、取得した顔画像を制御部へ出力する。顔画像とは、各フレーム画像の全体の領域から顔を含む部分領域を抽出した画像を意味する。
(顔検出部)
 顔検出部12は、映像取得部11により取得された顔画像を制御部から受け取り、顔画像から顔を検出し、検出した顔のデータを顔検出結果として制御部へ出力する。顔検出部12は、例えば、Haar-Like検出器にAdaboostまたはCasecadeを組み合わせた、一般的なアルゴリズムによる識別器である。
(顔パーツ検出部)
 顔パーツ検出部13は、顔検出部12により出力された顔検出結果を制御部から受け取り、顔検出結果に含まれる顔のデータから目または口などの顔パーツを検出し、検出した顔パーツを顔パーツ検出結果として制御部へ出力する。顔パーツの検出は、一般的な画像処理技術を用いて検出することができ、例えば、微分フィルタを用いてエッジを検出することにより行う。
 また、顔パーツ検出部13は、検出した顔パーツの形状から、顔パーツの開き具合を算出し、顔パーツの開き具合を示す情報を顔パーツ検出結果に含めて出力してもよい。例えば、顔パーツの開き具合を示す情報として、開眼度を算出してもよい。開眼度とは、目頭の位置、目尻の位置および上まぶたの最高点の位置を検出し、目頭と目尻とを結ぶ直線と上まぶたの最高点との間の距離を、目頭と目尻の間の距離で除算することで目の扁平率を求め、扁平率を予め定められた基準値で除算して得られる値として算出することができる。なお、上まぶたの最高点とは、目尻と目頭を結ぶ直線から最も離れている上まぶたの点(頂点)である。同様にして、顔パーツ検出部13は、口の開き具合を示す情報として、開口度を算出してもよい。
 また、顔パーツ検出部13は、開眼度の信頼度を算出し、算出した開眼度の信頼を示す情報を顔パーツ検出結果に含めて出力してもよい。開眼度の信頼度は、開眼度が安定して計測できるか示す。開眼度を算出する際、例えばドライバが眼鏡を着用している場合、眼鏡のレンズに風景反射像が映り、その風景反射像が計測の邪魔をする。そのため、風景反射が有る場合は開眼度の信頼度を低く設定する。このような風景反射の検出を行うため、例えば、顔パーツ検出部13は、顔検出結果から乗員の両目を取得するように構成されており、乗員の片目しか取得できない場合に、風景反射があると判定する。一般的には乗員は車両の左右のドアの何れかの側に着座しているので、風景反射は眼鏡の両ガラスのうちの一方にのみ生じる場合が多い。したがって、乗員の片目しか取得できない場合、他方の目の前にある眼鏡のガラス上で風景反射が生じたと推定することができる。風景反射は、眼鏡に映り込んだ反射物の形状を検出する等の他の手法により推定してもよい。風景反射の他にも、ドライバが大きく顔を横向けているような場合(顔向きYaw角が大きい場合)も開眼度の信頼度を低く設定する。上記の風景反射の有無、顔向きYaw角等の複数の指標を考慮して、開眼度の信頼度を算出してもよい。
(特徴量算出部)
 特徴量算出部14は制御部から顔パーツ検出結果を受け取り、顔パーツ検出結果に現れる眠気の兆候を表す眠気特徴量を算出し、算出した眠気特徴量を制御部へ出力する。眠気特徴量の例には、眠気に伴ってドライバの瞬きが増えることをとらえる閉眼時間割合、および眠気によるあくびをとらえるあくび回数が含まれる。閉眼時間割合は、一定の時間における閉眼時間の割合を計算することにより算出する。閉眼とは上まぶたと下まぶたの距離があらかじめ定めた閾値以下の状態を意味する。あくび回数は、一定の時間におけるあくびの回数をカウントすることにより算出する。あくびとは、口があらかじめ定めた閾値以上開いた状態があらかじめ定めた時間以上継続している場合を意味する。口があらかじめ定めた閾値以上開いた状態があらかじめ定めた時間以上継続しているか否かを判定することにより、会話により口を開けている場合と、あくびにより口を開けている場合とを識別することができる。特徴量算出部14は、例えば閉眼時間割合だけというように1つの眠気特徴量だけを算出してもよいし、複数の眠気特徴量を算出してもよい。
(眠気スコア算出部)
 眠気スコア算出部15は制御部から眠気特徴量の値を受け取り、眠気スコアを算出して、算出した眠気スコアを制御部に出力する。眠気スコアの算出は、サポートベクターマシン(SVM)、ランダムフォレストなどの機械学習モデルを用いて眠気特徴量と眠気スコアの関係を学習した学習済みの機械学習モデルを用いて行う。すなわち、眠気スコア算出部15は、特徴量算出部14が算出した1つまたは複数の特徴量を学習済みモデルに入力し、学習済みモデルから眠気スコアを取得することにより、眠気スコアを算出する。眠気スコアの出力方式は複数段階に分けられた離散値でもよいし、例えば0~1のような連続値でもよい。
(過検知要因信頼度算出部)
 過検知要因信頼度算出部16は、制御部から顔パーツ検出結果を受け取り、顔パーツ検出結果に基づいて過検知要因の有無を判定し、過検知要因があると判定した場合には、その過検知要因が存在することを示す過検知要因指標の信頼度を更に算出する。信頼度は、例えば、信頼度が低い第1の信頼度と第1の信頼度よりも信頼度が高い第2の信頼度とを含み、過検知要因信頼度算出部16は、過検知要因指標の信頼度として第1の信頼度または第2の信頼度を算出する。信頼度はより細分化されていてもよい。過検知要因信頼度算出部16は、過検知要因が存在することを示す過検知要因指標と、過検知要因が存在する確からしさを表す過検知要因指標の信頼度とを制御部に出力する。
 ここで、過検知要因指標とは、過検知となりうる要因が発生しているかどうかを表す指標を意味する。過検知とは、実際にはドライバが眠気を感じていないにもかかわらず、ドライバは眠気ありと誤って判定することを意味する。過検知は未検知と区別される概念であり、未検知とは実際にはドライバが眠気を感じているにもかかわらず、ドライバは眠気なしと誤って判定することを意味する。このような過検知要因指標の例として、例えば、ドライバの視線が下方を向いていることを示す下方視指標、およびドライバが同乗者と会話をしていることを示す会話指標がある。
 下方視指標の例であれば、上下まぶたの距離に基づいて閉眼と下方視を区別することで、下方視であるかどうかを判定することができる。すなわち、一般に、上下まぶたの距離は閉眼の場合よりも下方視の場合の方が長いので、上下まぶたの距離に基づいて閉眼と下方視を区別できる。
 会話指標の例であれば、上唇と下唇があらかじめ定められた閾値以上である開口と、閾値未満の閉口とを検出し、開口および閉口による動作の速度を算出する。開口および閉口による動作の速度に基づいてあくびと会話を区別することで、会話であるかどうかを判定することができる。すなわち、一般に、開口および閉口による動作の速度は、あくびの場合よりも会話による場合の方が速いので、開口および閉口による動作の速度に基づいてあくびと会話を区別することができる。
 過検知要因指標の信頼度とは、過検知要因指標の確からしさ、即ち過検知要因が存在する確からしさを表す値のことである。下方視指標の例であれば、下方視指標の信頼度は、下方視指標が正しく判定できない可能性のある場合に低下する。例えば、上下まぶたの座標の時系列分散を算出し、その値が閾値以上であれば、上下まぶたの座標が安定して検出できていないと判断して、信頼度低と判定する。逆に、閾値未満であれば信頼度高と判定する。他にも、顔検出結果として受け取った開眼度の信頼度とあらかじめ設定した閾値を用いて、下方視指標の信頼度の高低を判定してもよい。会話指標の例であれば、開口および閉口による動作の速度の時系列の分散があらかじめ定められた閾値以上であれば信頼度は低いと判定し、閾値未満であれば信頼度は高いと判定してよい。
(状態遷移判定部)
 状態遷移判定部17は、制御部から、眠気スコア、過検知要因指標および過検知要因指標の信頼度を受け取ってドライバの眠気状態を判定し、判定した眠気状態を出力する。過検知要因指標および過検知要因指標の信頼度は現在のフレームについて存在しない場合は出力されないので、そのような場合には状態遷移判定部17は過検知要因指標も過検知要因指標の信頼度も受け取らない。
 一例として、状態遷移判定部17は、眠気スコアとあらかじめ定めた状態遷移閾値とに基づいて判断した結果、眠気スコアが現在の眠気状態に対して設けられた閾値の範囲内であれば現在の眠気状態を維持する。また、眠気スコアが眠気下降閾値よりも小さい場合、より弱い眠気状態に遷移させ、遷移後の眠気状態を出力する。なお、眠気下降閾値とは、現在の眠気状態から、より弱い眠気状態への遷移を判定するための閾値である。
 また、状態遷移判定部17は、眠気スコアが眠気上昇閾値以上である場合、過検知要因指標の有無を確認し、確認の結果、過検知要因なしであれば眠気スコアに従って眠気状態の遷移を行ってもよい。なお、眠気上昇閾値とは、現在の眠気状態から、より強い眠気状態への遷移を判定するための閾値である。過検知要因指標の確認の結果、過検知要因があり且つ過検知要因指標の信頼度が高いときは、状態遷移判定部17は、眠気スコアの上昇は眠気の上昇でなく過検知要因によるものであると判断して、眠気状態を遷移させなくてもよい。すなわち、現在の眠気状態を維持してもよい。過検知要因指標の確認の結果、過検知要因があり且つ過検知要因指標の信頼度が低いときは、状態遷移判定部17は、眠気状態の遷移がより難しくなるように補正を行ってもよい。例えば、眠気度合いが低い第1の眠気状態から第1の眠気状態よりも眠気度合いが高い第2の眠気状態へ遷移するための閾値をより高くすることにより補正を行ってもよい。別の例として、第1の眠気状態と第2の眠気状態の中間状態へ遷移させることにより補正を行ってもよい。
 次に、図2Aおよび図2Bを参照して、眠気推定装置100のハードウェアの構成例について説明する。眠気推定装置100の各機能部は、処理回路(processing circuitry)により実現される。処理回路(processing circuitry)は、図2Aに示されているような専用の処理回路(processing circuit)100aであっても、図2Bに示されているようなメモリ100cに格納されるプログラムを実行するプロセッサ100bであってもよい。
 処理回路(processing circuitry)が専用の処理回路100aである場合、専用の処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(application specific integrated circuit)、FPGA(field-programmable gate array)、またはこれらを組み合わせたものが該当する。各機能部を別個の複数の処理回路(processing circuits)で実現してもよいし、各機能部をまとめて単一の処理回路(processing circuit)で実現してもよい。
 処理回路(processing circuitry)がプロセッサ100bの場合、各機能部は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアおよびファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリに記憶されたプログラムを読み出して実行することにより、各機能部を実現する。メモリ100cの例には、RAM(random access memory)、ROM(read-only memory)、フラッシュメモリ、EPROM(erasable programmable read only memory)、EEPROM(electrically erasable programmable read-only memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDが含まれる。
 なお、複数の機能部の一部を専用のハードウェアで実現し、他の一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、各機能部を実現することができる。
<動作>
 次に、図3のフローチャートを用いて、本開示の実施の形態1に係る眠気推定装置100の概略的な動作について説明する。
 ステップST11において、眠気スコア算出部15は、ドライバの顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いてドライバの眠気の度合いを示す眠気スコアを算出する。一例として、眠気スコア算出部15は、顔部を撮影した画像から抽出された眠気特徴量と眠気スコアの関係を学習した学習済みの機械学習モデルを用いて、ドライバの顔部から抽出された眠気特徴量を機械学習モデルに入力して、ドライバの眠気スコアを取得する。
 ステップST12において、過検知要因信頼度算出部16は、ドライバの顔部を撮影した画像に基づいて、眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、過検知要因が存在すると判定した場合に過検知要因指標の信頼度を算出する。これらの判定および算出の処理は、ルールベースで行う。一例として、過検知要因信頼度算出部16は、ドライバの顔パーツ検出結果に基づいて、過検知要因が存在するかを判定し、過検知要因が存在する場合には過検知要因指標の信頼度を算出する。例えば、上下まぶたの距離に基づいて下方視が存在するかを判定し、下方視の場合には、上下まぶたの座標の時系列分散から下方視指標の信頼度を算出する。
 なお、ステップST11およびステップST12は、どちらが先であってもよいし、同時に行われてもよい。
 ステップST13おいて、状態遷移判定部17は、算出された眠気スコア、算出された過検知要因指標、および算出された過検知要因指標の信頼度に基づいて、ドライバの眠気状態を判定する。
 次に、図4のフローチャートを用いて、過検知要因信頼度算出部16の動作についてより詳細に説明をする。図4のフローチャートでは過検知要因が下方視である場合に即して記載しているが、会話等のほかの過検知要因の場合も図4と同様の流れで処理を行ってよい。図4のフローチャートの開始時の前提として、過検知要因信頼度算出部16は、顔パーツ検出結果として開眼度のような目の開閉状態に関する情報を受け取っていることとする。
 端的には、過検知要因信頼度算出部16は、目の状態を分析し、目の複数の状態に応じて、下方視の有無を判定する。また、過検知要因信頼度算出部16は、下方視があると判定した場合には、下方視ありとの判定の信頼度について更に判定する。以下、より詳しく説明をする。
 ステップST101において、目の状態が閉眼であるかを確認する。閉眼か否かの確認は、例えば、顔パーツ検出結果として受け付けた開眼度が、あらかじめ定められた閾値以下か否かを判定することにより行うことができる。“NO”の場合、ステップST111で下方視なしと判断する。すなわち、目の状態が閉眼でない場合、換言すれば、目の状態が開眼である場合、処理はステップST111へ進み、ステップST111で下方視なしと判定する。他方、ステップST101で“YES”の場合、すなわち閉眼であると判定した場合、処理はステップST102~ステップST104へ進み、本当に閉眼なのか、それとも下方視であるかを判定するために用いる両まぶた開眼率を算出する。なお、過検知要因が会話の場合、閉眼に代えて、開口を判定してもよい。
 ステップST102において、上下まぶたに対して曲線フィッティングを行う。この点について、図5を参照して説明をする。図5は人の片方の目に対して曲線フィッティングを行った様子を示している。図5に示されているように、目頭座標から目尻座標を結ぶ上まぶた曲線と下まぶた曲線の両曲線を算出する。また、算出した上まぶた曲線から上まぶたの頂点座標を算出し、算出した下まぶた曲線から下まぶたの頂点座標を算出する。
 ステップST103において、ステップST102で算出した上まぶたと下まぶたの頂点座標を基に、図5に表すまぶた間距離を計測する。まぶた間距離は、上まぶたの頂点座標と下まぶたの頂点座標との差分である。
 ステップST104において、両まぶた開眼率を計算する。両まぶた開眼率の計算は、(両まぶた開眼率)=(まぶた間距離)/(閉眼時のまぶた間距離)に従って行う。ここで、分母でいう「閉眼時」とは、上述の開眼度を用いて閉眼と判定された場合を意味する。「閉眼時のまぶた間距離」とはそのような場合における両まぶた間の距離であり、ドライバごとに計測した基準値である。この基準値は、一定時間に亘って行われた複数回の閉眼時のまぶた間距離を平均して算出する。この算出は、車両の走行開始前にドライバに閉眼を指示して閉眼を計測することにより行ってもよいし、車両の走行開始直後のドライバの閉眼を計測することにより行ってもよい。分母の「閉眼時のまぶた間距離」が0と算出された場合には、再度計測を行ってもよい。あるいは、分母が0にならないようにするために、「閉眼時のまぶた間距離」に微小値Δdを加算して、(両まぶた開眼率)=(まぶた間距離)/(閉眼時のまぶた間距離+Δd)により両まぶた開眼率の計算を行ってもよい。
 ステップST106において、両まぶた開眼率があらかじめ設定した閾値以上か否かを判定する。これにより、閉眼と判定された目の状態について、本当に閉眼の状態と、下方視であるにもかかわらず閉眼と判定された状態とを識別する。なお、過検知要因が会話の場合、両まぶた開眼率に代えて、開口および閉口による動作の速度が閾値以上か否かを判定してもよい。
 ステップST106において“NO”の場合、すなわち両まぶた開眼率が閾値未満の場合、ドライバは本当に目を閉じていると考えられる。そこで、このような場合については、ステップST111で下方視なしと判定する。
 ステップST106において“YES”の場合、すなわち両まぶた開眼率が閾値以上の場合、ドライバは目を閉じているのでなく下を向いていると考えられる。そこで、このような場合については下方視ありと判定する(ステップST109、ST110)。すなわち、下方視指標のフラグを立てる。
 下方視ありと判定する場合、過検知要因信頼度算出部16は、下方視ありとの判定の信頼度、即ち下方視指標の信頼度について更に判定してもよい(ステップST107~ST108)。
 ステップST107において、下方視指標の信頼度を判定するための上下まぶたの座標の時系列分散を算出する。時系列分散があらかじめ定められた閾値以上である場合(ステップST108で“YES”の場合)、ステップST102の上下まぶた曲線フィッティングの結果が何らかの要因で不安定になっていると考えられるため、ステップST109で下方視あり(信頼度低)と判定する。すなわち、過検知要因として下方視があるが、信頼度は低いと判定する。他方、時系列分散があらかじめ定められた閾値未満である場合(ステップST108で“NO”の場合)、ステップST110で下方視あり(信頼度高)と判定する。すなわち、過検知要因として下方視があり、信頼度は高いと判定する。なお、過検知要因が会話の場合、上下まぶたの座標の時系列分散に代えて開口および閉口による動作の速度の時系列分散を算出し、この動作の速度の時系列分散が閾値以上か否かを判定してもよい。
 ここでは信頼度として上下まぶたの座標の分散を用いたが、顔検出結果として受け取った開眼度の信頼度の時系列平均値をとり、下方視指標の信頼度としてもよい。例えば、開眼度の信頼度が、時刻tで高(=1)、時刻t+1で高(=1)、時刻t+2で低(=0)、時刻t+3で高(=1)の場合、これらの時系列平均値としては3/4=0.75である。この値は、開眼度の信頼度が高い場合と低い場合の中間である0.5より大きいので、下方視指標の信頼度は高いと判定してよい。別の例として、開眼度の信頼度が、時刻tで低(=0)、時刻t+1で高(=1)、時刻t+2で低(=0)、時刻t+3で低(=0)の場合、これらの時系列平均値としては1/4=0.25である。この値は、開眼度の信頼度が中間の場合の0.5より小さいので、下方視指標の信頼度は低いと判定してよい。
 次に、図6のフローチャートを用いて状態遷移判定部17のより詳細な動作について説明をする。
 ステップST113において、眠気スコア算出部15の出力である眠気スコアが、現在の眠気状態からより強い眠気の眠気状態へ遷移するための眠気上昇閾値以上か否かを判定する。眠気状態は複数段階に分かれており、それぞれの状態間遷移のための眠気スコアに対する閾値があらかじめ定められている。後述する変形例の説明で用いる図7を参照して説明をすると、現在の眠気状態が「眠気状態2」であれば、眠気スコアpが「眠気状態2」からより強い眠気の眠気状態である「眠気状態3」へ遷移するための眠気上昇閾値T23以上か否かを判定する。現在の眠気状態が「眠気状態1」であれば、眠気スコアpが「眠気状態1」からより強い眠気の眠気状態である「眠気状態2」へ遷移するための眠気上昇閾値T12以上か否かを判定する。ステップST113での判定結果が“NO”の場合、処理はステップST118に進み、眠気スコアを基に状態遷移を判定する。他方、“YES”の場合、処理はステップST114に進む。
 ステップST114において、過検知要因信頼度算出部16の出力である過検知要因指標を確認して、過検知要因ありかどうかの判定を行う。“NO”の場合、処理はステップST118に進み、眠気スコアを基に状態遷移を判定する。“YES”の場合、処理はステップST115に進む。
 ステップST115において、過検知要因信頼度算出部16の出力である信頼度を確認し、信頼度が高いか否かを判定する。“YES”の場合、ステップST116で状態遷移なしと判定する。すなわち、過検知要因の信頼度が高い場合、例えば下方視であるとの信頼度が高い場合、ドライバの眠気状態に関する評価である複数の眠気状態間での遷移を行なわず、直前のフレームについてなされた眠気状態レベルについての判定を維持する。
 他方、“NO”の場合、ステップST117で眠気状態が上がりにくいように補正を行う。補正方法は、眠気スコアに対する遷移閾値を調整する方法でもよいし、眠気スコアによる遷移先の眠気状態と現在の眠気状態の平均となる状態に遷移させる方法でもよい。
 以上により、本開示の実施の形態1によれば、特徴量の変化に基づき機械学習モデルを用いて算出した眠気スコアを、ルールベース方式で判定した過検知要因指標とその信頼度で補正する。したがって、機械学習モデルだけでは眠気ありの場合と眠気なしの場合の識別が困難であるような場合であっても、ルールベース方式でそれらの場合を識別することが可能となる。
 また、実施の形態1によれば、過検知要因指標の信頼度を用いるため、単に過検知要因指標を用いる場合に比して、眠気レベルの推定をより正確に行うことができる。
変形例.
 実施の形態1による眠気推定装置100は、機械学習モデルによる眠気スコアとルールベースによる過検知要因指標およびその信頼度を用いて眠気状態の遷移を判定する。このような手法により眠気状態の遷移を判定する場合、あるフレームについての判定結果により眠気状態が上昇し、次のフレームについての判定結果によりすぐに眠気状態が下降しうる。しかしながら、実際の眠気は、上昇後すぐには下降しないことが分かっている。
 そこで、このような実際の眠気の遷移を考慮して、異なるレベルの眠気状態間の遷移閾値を異なる値としてもよい。具体的には、眠気がより強いレベルの第1の眠気状態から眠気がより弱いレベルの第2の眠気状態への遷移を判定するための遷移閾値を、第2の眠気状態から第1の眠気状態への遷移を判定するための遷移閾値よりも低く設定してもよい。
 図7を参照して、より具体的に説明をする。図7には、異なる眠気レベルの眠気状態が3段階で表されている。これらの3つの眠気状態の関係は、眠気レベルが最も弱い眠気状態である「眠気状態1」、眠気レベルが最も強い眠気状態である「眠気状態3」、これらの間に位置して眠気レベルが中間の眠気状態である「眠気状態2」となっている。このような場合において、眠気状態2から眠気状態1への遷移を判定するための眠気下降閾値T21は、眠気状態1から眠気状態2への遷移を判定するための眠気上昇閾値T12よりαだけ低く設定する。同様に、眠気状態3から眠気状態2への眠気下降閾値T32は、眠気状態2から眠気状態3への眠気上昇閾値T23よりβだけ低く設定する。
 状態遷移判定部17は、以上のようにして設定された状態遷移閾値に基づいて、眠気状態の遷移を判定する。すなわち、図6のステップST118において、状態遷移判定部17は、眠気スコア算出部15から受け取った眠気スコアと、眠気上昇閾値および眠気下降閾値を用いて、眠気状態遷移の判定を行う。
 以上の変形例によれば、眠気状態間の推移にヒステリシス(α、β)を持たせることができる。したがって、実際の眠気の変化に即した眠気判定を行うことができ、眠気状態の誤推定を防止することができる。
<付記>
 以上で説明した種々の実施形態のいくつかの側面について、以下のとおりまとめる。
(付記1)
 付記1の眠気推定装置(100)は、車両の乗員の顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いて前記乗員の眠気の度合いを示す眠気スコアを算出する眠気スコア算出部(15)と、前記画像に基づいて、前記眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、前記過検知要因が存在すると判定した場合に前記過検知要因が存在することを示す過検知要因指標およびその過検知要因指標の信頼度をルールベースで算出する過検知要因信頼度算出部(16)と、その算出された眠気スコア、その算出された過検知要因指標、およびその算出された過検知要因指標の信頼度に基づいて、前記乗員の眠気が、眠気度合いが低い第1の眠気状態と、前記第1の眠気状態よりも眠気度合いが高い第2の眠気状態を含む複数の眠気状態のうちのいずれの眠気状態であるかを判定する状態遷移判定部(17)と、を備える。
(付記2)
 付記2の眠気推定装置は、付記1に記載された眠気推定装置であって、前記過検知要因指標の信頼度は、信頼度が低い第1の信頼度と、前記第1の信頼度よりも信頼度が高い第2の信頼度とを含み、前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第2の信頼度の場合、前記複数の眠気状態間で眠気状態に関する判定を遷移させないで直前の眠気状態についての判定を維持する。
(付記3)
 付記3の眠気推定装置は、付記1または2に記載された眠気推定装置であって、前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第1の信頼度の場合、前記第1の眠気状態から前記第2の眠気状態への遷移がより難しくなるように補正を行う。
(付記4)
 付記4の眠気推定装置は、付記3に記載された眠気推定装置であって、前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第1の信頼度の場合、前記第1の眠気状態から前記第2の眠気状態へ遷移するための閾値をより高くすることにより前記補正を行う。
(付記5)
 付記5の眠気推定装置は、付記3に記載された眠気推定装置であって、前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第1の信頼度の場合、前記第1の眠気状態と前記第2の眠気状態の中間状態へ遷移させることにより前記補正を行う。
(付記6)
 付記6の眠気推定装置は、付記2に記載された眠気推定装置であって、前記過検知要因は前記乗員の下方視であり、前記過検知要因信頼度算出部は、前記乗員の両まぶた間の両まぶた開眼率があらかじめ定められた閾値以上である場合に前記過検知要因指標の信頼度を算出する。
(付記7)
 付記7の眠気推定装置は、付記6に記載された眠気推定装置であって、前記過検知要因信頼度算出部は、上下まぶたの頂点座標の時系列分散があらかじめ定められた閾値以上である場合に、前記過検知要因指標の信頼度は前記第1の信頼度であると判定し、前記上下まぶたの頂点座標の時系列分散が前記あらかじめ定められた閾値未満である場合に、前記過検知要因指標の信頼度は前記第2の信頼度であると判定する。
(付記8)
 付記8の眠気推定装置は、付記6に記載された眠気推定装置であって、前記過検知要因信頼度算出部は、開眼度の信頼度に基づいて前記過検知要因指標の信頼度を算出する。
(付記9)
 付記9の眠気推定装置は、付記2に記載された眠気推定装置であって、前記過検知要因は前記乗員の会話であり、前記過検知要因信頼度算出部は、前記乗員の開口および閉口による動作の速度があらかじめ定められた閾値以上である場合に前記過検知要因指標の信頼度を算出する。
(付記10)
 付記10の眠気推定装置は、付記9に記載された眠気推定装置であって、前記過検知要因信頼度算出部は、前記上下唇の頂点座標の時系列分散があらかじめ定められた閾値以上である場合に、前記過検知要因指標の信頼度は前記第1の信頼度であると判定し、前記上下唇の頂点座標の時系列分散が前記あらかじめ定められた閾値未満である場合に、前記過検知要因指標の信頼度は前記第2の信頼度であると判定する。
(付記11)
 付記11の眠気推定装置は、付記1から10のいずれか1つに記載された眠気推定装置であって、前記画像に基づいて眠気の兆候を表す眠気特徴量を算出する特徴量算出部(14)を更に備え、前記学習済みの機械学習モデルは、眠気特徴量と眠気スコアの関係を学習した学習済みのモデルであり、前記眠気スコア算出部は、前記学習済みの機械学習モデルを用いて、その算出された眠気特徴量から前記乗員の眠気スコアを算出する。
(付記12)
 付記12の眠気推定装置は、付記1から11のいずれか1つに記載された眠気推定装置であって、前記第1の眠気状態から前記第2の眠気状態への遷移を判定するための閾値の値は、前記第2の眠気状態から前記第1の眠気状態への遷移を判定するための閾値の値よりも高く設定されている。
(付記13)
 付記13の眠気推定方法は、眠気スコア算出部(15)、過検知要因信頼度算出部(16)、および状態遷移判定部(17)を備える眠気推定装置が行う眠気推定方法であって、前記眠気スコア算出部が、車両の乗員の顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いて前記乗員の眠気の度合いを示す眠気スコアを算出するステップ(ST11)と、前記過検知要因信頼度算出部が、前記画像に基づいて、前記眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、前記過検知要因が存在すると判定した場合に前記過検知要因が存在する確からしさを表す過検知要因指標の信頼度をルールベースで算出するステップ(ST12)と、前記状態遷移判定部が、その算出された眠気スコアと、その算出された信頼度とに基づいて、前記乗員の眠気状態を判定するステップ(ST13)と、を備える。
 なお、実施形態を組み合わせたり、各実施形態を適宜、変形、省略したりすることが可能である。
 本開示の眠気推定技術は、PMSの眠気推定機能を実現する技術として用いることができる。
 1 車両、2 撮像装置、10 顔情報検出部、11 映像取得部、12 顔検出部、13 顔パーツ検出部、14 特徴量算出部、15 眠気スコア算出部、16 過検知要因信頼度算出部、17 状態遷移判定部、20 眠気判定部、100 眠気推定装置、100a 処理回路、100b プロセッサ、100c メモリ。

Claims (13)

  1.  車両の乗員の顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いて前記乗員の眠気の度合いを示す眠気スコアを算出する眠気スコア算出部と、
     前記画像に基づいて、前記眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、前記過検知要因が存在すると判定した場合に前記過検知要因が存在することを示す過検知要因指標およびその過検知要因指標の信頼度をルールベースで算出する過検知要因信頼度算出部と、
     その算出された眠気スコア、その算出された過検知要因指標、およびその算出された過検知要因指標の信頼度に基づいて、前記乗員の眠気が、眠気度合いが低い第1の眠気状態と、前記第1の眠気状態よりも眠気度合いが高い第2の眠気状態を含む複数の眠気状態のうちのいずれの眠気状態であるかを判定する状態遷移判定部と、
    を備える眠気推定装置。
  2.  前記過検知要因指標の信頼度は、信頼度が低い第1の信頼度と、前記第1の信頼度よりも信頼度が高い第2の信頼度とを含み、
     前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第2の信頼度の場合、前記複数の眠気状態間で眠気状態に関する判定を遷移させないで直前の眠気状態についての判定を維持する、
    請求項1に記載された眠気推定装置。
  3.  前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第1の信頼度の場合、前記第1の眠気状態から前記第2の眠気状態への遷移がより難しくなるように補正を行う、
    請求項2に記載された眠気推定装置。
  4.  前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第1の信頼度の場合、前記第1の眠気状態から前記第2の眠気状態へ遷移するための閾値をより高くすることにより前記補正を行う、
    請求項3に記載された眠気推定装置。
  5.  前記状態遷移判定部は、前記算出された過検知要因指標が存在する場合であって、前記算出された信頼度が前記第1の信頼度の場合、前記第1の眠気状態と前記第2の眠気状態の中間状態へ遷移させることにより前記補正を行う、
    請求項3に記載された眠気推定装置。
  6.  前記過検知要因は前記乗員の下方視であり、
     前記過検知要因信頼度算出部は、前記乗員の両まぶた間の両まぶた開眼率があらかじめ定められた閾値以上である場合に前記過検知要因指標の信頼度を算出する、
    請求項2に記載された眠気推定装置。
  7.  前記過検知要因信頼度算出部は、上下まぶたの頂点座標の時系列分散があらかじめ定められた閾値以上である場合に、前記過検知要因指標の信頼度は前記第1の信頼度であると判定し、前記上下まぶたの頂点座標の時系列分散が前記あらかじめ定められた閾値未満である場合に、前記過検知要因指標の信頼度は前記第2の信頼度であると判定する、
    請求項6に記載された眠気推定装置。
  8.  前記過検知要因信頼度算出部は、開眼度の信頼度に基づいて前記過検知要因指標の信頼度を算出する、
    請求項6に記載された眠気推定装置。
  9.  前記過検知要因は前記乗員の会話であり、
     前記過検知要因信頼度算出部は、前記乗員の開口および閉口による動作の速度があらかじめ定められた閾値以上である場合に前記過検知要因指標の信頼度を算出する、
    請求項2に記載された眠気推定装置。
  10.  前記過検知要因信頼度算出部は、前記上下唇の頂点座標の時系列分散があらかじめ定められた閾値以上である場合に、前記過検知要因指標の信頼度は前記第1の信頼度であると判定し、前記上下唇の頂点座標の時系列分散が前記あらかじめ定められた閾値未満である場合に、前記過検知要因指標の信頼度は前記第2の信頼度であると判定する、
    請求項9に記載された眠気推定装置。
  11.  前記画像に基づいて眠気の兆候を表す眠気特徴量を算出する特徴量算出部を更に備え、
     前記学習済みの機械学習モデルは、眠気特徴量と眠気スコアの関係を学習した学習済みのモデルであり、
     前記眠気スコア算出部は、前記学習済みの機械学習モデルを用いて、その算出された眠気特徴量から前記乗員の眠気スコアを算出する、
    請求項1に記載された眠気推定装置。
  12.  前記第1の眠気状態から前記第2の眠気状態への遷移を判定するための閾値の値は、前記第2の眠気状態から前記第1の眠気状態への遷移を判定するための閾値の値よりも高く設定されている、
    請求項1から11のいずれか1項に記載された眠気推定装置。
  13.  眠気スコア算出部、過検知要因信頼度算出部、および状態遷移判定部を備える眠気推定装置が行う眠気推定方法であって、
     前記眠気スコア算出部が、車両の乗員の顔部を撮影した画像に基づいて、学習済みの機械学習モデルを用いて前記乗員の眠気の度合いを示す眠気スコアを算出するステップと、
     前記過検知要因信頼度算出部が、前記画像に基づいて、前記眠気スコアの算出に影響を与える過検知要因が存在するかを判定し、前記過検知要因が存在すると判定した場合に前記過検知要因が存在する確からしさを表す過検知要因指標の信頼度をルールベースで算出するステップと、
     前記状態遷移判定部が、その算出された眠気スコアと、その算出された信頼度とに基づいて、前記乗員の眠気状態を判定するステップと、
    を備える眠気推定方法。
PCT/JP2022/033046 2022-09-02 2022-09-02 眠気推定装置および眠気推定方法 WO2024047856A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/033046 WO2024047856A1 (ja) 2022-09-02 2022-09-02 眠気推定装置および眠気推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/033046 WO2024047856A1 (ja) 2022-09-02 2022-09-02 眠気推定装置および眠気推定方法

Publications (1)

Publication Number Publication Date
WO2024047856A1 true WO2024047856A1 (ja) 2024-03-07

Family

ID=90099028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/033046 WO2024047856A1 (ja) 2022-09-02 2022-09-02 眠気推定装置および眠気推定方法

Country Status (1)

Country Link
WO (1) WO2024047856A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010029537A (ja) * 2008-07-30 2010-02-12 Toyota Motor Corp 覚醒度判定装置
JP2011152218A (ja) * 2010-01-26 2011-08-11 Toyota Motor Corp 開眼度判定装置及び開眼度判定方法
JP2013156707A (ja) * 2012-01-26 2013-08-15 Nissan Motor Co Ltd 運転支援装置
JP2019068933A (ja) * 2017-10-06 2019-05-09 カルソニックカンセイ株式会社 推定装置及び推定方法
JP2019087170A (ja) * 2017-11-10 2019-06-06 アルパイン株式会社 瞼開閉判定装置および眠気検知装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010029537A (ja) * 2008-07-30 2010-02-12 Toyota Motor Corp 覚醒度判定装置
JP2011152218A (ja) * 2010-01-26 2011-08-11 Toyota Motor Corp 開眼度判定装置及び開眼度判定方法
JP2013156707A (ja) * 2012-01-26 2013-08-15 Nissan Motor Co Ltd 運転支援装置
JP2019068933A (ja) * 2017-10-06 2019-05-09 カルソニックカンセイ株式会社 推定装置及び推定方法
JP2019087170A (ja) * 2017-11-10 2019-06-06 アルパイン株式会社 瞼開閉判定装置および眠気検知装置

Similar Documents

Publication Publication Date Title
KR101386823B1 (ko) 동작, 안면, 눈, 입모양 인지를 통한 2단계 졸음운전 방지 장치
US9117358B2 (en) Method for classification of eye closures
JP3257310B2 (ja) 漫然運転検出装置
US10748404B2 (en) Method and apparatus for recognising microsleep in a driver of a vehicle
US10311698B2 (en) Method and device for detecting a tiredness and/or sleeping state of a driver of a vehicle
JP6973928B2 (ja) 瞼開閉判定装置および眠気検知装置
US11453401B2 (en) Closed eye determination device
WO2024047856A1 (ja) 眠気推定装置および眠気推定方法
US11161470B2 (en) Occupant observation device
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
KR20190044818A (ko) 운전자 모니터링 장치 및 방법
WO2024057356A1 (ja) 開瞼度検出装置、開瞼度検出方法、および眠気判定システム
JP7091632B2 (ja) 安全運転促進装置及び安全運転促進方法
CN111696312B (zh) 乘员观察装置
WO2023144951A1 (ja) 乗員状態検知装置および乗員状態検知方法
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
Adarsh et al. Drowsiness Detection System in Real Time Based on Behavioral Characteristics of Driver using Machine Learning Approach
Ibnouf et al. Drowsy Driver Detection System For Poor Light Conditions
CN107809952B (zh) 用于在使用眼睛张开度的情况下对眨眼事件和仪表察看进行区分的方法和装置
WO2023017595A1 (ja) 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム
WO2024075205A1 (ja) 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
US20240122513A1 (en) Awakening effort motion estimation device and awakening effort motion estimation method
JP2021152769A (ja) 顔の誤フィッティング検出装置
JP6698966B2 (ja) 誤検出判定装置及び誤検出判定方法
JP2022166702A (ja) 顔認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22957450

Country of ref document: EP

Kind code of ref document: A1