WO2016038784A1 - ドライバ状態判定装置 - Google Patents

ドライバ状態判定装置 Download PDF

Info

Publication number
WO2016038784A1
WO2016038784A1 PCT/JP2015/003904 JP2015003904W WO2016038784A1 WO 2016038784 A1 WO2016038784 A1 WO 2016038784A1 JP 2015003904 W JP2015003904 W JP 2015003904W WO 2016038784 A1 WO2016038784 A1 WO 2016038784A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
far
infrared image
state
detection unit
Prior art date
Application number
PCT/JP2015/003904
Other languages
English (en)
French (fr)
Inventor
大見 拓寛
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/506,064 priority Critical patent/US10165971B2/en
Priority to CN201580048564.5A priority patent/CN106716515B/zh
Publication of WO2016038784A1 publication Critical patent/WO2016038784A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Definitions

  • This disclosure relates to a driver state determination device that determines an abnormal state of a driver.
  • the drowsiness detection device described in Patent Document 1 detects facial parts such as eyes and mouth from a driver's face image captured by a camera, and detects the driver's sleepiness based on the shape of the facial parts. Detected.
  • a device that monitors the driver's state by measuring the driver's pulse with a biosensor has been proposed.
  • the detection accuracy of the driver's facial part decreases due to the influence of ambient light such as solar radiation and headlights of oncoming vehicles, and the determination accuracy of the driver's abnormal state decreases. There is a problem of doing.
  • a biosensor it is necessary to restrain a driver, and it is unsuitable for performing the determination of the abnormal state of a driver stably.
  • biosensors tend to be vulnerable to vehicle noise because they handle weak electrical signals.
  • This disclosure is intended to provide a driver state determination device that can stably determine an abnormal state of a driver with high accuracy.
  • a driver state determination device is a face image of a driver of a vehicle, and a far-infrared camera that captures a far-infrared image representing a temperature distribution of the driver's face surface;
  • a state determination unit that determines an abnormal state of the driver based on the far-infrared images sequentially captured by the outer camera for a predetermined period.
  • the far-infrared image representing the temperature distribution of the driver's face surface is taken by the far-infrared camera.
  • the driver When the driver is in an abnormal state such as a sloppy state or a sudden illness state, the driver's breathing or blinking state changes to a state different from the normal state.
  • the state of breathing or blinking of the driver changes to a state different from the normal state, the temperature distribution on the driver's face surface changes differently from the normal state. Therefore, the abnormal state of the driver can be determined based on the temperature distribution represented by the far-infrared images that are sequentially captured during the predetermined period.
  • the far-infrared camera is not easily affected by ambient light.
  • the far-infrared camera is a non-contact sensor, the driver's face image can be stably captured. Therefore, the abnormal state of the driver can be determined with high accuracy and stability from the far-infrared image of the driver's face.
  • the figure which shows the mounting position of the near infrared camera and the far infrared camera Schematic diagram showing a far-infrared image of breathing or holding Schematic diagram showing a far-infrared image in the state of exhaling
  • Schematic diagram showing a far-infrared image in a state of wearing a mask Schematic diagram showing a far-infrared image in a state of wearing glasses
  • the figure which shows the respiratory state at the time of normal and abnormal Diagram showing blink state during normal operation and abnormal operation Flow chart showing the processing procedure for detecting an abnormal state of the driver Subroutine showing processing procedure for detecting respiratory condition Subroutine showing processing procedure to detect blink state
  • the driver state determination device 10 includes an ECU 20, a far infrared camera 11, and a near infrared camera 12, and determines an abnormal state of the driver.
  • the abnormal state of the driver is a state in which the driver cannot perform appropriate recognition, judgment and operation necessary for driving, for example, in a casual state, a dozing state, a physical condition abnormal state, a side look state, etc. is there.
  • the far-infrared camera 11 is a camera having sensitivity in the far-infrared region, and converts the far-infrared intensity emitted by the substance in the photographing range into a pixel value to generate a far-infrared image.
  • the far-infrared image represents the temperature distribution of the subject, and the higher the pixel value, the higher the temperature.
  • the near-infrared camera 12 is a camera having sensitivity in the near-infrared region, and shoots an imaging target including the region illuminated by the projector 14 to generate a near-infrared image.
  • the projector 14 is an illumination device that irradiates near infrared light, and is driven by a driver 13.
  • the driver 13 is controlled by an image processing circuit 30 of the ECU 20 described later.
  • the projector 14 may be another light source having a filament in addition to the LED (light emitting diode), but here, the LED will be described as a representative example.
  • the far-infrared camera 11 and the near-infrared camera 12 capture several to several hundred images per second including the driver's face area when seated on the driving seat.
  • the far-infrared camera 11 and the near-infrared camera 12 are mounted so as to have an elevation angle obliquely upward near a position on the meter panel 15, as shown in FIG.
  • the far-infrared camera 11 and the near-infrared camera 12 are set to include a region including the driver's eye-lip portion in the viewing angle, and the near-infrared camera 12 has a wider field of view than the eye-lips captured by the far-infrared camera 11. It has become.
  • the iris part is an area determined for each vehicle type, and is an elliptical area where the eye positions of various drivers with different physiques are distributed during normal driving.
  • the mounting positions of the far-infrared camera 11 and the near-infrared camera 12 are not limited to those on the meter panel 15, but may be on, for example, a steering column.
  • the far-infrared camera 11 and the near-infrared camera 12 may be mounted at any position where the driver's nasal cavity can be photographed when the driver is seated on the seat and faces the front.
  • the ECU 20 is also referred to as a controller, and in the present embodiment, as an example, the ECU 20 is a microcomputer including a CPU, a ROM, a RAM, and an I / O.
  • the CPU executes various programs stored in the ROM, thereby realizing a plurality of functions of the image processing circuit 30, the state determination circuit 40, and the actuation determination circuit 50. Further, the ECU 20 can also realize a part or all of the functions to be realized as a hardware configuration without depending on the program.
  • the image processing circuit 30 sets the exposure timing and exposure time of the near-infrared camera 12, the emission timing and emission time of the projector 14, the amount of light, and the like, and sends a control command to the driver 13 of the near-infrared camera 12 and the projector 14. Send. Further, the image processing circuit 30 acquires a far infrared image photographed by the far infrared camera 11 and a near infrared image photographed by the near infrared camera 12.
  • the state determination circuit 40 includes a position acquisition unit 41, a region extraction unit 42, a mask detection unit 43, a glasses detection unit 44, a respiration detection unit 45 (also referred to as a respiration state detection unit), and a blink detection unit 46 (blink state detection unit).
  • a state determination unit 47 and a face direction detection unit 48 are provided to determine an abnormal state of the driver. Details of each part will be described later. Each part is also referred to as a device.
  • the actuation determination circuit 50 causes each of the devices 61 to 61 in the actuator group 60 to urge the driver to wake up or call attention.
  • a control signal is transmitted to 63.
  • a control signal is transmitted to the emergency vehicle stop device 64.
  • the actuation determination circuit 50 transmits a control command to the speaker 61 so as to output a warning sound or a warning message.
  • the actuation determination circuit 50 transmits a control command to the seat vibration device 62 installed on the driver seat so as to vibrate the driver seat.
  • the actuation determination circuit 50 transmits a control command to the air conditioner 63 so as to blow cold wind on the driver.
  • the actuation determination circuit 50 transmits a control command to the vehicle emergency stop device 64 so as to stop the vehicle urgently when the driver state does not return from the abnormal state to the normal state.
  • the actuation determination circuit 50 may drive two or more of the speaker 61, the seat vibration device 62, and the air conditioner 63. Further, the actuation determination circuit 50 may change or increase the number of devices that are sequentially driven as the abnormal state continues. Further, the device that prompts the driver to wake up is not limited to the speaker 61, the seat vibration device 62, and the air conditioner 63, but may be other devices.
  • the actuator group 60 only needs to include at least one device that prompts the driver to awaken and the vehicle emergency stop device 64.
  • the position acquisition unit 41 recognizes a facial part from the near-infrared image and acquires positional information of the recognized facial part.
  • the facial parts to recognize are the eyes, nose, mouth, and the like.
  • the position acquisition unit 41 recognizes the eye, nose, and mouth in the near-infrared image by performing a known method such as template matching. Then, the position acquisition unit 41 acquires recognized eye, nose, and mouth position information, that is, image coordinate information.
  • “information” is used not only as a countable noun but also as a countable noun. Information can be said to be equivalent to information items.
  • the region extraction unit 42 uses the positional information acquired by the position acquisition unit 41 and the correspondence relationship between the coordinates of the near-infrared image and the far-infrared image, to (a) of FIG. 3 and (a) of FIG.
  • eye regions Er and El, nose region N and mouth region M are extracted from the far-infrared image.
  • the eye regions Er and El are shown as a single unit for convenience, but actually there are two regions.
  • the eye areas Er and El are search areas for searching for an eye part where the eyeball exists.
  • the nose region N is a search region for searching the nasal cavity
  • the mouth region M is a search region for searching the inside of the mouth.
  • the region extraction unit 42 extracts certain regions centered on the position information of the eyes, nose, and mouth as eye regions Er, El, nose region N, and mouth region M, respectively.
  • eye regions Er, El, nose region N, and mouth region M are eye regions centered on the position information of the eyes, nose, and mouth as eye regions Er, El, nose region N, and mouth region M, respectively.
  • the region extraction unit 42 extracts a search region using position information acquired from the near-infrared image. By extracting the search area in this way, it is possible to reduce the load of the search process in the eye, nasal cavity, and the inside of the far-infrared image, and to detect the eye, the nasal cavity, and the inside of the mouth with high accuracy. .
  • the respiration detection unit 45 detects a respiration state from temperature variation information in the nasal cavity or inside the mouth.
  • relatively cool air flows into the nasal cavity or inside the mouth. Therefore, when the driver is inhaling or holding the breath from the nose, as shown in FIG. 3A, the brightness of the nasal cavity portion of the far-infrared image is lowered and appears dark.
  • the driver's nose is clogged, less air flows into the clogged nasal cavity, so as shown in FIG. 3B, in the far-infrared image, the clogged nasal cavity is The luminance is higher than that of the nasal cavity portion that is not clogged.
  • FIG. 3C the brightness inside the mouth of the far-infrared image becomes low and appears dark.
  • the respiration detection unit 45 detects a respiration state such as the respiration cycle, respiration depth, and respiration rate of the driver from the temperature variation information of the respiration unit, that is, the luminance variation information of the respiration unit in the far-infrared image.
  • the respiratory cycle is, for example, the interval between peaks and peaks or the interval between valleys and valleys in the change curve of the luminance of the respiratory unit as shown in FIG.
  • the depth of respiration is, for example, a luminance difference amount D between a mountain and a valley in a change curve of the luminance of the respiratory unit as shown in FIG.
  • the respiration detection unit 45 detects the respiration state from the temperature variation information of the mask using the detected mask as the respiration unit.
  • the mask detection unit 43 detects a mask from a far-infrared image captured during a predetermined period. In the near-infrared image, it is difficult to detect the mask by extracting the mask, the skin, and the boundary line. On the other hand, in the far-infrared image, as shown in FIG. 5, the temperature of the part covering the nose and mouth in the mask varies as a whole with breathing, so the mask is detected from the far-infrared image in a predetermined period. can do. When the temperature fluctuates in a region wider than the normal nose region N and mouth region M in the lower part of the face, the mask detection unit 43 detects the temperature variation region as a mask.
  • the respiration detection unit 45 respirates to prevent false detection when the face direction of the driver detected by the face direction detection unit 48 is a direction in which the nasal cavity portion cannot be seen with respect to the far-infrared camera 11. Stop state detection. For example, when the face is greatly tilted downward or upward, the nasal cavity portion cannot be seen, so the breathing detection unit 45 stops detecting the breathing state in such a case.
  • the face orientation detection unit 48 detects the face orientation of the driver from the near infrared image. Specifically, the face orientation detection unit 48 detects the face orientation based on the arrangement of facial parts recognized in the near-infrared image.
  • the blink detection unit 46 detects the blink state from the temperature variation information of the eye.
  • the surface temperature of the eyeball is lower than the surface temperature of the eyelid. Therefore, when the driver opens his eyes, the brightness of the eyeball part of the far-infrared image is lowered and appears dark. Further, when the driver closes his eyes, the brightness of the eyeball part of the far-infrared image becomes higher and appears brighter.
  • the blink detection unit 46 detects a blink state such as a blink cycle of the driver, a continuous eye closure time, and the like from temperature variation information of the eye regions Er and El, that is, luminance variation information of the eye regions Er and El in the far-infrared image.
  • the blink cycle is, for example, the interval between the peaks or the valleys or the interval between the valleys in the luminance change curves of the eye regions Er and El.
  • the blink detection unit 46 opens the eyes of the driver from the near-infrared image as shown in FIGS. 7 (a) and 7 (b).
  • the degree of eye opening is detected, and the blink state is detected from the fluctuation of the detected degree of eye opening.
  • the blink detection unit 46 extracts the contours of the upper and lower eyelids from the near-infrared image, and detects the eye opening degree from the interval between the extracted upper eyelid contour and the lower eyelid contour and the contour shape.
  • the glasses detection unit 44 detects the glasses of the driver from the far infrared image.
  • the spectacle portion In the far-infrared image, as shown in FIG. 6, the spectacle portion always appears darker than the other face portions. Therefore, the spectacles detection part 44 detects a low-temperature part as spectacles, when a low-temperature part always exists in the upper part of a face in a far-infrared image.
  • the state determination unit 47 determines the abnormal state of the driver based on the far infrared image captured by the far infrared camera 11 for a predetermined period. Specifically, the state determination unit 47 determines the abnormal state of the driver based on the breathing state and the blink state of the driver.
  • the breathing cycle and depth are stable and substantially constant values.
  • the breathing cycle and depth change from the normal state and vary in an unstable manner.
  • the state determination unit 47 determines the abnormal state of the driver based on the change in the respiratory cycle and the change in the breathing depth.
  • the state determination unit 47 determines an abnormal state of the driver based on fluctuations in the degree of eye opening, such as fluctuations in the blink cycle, fluctuations in the average eye closure time, and continuation of the half-eye state.
  • the detection of the half eye is obtained from the area variation of the dark portion of the light search area in the eye search area.
  • S10 and S11 may have almost the same timing, and there is no problem even if the order is reversed. Further, the far-infrared camera 11 has a character, and it is necessary to reset the shutter by a shutter sometimes, but there is a possibility that a frame loss may occur. However, an appropriate process is appropriately performed there. S means a section or step.
  • face parts that is, eyes, nose, and mouth are detected from the near-infrared image acquired in S10.
  • the facial component is recognized in the near-infrared image, and the positional information of the facial component is acquired (S12).
  • the face position and face orientation are detected (S13). If the detected face position is not within the far-infrared image, the processing based on the far-infrared image (S14 to S17) is not executed.
  • the face direction detected in S13 is a face direction in which the nasal cavity portion can be seen (S14). If the face is facing the nasal cavity (S14: YES), the respiratory state is detected based on the far-infrared image acquired in S11 (S15). Details of the processing procedure of the respiratory state detection will be described later. On the other hand, when the face is facing the nasal cavity (S14: NO), the flow proceeds to eyeglass detection without detecting the respiratory state.
  • the spectacles When detecting the eye open degree of the driver's eye from the near-infrared image acquired in S10, if the spectacles are detected in S16, the presence / absence and position information of the spectacles detected in S16 is used. This prevents erroneous detection of the frame as an eye contour. Subsequently, using the eye opening degree history and the eye opening degree detected in S18, the fluctuation of the eye opening degree in a predetermined period is calculated, and the blink cycle is detected from the calculated eye opening degree fluctuation (S19).
  • the driver determines whether or not the driver is in an abnormal state based on the respiratory cycle detected in S15 and / or the blink cycle detected in S17 and / or S19 (S20). For example, when the detected breathing cycle and blink cycle are learned and the difference between the detected breathing cycle and the learning value of the breathing cycle is greater than the breathing threshold, or the detected blinking cycle and blinking cycle learning value When the difference between is greater than the blink threshold, the driver determines that the state is abnormal. Alternatively, the driver may determine that the abnormal state is present when the detected variance value of the respiratory cycle is greater than the respiratory variance threshold value or when the detected blink interval variance value is greater than the blink variance threshold value.
  • the degree of abnormality is calculated from the detected respiratory cycle and blink period, and the calculated abnormality degree is integrated, and the abnormal state of the driver is determined by comparing the integrated abnormality degree and the abnormality threshold. Good. If the respiratory state is not detected in S15, the driver's abnormal state is determined based only on the blink state.
  • the nose region N that is the search region of the nasal cavity is extracted from the far-infrared image acquired in S11 using the nose position information acquired in S12 (S152). ). Subsequently, the nose region N extracted in S152 is searched to detect the outline of the nasal cavity (S153). Since one of the two nasal cavity parts may be clogged, the nasal cavity part is detected on each of the left and right sides. Subsequently, the pixel values of the nasal cavity portions within the contours of the left and right nasal cavity portions detected in S153 are averaged, and the average value of the pixel values is calculated for each of the left and right sides (S154).
  • the process proceeds to S16.
  • the mouth region M is extracted from the far-infrared image acquired in S11, the mouth region M is searched, and the contour of the mouth is detected. And while calculating the pixel average value inside a mouth, the fluctuation
  • the average value of the pixel values is calculated for the portion of the detected mask covering the nose and mouth (S155). Subsequently, using the average luminance value of the mask and the average value of the pixel values of the entire mask calculated in S155 or the area where the nose and mouth are estimated to be present in the mask, Change is calculated and respiratory cycle is detected. Thereafter, the process proceeds to S16.
  • eye regions El and Er which are eye region search regions, are extracted from the far-infrared image acquired in S11 using the eye position information acquired in S12 (S171). Subsequently, the eye regions El and Er extracted in S171 are searched to detect the right and left eye contours (S172). Subsequently, the average value of the pixel values of the left and right eyes within the contours of the left and right eyes detected in S172 is calculated (S173).
  • a far-infrared image representing the temperature distribution of the driver's face is photographed by the far-infrared camera 11.
  • the temperature distribution of the driver's face varies locally differently from when the driver is in a normal state. Therefore, the abnormal state of the driver can be determined based on the far-infrared images that are sequentially photographed during the predetermined period. Further, the far-infrared camera 11 is not easily affected by ambient light. Furthermore, since the far-infrared camera 11 is a non-contact sensor, it can stably capture a driver's face image. Therefore, the abnormal state of the driver can be determined with high accuracy and stability from the far-infrared image of the driver's face in a predetermined period.
  • the temperature in the nasal cavity or in the mouth fluctuates according to the respiratory cycle. Therefore, the respiratory state of the driver can be detected from the temperature fluctuation information inside the driver's nasal cavity or mouth. Then, the abnormal state of the driver can be determined from the detected respiratory state of the driver.
  • the temperature of the eye fluctuates corresponding to the blink cycle. Therefore, the blink state of the driver can be detected from the temperature fluctuation information of the driver's eyes. Then, the abnormal state of the driver can be determined from the detected blink state of the driver.
  • the respiratory cycle may change from the normal cycle or the respiratory cycle may vary. Therefore, the abnormal state of the driver can be determined based on the change in the respiratory cycle.
  • the blink cycle may change from the normal cycle or the blink cycle may vary. Therefore, the abnormal state of the driver can be determined based on the fluctuation of the blink cycle.
  • the near-infrared image easily recognizes a facial part by extracting an edge point of the facial part. Therefore, the facial part is recognized from the near-infrared image photographed by the near-infrared camera 12, and the position information of the facial part is acquired. Then, using the position information of the facial parts acquired from the near-infrared image, the eye regions El and Er, the nose region N, and the mouth region M in the far-infrared image are extracted.
  • the breathing state and blinking of the driver can be performed with higher accuracy than when only the far-infrared camera 11 is used.
  • the state can be detected.
  • glasses are always darker than other face parts. Therefore, the glasses can be detected from the far infrared image with high accuracy.
  • the nose region N or mouth region M cannot be extracted, but the temperature of the mask varies as a whole with breathing. Therefore, when a mask is detected, the respiratory state can be detected from the temperature variation of the mask by using the mask as a breathing unit.
  • the blink state cannot be detected from the temperature variation of the eye using the far-infrared image. Therefore, in this case, by detecting the eye opening degree from the near-infrared image, the blink state can be detected from the fluctuation of the eye opening degree.
  • the respiration detection unit 45 may detect a respiration state other than the respiration cycle, such as respiration depth and respiration rate, as an index used for driver abnormality determination.
  • the blink detection part 46 may detect blink conditions, such as a continuous eye-closing time and an average eye-opening time, as a parameter
  • the state determination circuit 40 of the ECU 20 may include a fluctuation region detection unit that detects a temperature fluctuation region in which a temperature fluctuation amount in a predetermined period is larger than a threshold in the far-infrared image. And the position acquisition part 41 may extract a recognition area
  • the driver state determination device 10 may not include the near infrared camera 12.
  • the driver's abnormal state may be determined using only the far infrared image photographed by the far infrared camera 11. In this case, a pair of left and right portions where the temperature repeats high and low are detected as an eye part and a nasal cavity part by looking at the time change of the far infrared image. In addition, when the driver is breathing through the mouth, a portion where the temperature repeats high and low below the eyes is detected as the inside of the mouth.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Psychiatry (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

 ドライバ状態判定装置(Driver state determination apparatus)は、車両のドライバの顔画像であって、ドライバの顔表面の温度分布を表す遠赤外画像を撮影する遠赤外カメラ(11)と、遠赤外カメラ(11)により所定期間に撮影された遠赤外画像に基づいて、ドライバの異常状態を判定する状態判定部(47)と、を備える。

Description

ドライバ状態判定装置 関連出願の相互参照
 本出願は、2014年9月11日に出願された日本出願番号2014-184906号に基づくもので、ここにその記載内容を援用する。
 本開示は、ドライバの異常状態を判定するドライバ状態判定装置に関する。
 車両を運転中に、ドライバの状態が漫然、居眠り、発作等の異常状態にあると、事故を引き起こす可能性が高まる。そこで、事故を未然防止するために、ドライバの状態を監視する装置が提案されている。
 例えば、特許文献1に記載の眠気検出装置は、カメラにより撮影されたドライバの顔画像から、目、口等の顔の部品を検出し、顔の部品の形状等に基づいて、ドライバの眠気を検出している。また、生体センサによりドライバの脈拍を測定して、ドライバの状態を監視するものも提案されている。
JP 2007-264785 A
 顔画像から検出した顔の部品の形状を用いる場合、日射や対向車のヘッドライト等の外乱光の影響で、ドライバの顔の部品の検出精度が低下し、ドライバの異常状態の判定精度が低下するという問題がある。また、生体センサを用いる場合、ドライバを拘束する必要があり、ドライバの異常状態の判定を安定して行うには不向きである。さらに、生体センサは微弱電気信号を扱うため車両ノイズに弱い傾向がある。
 本開示は、高精度に安定してドライバの異常状態を判定できるドライバ状態判定装置を提供することを目的とする。
 本開示の一つの態様によればドライバ状態判定装置は車両のドライバの顔画像であって、前記ドライバの顔表面の温度分布を表す遠赤外画像を撮影する遠赤外カメラと、前記遠赤外カメラにより所定期間に逐次撮影された前記遠赤外画像に基づいて、前記ドライバの異常状態を判定する状態判定部と、を備えるように提供する。
 本態様によれば、遠赤外カメラにより、ドライバの顔表面の温度分布を表す遠赤外画像が撮影される。ドライバが漫然状態や急病状態等の異常状態になると、ドライバの呼吸や瞬目の状態は正常時と異なる状態に変化する。ドライバの呼吸や瞬目の状態が正常時と異なる状態に変化すると、ドライバの顔表面の温度分布の変動が正常時と異なる変動となる。よって、所定期間に逐次撮影された遠赤外画像が表す温度分布に基づいて、ドライバの異常状態が判定できる。また、遠赤外カメラは外乱光の影響を受けにくい。さらに、遠赤外カメラは非接触センサであるため、安定してドライバの顔画像を撮影できる。したがって、ドライバの顔の遠赤外画像から、高精度に安定してドライバの異常状態を判定できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。
本実施形態に係るドライバ状態判定装置の構成を示す図 近赤外カメラ及び遠赤外カメラの搭載位置を示す図 息を吸っている又は止めている状態の遠赤外画像を示す模式図 息を吐いている状態の遠赤外画像を示す模式図 マスクを着用している状態の遠赤外画像を示す模式図 眼鏡を着用している状態の遠赤外画像を示す模式図 眼鏡を着用している状態の近赤外画像を示す模式図 正常時及び異常時の呼吸状態を示す図 正常時及び異常時の瞬目状態を示す図 ドライバの異常状態を検出する処理手順を示すフローチャート 呼吸状態を検出する処理手順を示すサブルーチン 瞬目状態を検出する処理手順を示すサブルーチン
 以下、ドライバ状態判定装置を具現化した実施形態について、図面を参照しつつ説明する。
 まず、本実施形態に係るドライバ状態判定装置10の構成について、図1及び2を参照して説明する。ドライバ状態判定装置10は、ECU20、遠赤外カメラ11、及び近赤外カメラ12を備えて、ドライバの異常状態を判定する。本実施形態において、ドライバの異常状態とは、ドライバが運転に必要な適切な認識、判断及び操作を実施することができない状態であり、例えば漫然状態、居眠り状態、体調異常状態、脇見状態等である。
 遠赤外カメラ11は、遠赤外線領域に感度を有するカメラであり、撮影範囲内の物質が発する遠赤外線の強度を画素値に変換して、遠赤外画像を生成する。よって、遠赤外画像は撮影対象の温度分布を表し、画素値が大きいほど温度は高い。近赤外カメラ12は、近赤外線領域に感度を有するカメラであり、投光器14により照らされた領域を含む撮影対象を撮影して、近赤外画像を生成する。投光器14は、近赤外光を照射する照明装置であり、駆動器13により駆動される。駆動器13は、後述するECU20の画像処理回路30により制御される。なお、投光器14はLED(発光ダイオード)の他、フィラメントなどを有する別の光源であっても良いが、ここではLEDを代表例として説明する。
 遠赤外カメラ11及び近赤外カメラ12は、運転シートに着座した際のドライバの顔領域を含む領域の画像を、1秒間に数枚から数百枚分撮影する。遠赤外カメラ11及び近赤外カメラ12は、図2に示すように、メータパネル15上の近い位置に斜め上向きに仰角を有するように搭載されている。遠赤外カメラ11および近赤外カメラ12はドライバのアイリプス部を含む領域を視野角に含めるように設定されており、近赤外カメラ12は遠赤外カメラ11が撮像するアイリプスよりも広視野となっている。アイリプス部は、車種ごとに決まっている領域であり、通常の運転時に、体格の異なる様々なドライバの眼位置が分布する楕円の領域である。
 なお、遠赤外カメラ11及び近赤外カメラ12の搭載位置は、メータパネル15上に限らず、例えば、ステアリングコラム上でもよい。遠赤外カメラ11及び近赤外カメラ12の搭載位置は、ドライバがシートに着座して正面を向いたときに、ドライバの鼻腔部を撮影できる位置であればよい。
 ECU20は、コントローラとも言及され、本実施形態では、一例として、CPU、ROM、RAM及びI/Oを備えるマイクロコンピュータである。CPUがROMに記憶されている各種プログラムを実行することにより、画像処理回路30、状態判定回路40及びアクチュエーション判定回路50の複数の機能を実現する。また、ECU20は、その実現する複数の機能の、おのおのについて、その一部、あるいは全てを、プログラムに依存せずに、ハードウエアの構成として実現することもできる。
 画像処理回路30は、近赤外カメラ12の露光タイミングや露光時間、投光器14の発光タイミングや発光時間、光量等を設定して、近赤外カメラ12及び投光器14の駆動器13へ制御指令を送信する。また、画像処理回路30は、遠赤外カメラ11により撮影された遠赤外画像、及び近赤外カメラ12により撮影された近赤外画像を取得する。
 状態判定回路40は、位置取得部41、領域抽出部42、マスク検出部43、眼鏡検出部44、呼吸検出部45(呼吸状態検出部とも言う)、瞬目検出部46(瞬目状態検出部とも言う)、状態判定部47及び顔向き検出部48を備え、ドライバの異常状態を判定する。各部の詳細は後述する。各部は、デバイスとも言及される。
 アクチュエーション判定回路50は、状態判定回路40によりドライバが異常状態であると判定された場合には、ドライバに覚醒を促したり、注意を喚起したりするように、アクチュエータ群60の各装置61~63へ制御信号を送信する。異常状態が継続する場合には、緊急車両停止装置64へ制御信号を送信する。詳しくは、アクチュエーション判定回路50は、警告音や警告メッセージを出力するように、スピーカ61へ制御指令を送信する。また、アクチュエーション判定回路50は、運転席のシートを振動させるように、運転席のシートに設置されたシート振動装置62へ制御指令を送信する。また、アクチュエーション判定回路50は、冷たい風をドライバに吹き付けるように、空調装置63へ制御指令を送信する。アクチュエーション判定回路50は、ドライバの状態が異常状態から正常状態に復帰しない場合に、車両を緊急停止させるように、車両緊急停止装置64へ制御指令を送信する。
 アクチュエーション判定回路50は、スピーカ61、シート振動装置62及び空調装置63のうちの2つ以上を駆動させるようにしてもよい。また、アクチュエーション判定回路50は、異常状態の継続に伴い、順次駆動させる装置を変化させたり増やしたりするようにしてもよい。また、ドライバの覚醒を促す装置は、スピーカ61、シート振動装置62、空調装置63に限らず、他の装置でもよい。アクチュエータ群60には、ドライバの覚醒を促す少なくとも1つの装置と、車両緊急停止装置64とが含まれていればよい。
 次に、状態判定回路40の各部について、図3~9を参照して説明する。位置取得部41は、近赤外画像から顔の部品を認識し、認識した顔の部品の位置情報を取得する。認識する顔の部品は、眼、鼻、口などである。詳しくは、位置取得部41は、近赤外画像において、眼、鼻、口をテンプレートマッチングなど公知の手法で処理を行い、認識する。そして、位置取得部41は、認識した眼、鼻、口の位置情報、すなわち画像の座標情報を取得する。なお、本明細書では、「情報」は、不可算名詞のみならず、可算名詞としても使用される。情報は、情報項目と同等であるとも言える。
 領域抽出部42は、位置取得部41により取得された位置情報、及び近赤外画像と遠赤外画像の座標の対応関係を用いて、図3の(a)及び図4の(a)に示すように、遠赤外画像において、眼領域Er,El、鼻領域N及び口領域Mを抽出する。図では便宜上、眼領域Er,Elを一体的に記載しているが、実際には2つの領域である。眼領域Er,Elは、眼球が存在する部分である眼部を探索する探索領域である。鼻領域Nは鼻腔部を探索する探索領域であり、口領域Mは口内部を探索する探索領域である。領域抽出部42は、眼、鼻、口の位置情報を中心とした一定の領域を、それぞれ眼領域Er,El、鼻領域N、口領域Mとして抽出する。なお、ドライバが鼻呼吸をしている場合は鼻腔部が呼吸部となり、口呼吸をしている場合は口内部が呼吸部となる。
 遠赤外画像は通常の可視光画像と異なり形状のエッジ部分が明瞭ではないため、遠赤外画像を用いて顔全体から、顔の部品を認識することは困難である。そこで、領域抽出部42は、近赤外画像から取得された位置情報を用いて、探索領域の抽出を行う。このように探索領域の抽出を行うことにより、遠赤外画像において、眼部、鼻腔部及び口内部の探索処理の負荷を軽減できるとともに、眼部、鼻腔部及び口内部を高精度に検出できる。
 呼吸検出部45は、鼻腔部又は口内部の温度変動情報から呼吸状態を検出する。鼻又は口から息を吸うと、鼻腔部又は口内部に比較的低温の空気が流入する。そのため、ドライバが鼻から息を吸っている状態又は息を止めている状態では、図3の(a)に示すように、遠赤外画像の鼻腔部の輝度は低くなり暗く映る。ドライバの鼻が詰まっている場合は、詰まっている鼻腔部に流入する空気が少なくなるため、図3の(b)に示すように、遠赤外画像において、詰まっている方の鼻腔部は、詰まっていない方の鼻腔部よりも輝度が高くなる。また、ドライバが口から息を吸っている状態又は息を止めている状態では、図3の(c)に示すように、遠赤外画像の口内部の輝度は低くなり暗く映る。
 一方、鼻又は口から息を吐くと、鼻腔部又は口内部から比較的高温の空気が流出する。そのため、ドライバが鼻から息を吐いている状態では、図4の(a)に示すように、遠赤外画像の鼻腔部の輝度は高くなり明るく映る。ドライバの鼻が詰まっている場合は、図4の(b)に示すように、遠赤外画像において、詰まっている方の鼻腔部は、詰まっていない方の鼻腔部よりも輝度が低くなる。また、ドライバが口から息を吸っている状態又は息を止めている状態では、図4の(c)に示すように、遠赤外画像の口内部の輝度は高くなり明るく映る。
 よって、所定期間(例えば数十秒)に撮影された遠赤外画像における呼吸部の温度は、呼吸に伴い変動する。呼吸検出部45は、呼吸部の温度変動情報すなわち遠赤外画像における呼吸部の輝度変動情報から、ドライバの呼吸周期、呼吸の深さ、呼吸速度等の呼吸状態を検出する。呼吸周期は、図8に示すような呼吸部の輝度の変化曲線において、例えば山と山との間隔又は谷と谷との間隔とする。また、呼吸の深さは、図8に示すような呼吸部の輝度の変化曲線において、例えば山と谷との輝度の差分量Dとする。
 ただし、マスク検出部43によりドライバの鼻及び口を覆うマスクが検出された場合には、呼吸検出部45は、検出されたマスクを呼吸部として、マスクの温度変動情報から呼吸状態を検出する。
 マスク検出部43は、所定期間に撮影された遠赤外画像からマスクを検出する。近赤外画像では、マスクと肌と境界線を抽出してマスクを検出することは困難である。これに対して、遠赤外画像では、図5に示すように、呼吸に伴いマスクにおいて鼻や口を覆う部分の温度が全体的に変動するため、所定期間における遠赤外画像からマスクを検出することができる。マスク検部43出は、顔の下部において、通常の鼻領域Nや口領域Mよりも広い領域で温度が変動している場合に、温度の変動領域をマスクとして検出する。
 さらに、呼吸検出部45は、顔向き検出部48により検出されたドライバの顔向きが、遠赤外カメラ11に対して鼻腔部の見えない向きであった場合に、誤検出を防止するため呼吸状態の検出を停止する。例えば、顔が大きく下又は上に傾いている場合には鼻腔部が見えないため、呼吸検出部45は、このような場合には呼吸状態の検出を停止する。顔向き検出部48は、近赤外画像からドライバの顔向きを検出する。詳しくは、顔向き検出部48は、近赤外画像において認識した顔の部品の配置に基づいて顔向きを検出する。
 瞬目検出部46は、眼部の温度変動情報から瞬目状態を検出する。眼球の表面温度は、瞼の表面温度よりも低い。そのため、ドライバが眼を開いている場合は、遠赤外画像の眼球部の輝度は低くなり暗く映る。また、ドライバが眼を閉じている場合は、遠赤外画像の眼球部の輝度は高くなり明るく映る。
 よって、所定期間に撮影された遠赤外画像における眼領域Er,Elの温度は、瞬きに伴い変動する。瞬目検出部46は、眼領域Er,Elの温度変動情報すなわち遠赤外画像における眼領域Er,Elの輝度変動情報から、ドライバの瞬目周期、継続閉眼時間等の瞬目状態を検出する。瞬目周期は、眼領域Er,Elの輝度の変化曲線において、例えば山と山との間隔又は谷と谷との間隔とする。
 ただし、眼鏡検出部44によりドライバの眼鏡が検出された場合には、瞬目検出部46は、図7の(a)と(b)に示すように、近赤外画像からドライバの眼の開度である開眼度を検出し、検出した開眼度の変動から瞬目状態を検出する。詳しくは、瞬目検出部46は、近赤外画像から上下瞼の輪郭を抽出し、抽出した上瞼の輪郭と下瞼の輪郭との間隔や輪郭の形状から開眼度を検出する。
 眼鏡検出部44は、遠赤外画像からドライバの眼鏡を検出する。遠赤外画像では、図6に示すように、眼鏡部分はその他の顔部分よりも常に暗く映る。よって、眼鏡検出部44は、遠赤外画像において、顔の上部で、常に低温部分が存在する場合に、低温部分を眼鏡として検出する。
 状態判定部47は、遠赤外カメラ11により所定期間に撮影された遠赤外画像に基づいて、ドライバの異常状態を判定する。詳しくは、状態判定部47は、ドライバの呼吸状態及び瞬目状態に基づいて、ドライバの異常状態を判定する。
 図8に示すように、ドライバが正常状態の場合には、呼吸の周期や深さは安定した略一定値となる。一方、ドライバが異常状態の場合には、呼吸の周期や深さは正常状態から変化して不安定に変動するものとなる。状態判定部47は、呼吸周期の変動や呼吸の深さの変動に基づいて、ドライバの異常状態を判定する。
 また、図9に示すように、ドライバが正常状態の場合には、瞬目の周期や平均閉眼時間は安定した略一定値となる。一方、ドライバが異常状態の場合には、瞬目周期や平均閉眼時間は正常状態から変化して不安定に変動するものとなる。状態判定部47は、瞬目周期の変動や平均閉眼時間の変動や半眼状態の継続など開眼度の変動に基づいて、ドライバの異常状態を判定する。半眼の検出は、眼探索領域内の明暗の内、暗い部分の領域の面積変動から求められる。
 次に、ドライバの異常状態を判定する処理手順について、図10のフローチャートを参照して説明する。本処理手順は、ECU20が繰り返し実行する。
 まず、近赤外カメラ12により撮影された近赤外画像を取得するとともに(S10)、遠赤外カメラ11により撮影された遠赤外画像を取得する(S11)。S10とS11はほぼ同じタイミングであればよく順番は逆となっても問題ない。また、遠赤外カメラ11はその性格上、撮像毎ではないが時々はシャッタによりリセットする必要があるため、フレーム抜けが発生する可能性があるが、そこは適宜適切な処理をする。なお、Sは、セクションあるいはステップを意味する。
 続いて、S10で取得した近赤外画像から、顔の部品すなわち眼、鼻、口を検出する。詳しくは、近赤外画像において顔の部品を認識し、顔の部品の位置情報を取得する(S12)。続いて、S12で検出した顔の部品の配置に基づいて、顔の位置及び顔向きを検出する(S13)。検出した顔の位置が遠赤外画像内に入らない位置の場合は、遠赤外画像に基づいた処理(S14~S17)は実行しない。
 続いて、S13で検出した顔向きが、鼻腔部が見える顔向きか否か判定する(S14)。鼻腔部が見える顔向きの場合は(S14:YES)、S11で取得した遠赤外画像に基づいて呼吸状態検出を行う(S15)。呼吸状態検出の処理手順の詳細は後述する。一方、鼻腔部が見えない顔向きの場合は(S14:NO)、呼吸状態検出を行わないで、眼鏡検出に進む。
 続いて、S11で取得した遠赤外線画像から眼鏡を検出したか否か判定する(S16)。眼鏡を検出していない場合は(S16:NO)、S11で取得した遠赤外画像に基づいて瞬目状態検出を行う(S17)。瞬目状態検出の処理手順の詳細は後述する。S17の処理の後、S10で取得した近赤外画像から、ドライバの眼の開眼度を検出する(S18)。一方、眼鏡を検出した場合は(S16:YES)、S11で取得した遠赤外画像に基づいた瞬目状態検出を行わないで、S10で取得した近赤外画像から、ドライバの眼の開眼度の検出を行う(S18)。
 S10で取得した近赤外画像から、ドライバの眼の開眼度を検出するとき、S16で眼鏡を検出している場合は、S16で検出された眼鏡の有無および位置情報を用いることで、眼鏡のフレームを眼の輪郭として誤検出することを防止する。続いて、開眼度の履歴及びS18で検出した開眼度を用いて、所定期間における開眼度の変動を算出し、算出した開眼度の変動から瞬目周期を検出する(S19)。
 続いて、S15で検出した呼吸周期、及び/又は、S17及び/又はS19で検出した瞬目周期に基づいて、ドライバが異常状態か否か判定する(S20)。例えば、検出した呼吸周期及び瞬目周期を学習しておき、検出した呼吸周期と呼吸周期の学習値との差が呼吸閾値よりも大きい場合、又は検出した瞬目周期と瞬目周期の学習値との差が瞬目閾値よりも大きい場合に、ドライバが異常状態と判定する。あるいは、検出した呼吸周期の分散値が呼吸分散閾値よりも大きい場合、又は検出した瞬目周期の分散値が瞬目分散閾値よりも大きい場合に、ドライバが異常状態と判定してもよい。また、検出した呼吸周期及び瞬目周期からそれぞれ異常度合を算出するとともに、それぞれ算出した異常度合を統合し、統合した異常度合と異常閾値とを比較して、ドライバの異常状態を判定してもよい。なお、S15で呼吸状態を検出していない場合は、瞬目状態のみに基づいてドライバの異常状態を判定する。
 さらに、S13で検出した顔向きに基づいて、ドライバが異常状態か否か判定する(S20)。ドライバの顔向きが脇見をしている向きの場合は、ドライバが異常状態と判定する。
 S20でドライバが正常状態と判定した場合は(S20:NO)、本処理を終了する。S20でドライバが異常状態と判定した場合は(S20:YES)、アクチュエータ群60の各装置61~63に制御信号を送信して、各装置61~63を駆動させる(S21)。
 続いて、S11~S20の処理を繰り返して、ドライバが正常状態に復帰したか否か判定する(S22)。ドライバが正常状態に復帰した場合は(S22:YES)、本処理を終了する。ドライバが異常状態のままである場合は(S22:NO)、車両緊急停止装置64へ制御信号を送信して、車両を緊急停止させる(S23)。以上で本処理を終了する。
 次に、呼吸状態検出の処理手順について、図11のサブルーチンを参照して説明する。まず、S11で取得した遠赤外画像からマスクを検出したか否か判定する(S151)。
 マスクを検出していない場合は(S151:NO)、S12で取得した鼻の位置情報を用いて、S11で取得した遠赤外画像から鼻腔部の探索領域である鼻領域Nを抽出する(S152)。続いて、S152で抽出した鼻領域Nを探索して、鼻腔部の輪郭を検出する(S153)。2つの鼻腔部のうちの一方が鼻詰まりになっている場合もあるため、鼻腔部は左右それぞれ検出する。続いて、S153で検出した左右の鼻腔部の輪郭内である鼻腔部の画素値を平均して、画素値の平均値を左右それぞれ算出する(S154)。続いて、左右の画素平均値の履歴、及びS154で算出した左右の画素平均値を用いて、所定期間における左右の画素平均値の変動を算出し、呼吸周期を検出する。左右の鼻腔部それぞれにつて呼吸周期を検出するため、一方の鼻腔部が鼻詰まりになっていても、呼吸周期を検出できる。この後、S16の処理に進む。
 なお、所定期間における左右の画素平均値がほとんど変動していない場合は、ドライバが鼻呼吸ではなく口呼吸をしていると判断する。この場合、S11で取得した遠赤外画像から口領域Mを抽出し、口領域Mを探索して、口の輪郭を検出する。そして、口内部の画素平均値を算出するとともに、所定期間における口内部の画素平均値の変動を算出し、呼吸周期を検出する。
 また、マスクを検出している場合は(S151:YES)は、検出したマスクの鼻や口を覆っている部分について画素値の平均値を算出する(S155)。続いて、マスクの輝度平均値の履歴、及びS155で算出したマスク全体または、マスク内で鼻や口が存在すると推定される領域の画素値の平均値を用いて、所定時間における画素平均値の変動を算出し、呼吸周期を検出する。この後、S16の処理に進む。
 次に、瞬目状態検出の処理手順について、図12のサブルーチンを参照して説明する。まず、S12で取得した眼の位置情報を用いて、S11で取得した遠赤外画像から眼部の探索領域である眼領域El,Erを抽出する(S171)。続いて、S171で抽出した眼領域El,Erを探索して、左右の眼の輪郭を検出する(S172)。続いて、S172で検出した左右の眼の輪郭内である左右の眼部の画素値の平均値をそれぞれ算出する(S173)。続いて、眼部の画素平均値の履歴、及びS173で算出した眼部の画素平均値を用いて、所定期間における眼部の画素平均値の変動を算出し、瞬目周期を検出する(S174)。この後、S18の処理に進む。
 以上説明した本実施形態によれば、以下の効果を奏する。
 ・遠赤外カメラ11により、ドライバの顔表面の温度分布を表す遠赤外画像が撮影される。ドライバが異常状態になると、ドライバの顔の温度分布はドライバが正常状態のときとは局所的には異なる変動をする。よって、所定期間に逐次撮影された遠赤外画像に基づいて、ドライバの異常状態が判定できる。また、遠赤外カメラ11は外乱光の影響を受けにくい。さらに、遠赤外カメラ11は非接触センサであるため、安定してドライバの顔画像を撮影できる。したがって、所定期間におけるドライバの顔の遠赤外画像から、高精度に安定してドライバの異常状態を判定できる。
 ・呼吸の周期に対応して鼻腔部又は口内部の温度は変動する。よって、ドライバの鼻腔部又は口内部の温度変動情報からドライバの呼吸状態を検出できる。そして、検出したドライバの呼吸状態からドライバの異常状態を判定できる。
 ・瞬目周期に対応して眼部の温度は変動する。よって、ドライバの眼部の温度変動情報からドライバの瞬目状態を検出できる。そして、検出したドライバの瞬目状態からドライバの異常状態を判定できる。
 ・ドライバが異常状態になると、呼吸周期が正常時の周期から変化したり、呼吸周期がばらついたりする。よって、呼吸周期の変動に基づいて、ドライバの異常状態を判定することができる。
 ・ドライバが異常状態となると、瞬目周期が正常時の周期から変化したり、瞬目周期がばらついたりする。よって、瞬目周期の変動に基づいて、ドライバの異常状態を判定することができる。
 ・遠赤外画像は画像としては明瞭ではないため、通常の画像処理にて顔の部品を認識することは困難である。一方、近赤外画像は、顔の部品のエッジ点を抽出して顔の部品を認識しやすい。そこで、近赤外カメラ12により撮影された近赤外画像から顔の部品が認識されて、顔の部品の位置情報が取得される。そして、近赤外画像から取得された顔の部品の位置情報を用いて、遠赤外画像における眼領域El,Er、鼻領域N、及び口領域Mが抽出される。このように、遠赤外カメラ11と近赤外カメラ12を組み合わせたマルチモーダルな検出方法を用いることにより、遠赤外カメラ11のみを用いた場合よりも高精度にドライバの呼吸状態及び瞬目状態を検出できる。
 ・一般的に近赤外画像からマスクを検出することは困難であるが、遠赤外画像では呼吸に伴いマスクの鼻や口を覆う部分の温度が全体的に変動するため、マスクを高精度に検出することができる。
 ・遠赤外画像では、眼鏡はその他の顔部分よりも常に暗くなる。そのため、遠赤外画像から眼鏡を高精度に検出することができる。
 ・ドライバがマスクを着用している場合は、鼻領域N又は口領域Mを抽出できないが、呼吸に伴いマスクが全体的に温度変動する。そこで、マスクが検出された場合は、マスクを呼吸部とすることで、マスクの温度変動から呼吸状態を検出できる。
 ・ドライバが眼鏡を着用している場合は、遠赤外画像を用いて眼部の温度変動から瞬目状態を検出することができない。そこで、この場合は、近赤外画像から開眼度を検出することにより、開眼度の変動から瞬目状態を検出できる。
 ・遠赤外画像から検出された眼鏡の位置情報を用いて、近赤外画像からドライバの眼の開眼度を検出することにより、眼鏡のフレームを眼の輪郭と誤検出することを防止できる。
 (他の実施形態)
 ・呼吸検出部45は、ドライバの異常判定に用いる指標として、呼吸の深さや呼吸速度等の呼吸周期以外の呼吸状態を検出してもよい。
 ・瞬目検出部46は、ドライバの異常判定に用いる指標として、継続閉眼時間や平均開眼時間等の瞬目状態を検出してもよい。
 ・呼吸状態及び瞬目状態のいずれか一方のみを検出し、いずれか一方のみに基づいて、ドライバの異常状態を判定するようにしてもよい。
 ・ECU20の状態判定回路40は、遠赤外画像において、所定期間における温度の変動量が閾値よりも大きい温度変動領域を検出する変動領域検出部を備えていてもよい。そして、位置取得部41は、近赤外画像において、変動領域検出部により検出された温度変動領域を用いて認識領域を抽出し、抽出した認識領域において顔の部品の認識処理を行ってもよい。このようにすると、認識処理の負荷を軽減できる。
 ・ドライバ状態判定装置10は、近赤外カメラ12を備えていなくてもよい。遠赤外カメラ11により撮影された遠赤外画像のみを用いて、ドライバの異常状態を判定してもよい。この場合、遠赤外画像の時間変化をみて、温度が高低を繰り返している左右一対の部分を、眼部及び鼻腔部として検出する。また、ドライバが口呼吸をしているときには、眼よりも下で温度が高低を繰り返している部分を口内部として検出する。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

 

Claims (15)

  1.  車両のドライバの顔画像であって、前記ドライバの顔表面の温度分布を表す遠赤外画像を撮影する遠赤外カメラ(11)と、
     前記遠赤外カメラにより所定期間に逐次撮影された前記遠赤外画像に基づいて、前記ドライバの異常状態を判定する状態判定部(47)と、を備えるドライバ状態判定装置。
  2.  前記遠赤外画像における前記ドライバの鼻腔部又は口内部を呼吸部とし、前記呼吸部の温度変動情報から前記ドライバの呼吸状態を検出する呼吸検出部(45)を備え、
     前記状態判定部は、前記呼吸検出部により検出された前記呼吸状態に基づいて、前記ドライバの異常状態を判定する請求項1に記載のドライバ状態判定装置。
  3.  前記呼吸検出部は、前記呼吸状態として呼吸周期を検出し、
     前記状態判定部は、前記呼吸周期の変動に基づいて、前記ドライバの異常状態を判定する請求項2に記載のドライバ状態判定装置。
  4.  前記ドライバの顔の近赤外画像を撮影する近赤外カメラ(12)と、
     前記近赤外カメラにより撮影された前記近赤外画像から前記ドライバの鼻又は口を認識して、認識した前記鼻又は口の位置情報を取得する位置取得部(41)と、
     前記位置取得部により取得された前記位置情報を用いて、前記遠赤外画像において前記呼吸部を探索する探索領域(N,M)を抽出する領域抽出部(42)と、を備える請求項2又は3に記載のドライバ状態判定装置。
  5.  前記遠赤外画像において、前記所定期間における温度の変動量が閾値よりも大きい温度変動領域を検出する変動領域検出部(49)と、
     前記位置取得部は、前記変動領域検出部により検出された前記温度変動領域を用いて認識処理を行う請求項4に記載のドライバ状態判定装置。
  6.  前記遠赤外画像から前記ドライバの鼻及び口を覆うマスクを検出するマスク検出部(43)を備える請求項2又は3に記載のドライバ状態判定装置。
  7.  前記マスク検出部により前記マスクが検出された場合に、検出された前記マスクを前記呼吸部とする請求項6に記載のドライバ状態判定装置。
  8.  前記ドライバの顔の近赤外画像を撮影する近赤外カメラと(12)、
     前記近赤外カメラにより撮影された前記近赤外画像から前記ドライバの顔向きを検出する顔向き検出部(48)と、を備え、
     前記呼吸検出部は、前記顔向き検出部により検出された前記ドライバの顔向きが、前記遠赤外カメラに対して前記鼻腔部の見えない向きである場合に、前記呼吸状態の検出を停止する請求項2~7のいずれかに記載のドライバ状態判定装置。
  9.  前記遠赤外画像における前記ドライバの眼部の温度変動情報から前記ドライバの瞬目状態を検出する瞬目検出部(46)を備え、
     前記状態判定部は、前記瞬目検出部により検出された前記瞬目状態に基づいて、前記ドライバの異常状態を判定する請求項1~8のいずれかに記載のドライバ状態判定装置。
  10.  前記瞬目検出部は、前記瞬目状態として瞬目周期を検出し、
     前記状態判定部は、前記瞬目周期の変動に基づいて、前記ドライバの異常状態を判定する請求項9に記載のドライバ状態判定装置。
  11.  前記ドライバの顔の近赤外画像を撮影する近赤外カメラ(12)と、
     前記近赤外カメラにより撮影された前記近赤外画像から前記ドライバの眼を認識して、認識した前記眼の位置情報を取得する位置取得部(41)と、
     前記位置取得部により取得された前記位置情報に基づいて、前記遠赤外画像において
    前記眼部を探索する探索領域(El,Er)を抽出する領域抽出部と、を備える請求項9又は10に記載のドライバ状態判定装置。
  12.  前記遠赤外画像において、前記所定期間における温度の変動量が閾値よりも大きい温度変動領域を検出する変動領域検出部(49)と、
     前記位置取得部は、前記変動領域検出部により検出された前記温度変動領域を用いて認識処理を行う請求項11に記載のドライバ状態判定装置。
  13.  前記遠赤外画像から前記ドライバの眼鏡を検出する眼鏡検出部(44)を備える請求項9又は10に記載のドライバ状態判定装置。
  14.  前記ドライバの顔の近赤外画像を撮影する近赤外カメラ(12)を備え、
     前記瞬目検出部は、前記眼鏡検出部により前記眼鏡が検出された場合に、前記近赤外画像から前記ドライバの開眼度を検出し、検出した前記開眼度の変動から前記瞬目状態を検出する請求項13に記載のドライバ状態判定装置。
  15.  前記瞬目検出部は、前記眼鏡検出部により検出された前記眼鏡の位置情報を用いて、前記ドライバの開眼度を検出する請求項14に記載のドライバ状態判定装置。
PCT/JP2015/003904 2014-09-11 2015-08-03 ドライバ状態判定装置 WO2016038784A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/506,064 US10165971B2 (en) 2014-09-11 2015-08-03 Driver state determination apparatus
CN201580048564.5A CN106716515B (zh) 2014-09-11 2015-08-03 驾驶员状态判定装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-184906 2014-09-11
JP2014184906A JP6442942B2 (ja) 2014-09-11 2014-09-11 ドライバ状態判定装置

Publications (1)

Publication Number Publication Date
WO2016038784A1 true WO2016038784A1 (ja) 2016-03-17

Family

ID=55458560

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003904 WO2016038784A1 (ja) 2014-09-11 2015-08-03 ドライバ状態判定装置

Country Status (4)

Country Link
US (1) US10165971B2 (ja)
JP (1) JP6442942B2 (ja)
CN (1) CN106716515B (ja)
WO (1) WO2016038784A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6631783B2 (ja) * 2015-11-19 2020-01-15 エア・ウォーター・バイオデザイン株式会社 被験体の呼吸に起因する生体活動を計測する計測システムおよび計測方法
JP6658306B2 (ja) * 2016-05-27 2020-03-04 トヨタ自動車株式会社 音声対話システムおよび発話タイミング決定方法
JP6598748B2 (ja) * 2016-08-26 2019-10-30 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
CN110291478B (zh) * 2016-12-22 2023-09-29 斯坦福国际研究院 驾驶员监视和响应系统
CN107280673B (zh) * 2017-06-02 2019-11-15 南京理工大学 一种基于关键帧提取技术的红外成像呼吸信号检测方法
JP6931794B2 (ja) * 2017-07-19 2021-09-08 パナソニックIpマネジメント株式会社 眠気推定装置及び覚醒誘導装置
CN107480629A (zh) * 2017-08-11 2017-12-15 常熟理工学院 一种基于深度信息的疲劳驾驶检测方法及装置
US11332146B2 (en) * 2017-08-18 2022-05-17 Sony Corporation Vehicle traveling control device, vehicle traveling control method, and program
CN108050675B (zh) * 2017-12-08 2020-11-24 太仓米吉纺织有限公司 一种空调器控制方法
CN108061364B (zh) * 2017-12-08 2020-12-01 太仓米吉纺织有限公司 一种空调器控制方法
CN108036476B (zh) * 2017-12-08 2020-10-09 安徽诚意电气科技有限公司 一种空调器
CN108245154B (zh) * 2018-01-24 2020-10-09 福州大学 利用异常值检测精确确定脑电或眼电中眨眼区间的方法
JP6981277B2 (ja) * 2018-01-26 2021-12-15 富士フイルムビジネスイノベーション株式会社 検出装置、及び検出プログラム
US10867195B2 (en) * 2018-03-12 2020-12-15 Microsoft Technology Licensing, Llc Systems and methods for monitoring driver state
JP7180228B2 (ja) * 2018-09-20 2022-11-30 いすゞ自動車株式会社 車両用監視装置
KR102613205B1 (ko) * 2018-10-23 2023-12-14 현대자동차주식회사 차량 제어 시스템, 이를 포함하는 차량, 및 차량의 제어 방법
JP2020077037A (ja) * 2018-11-05 2020-05-21 株式会社デンソー 運行管理装置及び運行管理システム
US20210387640A1 (en) * 2018-11-13 2021-12-16 Sony Group Corporation Information processing apparatus, information processing method, and program
JP7251148B2 (ja) * 2019-01-09 2023-04-04 コベルコ建機株式会社 建設機械の操作制御装置
WO2020144807A1 (ja) * 2019-01-10 2020-07-16 三菱電機株式会社 呼吸判定装置、乗員状態判定装置、および、呼吸判定方法
CN109998496A (zh) * 2019-01-31 2019-07-12 中国人民解放军海军工程大学 一种自主式人体体温自动采集及呼吸监测系统和方法
JP2020149507A (ja) * 2019-03-14 2020-09-17 本田技研工業株式会社 乗員観察装置
KR20210041915A (ko) * 2019-10-08 2021-04-16 현대자동차주식회사 알코올 인터락 제어 장치 및 방법
JP7259793B2 (ja) * 2020-03-26 2023-04-18 いすゞ自動車株式会社 運転支援装置
JP7380380B2 (ja) * 2020-03-26 2023-11-15 いすゞ自動車株式会社 運転支援装置
US20210344852A1 (en) * 2020-05-04 2021-11-04 Rebellion Photonics, Inc. Apparatuses, systems, and methods for thermal imaging
FR3109876B1 (fr) * 2020-05-11 2024-04-19 Valeo Systemes Thermiques Système de détection d’une maladie
CN114515150B (zh) * 2020-11-20 2024-10-01 常州星宇车灯股份有限公司 具有面部识别和惯性测量的驾驶员情绪检测装置及方法
US11945461B2 (en) 2021-08-05 2024-04-02 Hyundai Mobis Co., Ltd. System for preventing drunk driving and method for controlling the same
CN114157807A (zh) * 2021-11-29 2022-03-08 江苏宏智医疗科技有限公司 影像获取方法及装置、可读存储介质
JP7223194B1 (ja) * 2022-05-27 2023-02-15 株式会社エクサウィザーズ 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム
DE102022206390A1 (de) * 2022-06-24 2024-01-04 Continental Engineering Services Gmbh Verfahren und Fahrzeugregelungssystem zur Einstellung angenehmer Temperaturen
DE102022206389A1 (de) * 2022-06-24 2024-01-04 Continental Engineering Services Gmbh Erfassungssystem zur Überwachung des Zustands des Fahrers eines Kraftfahrzeugs

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249197A (ja) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp 人物状態検出装置
JP2003534864A (ja) * 2000-06-08 2003-11-25 ハネウェル・インターナショナル・インコーポレーテッド 熱画像解析を使用した検出システムおよび方法
JP2004334786A (ja) * 2003-05-12 2004-11-25 Nissan Motor Co Ltd 状態検出装置及び状態検出システム
JP2007229218A (ja) * 2006-03-01 2007-09-13 Toyota Motor Corp 覚醒度推定装置及びシステム並びに方法
JP2007264785A (ja) * 2006-03-27 2007-10-11 Toyota Motor Corp 眠気検出装置
JP2009183560A (ja) * 2008-02-07 2009-08-20 Kumamoto Technology & Industry Foundation 無呼吸検知システム
JP2009261516A (ja) * 2008-04-23 2009-11-12 Toyota Motor Corp 覚醒度推定装置
JP2010128649A (ja) * 2008-11-26 2010-06-10 Nissan Motor Co Ltd 覚醒状態判断装置及び覚醒状態判断方法
JP2010194005A (ja) * 2009-02-24 2010-09-09 Seikei Gakuen 呼吸計測方法及び呼吸計測装置
JP2013156707A (ja) * 2012-01-26 2013-08-15 Nissan Motor Co Ltd 運転支援装置
JP2014504191A (ja) * 2010-12-10 2014-02-20 ティーケー ホールディングス インク. 車両運転者監視システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689241A (en) * 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
JP2008027044A (ja) * 2006-07-19 2008-02-07 Hino Motors Ltd 注意喚起装置
JP4985428B2 (ja) * 2007-02-01 2012-07-25 株式会社デンソー ドライバ管理装置および運行管理システム
US9129460B2 (en) * 2007-06-25 2015-09-08 Inthinc Technology Solutions, Inc. System and method for monitoring and improving driver behavior
CN101720026A (zh) * 2009-11-04 2010-06-02 厦门蓝斯通信有限公司 一种车辆监控装置
WO2011067788A2 (en) * 2009-12-02 2011-06-09 Tata Consultancy Services Limited A cost effective and robust system and method for eye tracking and driver drowsiness identification
JP5423724B2 (ja) * 2011-04-28 2014-02-19 トヨタ自動車株式会社 ドライバ状態判定装置
EP2754393A4 (en) * 2011-09-05 2015-05-06 Toyama Prefecture METHOD AND DEVICE FOR DETECTING SOMNOLENCE

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249197A (ja) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp 人物状態検出装置
JP2003534864A (ja) * 2000-06-08 2003-11-25 ハネウェル・インターナショナル・インコーポレーテッド 熱画像解析を使用した検出システムおよび方法
JP2004334786A (ja) * 2003-05-12 2004-11-25 Nissan Motor Co Ltd 状態検出装置及び状態検出システム
JP2007229218A (ja) * 2006-03-01 2007-09-13 Toyota Motor Corp 覚醒度推定装置及びシステム並びに方法
JP2007264785A (ja) * 2006-03-27 2007-10-11 Toyota Motor Corp 眠気検出装置
JP2009183560A (ja) * 2008-02-07 2009-08-20 Kumamoto Technology & Industry Foundation 無呼吸検知システム
JP2009261516A (ja) * 2008-04-23 2009-11-12 Toyota Motor Corp 覚醒度推定装置
JP2010128649A (ja) * 2008-11-26 2010-06-10 Nissan Motor Co Ltd 覚醒状態判断装置及び覚醒状態判断方法
JP2010194005A (ja) * 2009-02-24 2010-09-09 Seikei Gakuen 呼吸計測方法及び呼吸計測装置
JP2014504191A (ja) * 2010-12-10 2014-02-20 ティーケー ホールディングス インク. 車両運転者監視システム
JP2013156707A (ja) * 2012-01-26 2013-08-15 Nissan Motor Co Ltd 運転支援装置

Also Published As

Publication number Publication date
CN106716515A (zh) 2017-05-24
US10165971B2 (en) 2019-01-01
US20180116579A1 (en) 2018-05-03
JP2016057944A (ja) 2016-04-21
JP6442942B2 (ja) 2018-12-26
CN106716515B (zh) 2019-06-07

Similar Documents

Publication Publication Date Title
JP6442942B2 (ja) ドライバ状態判定装置
JP5109922B2 (ja) ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
Yan et al. Real-time driver drowsiness detection system based on PERCLOS and grayscale image processing
US8538044B2 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP4793269B2 (ja) 眠気検知装置
EP1732028B1 (en) System and method for detecting an eye
US9177202B2 (en) Red-eye detection device
JP5177011B2 (ja) 開眼度特定装置
CN104200192A (zh) 驾驶员注视检测系统
JP6747493B2 (ja) ドライバ状態判定装置
JP4840146B2 (ja) 眠気検知装置
WO2013157466A1 (ja) 喫煙検出装置、方法及びプログラム
US9892333B2 (en) Viewing area estimation device
JP6601351B2 (ja) 視線計測装置
JP7240910B2 (ja) 乗員観察装置
JP2009219555A (ja) 眠気検知装置、運転支援装置、眠気検知方法
JP4989249B2 (ja) 目検知装置、居眠り検知装置及び目検知装置の方法
CN107507395A (zh) 一种疲劳驾驶检测系统及方法
JP2008090452A (ja) 検出装置、方法およびプログラム
RU2413632C2 (ru) Способ предупреждения засыпания водителя транспортного средства
JP4895874B2 (ja) 目状態判別装置、目状態判別方法及び目状態判別プログラム
JP2004192552A (ja) 開閉眼判定装置
JP4781292B2 (ja) 閉眼検知装置、居眠り検知装置、閉眼検知方法及び閉眼検知のためのプログラム
JP2022152500A (ja) 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
KR20060022935A (ko) 눈 영상 기반의 졸음 감지방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15840488

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15506064

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15840488

Country of ref document: EP

Kind code of ref document: A1