WO2017208529A1 - 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体 - Google Patents

運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体 Download PDF

Info

Publication number
WO2017208529A1
WO2017208529A1 PCT/JP2017/007142 JP2017007142W WO2017208529A1 WO 2017208529 A1 WO2017208529 A1 WO 2017208529A1 JP 2017007142 W JP2017007142 W JP 2017007142W WO 2017208529 A1 WO2017208529 A1 WO 2017208529A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
state
image
estimation
unit
Prior art date
Application number
PCT/JP2017/007142
Other languages
English (en)
French (fr)
Inventor
初美 青位
航一 木下
相澤 知禎
秀人 ▲濱▼走
匡史 日向
芽衣 上谷
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US16/303,710 priority Critical patent/US20200334477A1/en
Priority to CN201780029000.6A priority patent/CN109155106A/zh
Priority to PCT/JP2017/020378 priority patent/WO2017209225A1/ja
Priority to DE112017002765.9T priority patent/DE112017002765T5/de
Publication of WO2017208529A1 publication Critical patent/WO2017208529A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Definitions

  • the present invention relates to a driver state estimation device, a driver state estimation system, a driver state estimation method, a driver state estimation program, a subject state estimation device, and a subject state estimation method for estimating the state of a driver driving a vehicle. , A subject state estimation program, and a recording medium.
  • Patent Document 1 discloses a concentration determination device that detects the driver's line of sight and estimates that the driver's concentration decreases when the stop time is long.
  • Patent Document 2 discloses an image analysis apparatus that compares a face image of a driver's license with a photographed image of a driver who is driving to make a driver's sleepiness or look aside. Further, in Patent Document 3, the driver's eyelid movement is detected, and immediately after the detection, the sleepiness of the driver is determined according to the presence or absence of a change in the driver's face angle. A drowsiness detection device that prevents erroneous detection is disclosed.
  • Patent Document 4 discloses a drowsiness determination device that determines drowsiness of a driver based on the movement of muscles around the driver's mouth. Furthermore, in Patent Document 5, a driver's face is detected in an image obtained by reducing and resizing a captured image, and specific parts (eyes, nose, mouth) of the face are extracted, and a doze or the like is performed from the movement of each specific part. A face situation determination apparatus for determining the state of the camera is disclosed.
  • Patent Document 6 discloses an image processing apparatus that periodically processes a plurality of processes such as determination of a driver's face orientation and gaze estimation.
  • the conventional apparatus for estimating the state of the driver has the following problems. That is, in each of the devices disclosed in Patent Documents 1 to 5, since the driver's state is only estimated using a single index such as a line of sight or a face inclination, for example, a panic state or It has been difficult to quickly and accurately estimate various driver conditions such as sudden onset of illness.
  • An object of the present invention is to provide a driver state estimation device, a driver state estimation system, a driver state estimation method, a driver state estimation program, a target person state, and a driver state estimation device capable of estimating various driver states with high accuracy.
  • the object is to provide an estimation device, a subject state estimation method, a subject state estimation program, and a recording medium.
  • a driver state estimation device is a driver state estimation device that estimates a driver's state using a first image obtained by continuously capturing a driver's seat of a vehicle being driven.
  • An acquisition unit, a first estimation unit, a first weight calculation unit, a second estimation unit, and a second weight calculation unit are provided.
  • the image acquisition unit acquires the first image.
  • the first estimation unit estimates the state of the driver included in the first image acquired by the image acquisition unit.
  • the first weight calculation unit calculates a weight for each of the driver's motion feature values used for estimation from the driver state estimated by the first estimation unit.
  • the second estimating unit estimates the driver's state based on the motion feature value weighted using the weight calculated by the first weight calculating unit.
  • a 2nd weight calculation part changes the weight with respect to each of the driver
  • the estimated driver's condition includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, disturbance of driving by passengers and pets, sickness, etc. It includes at least one of onset, backward, prone, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and photography.
  • the weighting performed based on the estimation result is, for example, a state in which the driver's face is not detected from the first image when the estimated driver's state is backward. The next action is expected to look forward. Therefore, weighting is performed so that detection of the presence or absence of the driver's face in the first image is emphasized.
  • the weighting process the weight for the motion feature amount is appropriately changed according to the estimation result.
  • the first estimation unit and the second estimation unit may be provided as separate estimation units, or the single estimation unit has functions of the first estimation unit and the second estimation unit. It is possible to have a configuration.
  • the first weight calculation unit and the second weight calculation unit may be provided as separate weight calculation units, respectively, or the first weight calculation unit and the second weight calculation unit may be included in a single weight calculation unit.
  • a configuration having a function of a weight calculation unit may be used.
  • a driver state estimation device is the driver state estimation device according to the first invention, further comprising a face detection unit, a facial organ point detection unit, and a facial organ state detection unit. ing.
  • the face detection unit detects a driver's face included in the first image.
  • the face organ point detector detects the position of the driver's facial organ detected by the face detector.
  • the face organ state detection unit detects the state of the organ detected by the face organ point detection unit and outputs it as an operation feature amount.
  • the above-described estimation of the driver's state is performed using detection results in the face detection unit, the face organ point detection unit, and the face organ state detection unit.
  • the state of the driver's facial organ detected by the facial organ state detector is included in the driver's face detected by the face detector, and the facial organ detected by the facial organ point detector Change of the position, for example, face orientation, line of sight, eye opening / closing, etc. are included.
  • a driver state estimation device is the driver state estimation device according to the second aspect of the present invention, in which the facial organ state detection unit is configured to determine the state of the driver's face, the opening / closing of eyes Detect changes in line of sight.
  • the driver's face direction changes from the front to the side
  • the open / closed state of the driver's eyes changes to the closed state, it is estimated that the driver is dozing.
  • the driver's line of sight is directed indoors, it is estimated that the driver is operating a smartphone or operating a car navigation system, a car audio system, or the like.
  • a driver state estimation device is the driver state estimation device according to the second or third aspect of the present invention, in which the facial organ state detection unit captures a first image continuously captured as 1 Analyzes in frame units to detect the state of the organ.
  • a change in the state of the organ of the driver's face in the face organ state detection unit is detected in units of one frame of the continuously acquired first image.
  • a driver state estimating device is the driver state estimating device according to any one of the first to fourth inventions, and detects a driver's body state. Is further provided.
  • the above-described estimation of the driver state is performed using the driver state detection unit.
  • the state of the driver's body detected by the driver state detection unit includes, for example, changes in the whole body such as the posture of the driver and the position of the upper arm, and in particular, the movement of the upper body of the driver. Means the state.
  • it is possible to estimate the driver's state by detecting a change in the driver's body state, and to estimate the final driver's state while changing the weighting based on the estimation result.
  • a driver state estimation device is the driver state estimation device according to the fifth aspect of the present invention, and is an image used for detecting the state of the driver's body detected by the driver state detection unit.
  • an image generation unit that generates a second image obtained by reducing the resolution of the first image is further provided.
  • the image used for estimating the driver's state the first image acquired by the image acquisition unit is not used as it is, but the second image obtained by reducing the resolution of the first image is used.
  • the resolution of the second image can be reduced by, for example, reducing and resizing the first image.
  • the driver's body motion that can be detected even in a low-resolution image is estimated using the second image, thereby reducing the processing burden. Can be reduced.
  • a driver state estimation device is the driver state estimation device according to the sixth aspect, wherein the driver state detection unit analyzes a plurality of frames of the second image and Detect body condition.
  • the driver state detection unit analyzes a plurality of frames of the second image obtained by reducing the resolution of the first image.
  • the driver state estimation device is the driver state estimation device according to the sixth or seventh aspect of the present invention, wherein the driver state detection unit includes the edge position of the second image, the edge gradient degree, the edge A feature of at least one of the frequencies is used to detect the state of the driver's body.
  • a driver state estimation device is the driver state estimation device according to any one of the first to eighth aspects, wherein the second estimation unit is a first acquired continuously. In the image analysis, the state of the driver is estimated in accordance with the degree of change of the driver in comparison with the image of the previous frame.
  • the driver's state is compared according to the degree of change by comparing the driver's state estimation result using the continuously acquired first image with the estimation result using the first image of the previous frame.
  • a high-precision estimation corresponding to the sudden movement of the driver is made. It can be carried out.
  • a driver state estimation device is the driver state estimation device according to any one of the first to ninth aspects, wherein the first estimation unit and the second estimation unit are Forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on, driving disturbance by passengers and pets, onset of illness, backwards, lying down, eating and drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, glasses / Estimate at least one of wearing / removing sunglasses and taking a picture.
  • the estimated driver state includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on, driving disturbance by passengers and pets, onset of illness, backward facing, kneeling, eating and drinking Smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, photography, etc.
  • a driver state estimation device is the driver state estimation device according to any one of the first to tenth aspects, wherein the first estimation unit and the second estimation unit are machine learning or Use deep running to estimate the driver's condition.
  • the state of the driver is estimated using so-called artificial intelligence (AI) including machine learning and deep learning.
  • AI artificial intelligence
  • a driver state estimation system is the driver state estimation device according to any one of the first to eleventh aspects of the invention, and the driver seat is continuously photographed, and the photographed first image is taken.
  • An imaging unit that transmits the image to the image acquisition unit.
  • a driver state estimation system including the above-described driver state estimation device and an imaging unit that supplies the first image to the driver state estimation device is configured.
  • the estimation accuracy of the driver's state can be improved as compared with the conventional case.
  • a driver state estimation method is a driver state estimation method for estimating a driver's state using a first image obtained by continuously photographing a driver's seat of a driving vehicle.
  • An acquisition step, a first estimation step, a first weight calculation step, a second estimation step, and a second weight calculation step are provided.
  • the image acquisition step acquires a first image.
  • the first estimation step the state of the driver included in the first image acquired in the image acquisition step is estimated.
  • the first weight calculation step calculates a weight for each of the driver's motion feature values used for estimation from the driver state estimated in the first estimation step.
  • the state of the driver is estimated based on the motion feature value weighted using the weight calculated in the first weight calculation step.
  • the weight for each of the driver's motion feature values used for estimation is changed from the driver state estimated in the second estimation step.
  • the estimated driver's condition includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, disturbance of driving by passengers and pets, sickness, etc. It includes at least one of onset, backward, prone, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and photography.
  • the weighting performed based on the estimation result is, for example, a state in which the driver's face is not detected from the first image when the estimated driver's state is backward. The next action is expected to look forward. Therefore, weighting is performed so that detection of the presence or absence of the driver's face in the first image is emphasized.
  • the weighting process the weight for the motion feature amount is appropriately changed according to the estimation result.
  • a driver state estimation program is a driver state estimation program for estimating a driver's state using a first image obtained by continuously photographing a driver's seat of a driving vehicle.
  • a computer is caused to execute a driver state estimation method including an acquisition step, a first estimation step, a first weight calculation step, a second estimation step, and a second weight calculation step.
  • the image acquisition step acquires a first image.
  • the first estimation step the state of the driver included in the first image acquired in the image acquisition step is estimated.
  • the first weight calculating step calculates a weight for each of the driver's motion feature values used for estimation.
  • the state of the driver is estimated based on the motion feature value weighted using the weight calculated in the first weight calculation step.
  • the weight for each of the driver's motion feature values used for estimation is changed from the driver state estimated in the second estimation step.
  • it is a driver state estimation program that causes a computer to execute the driver state estimation method, and uses the first image acquired from the imaging unit that continuously captures the driver's seat while driving the vehicle.
  • weighting is performed based on the estimation result so that the change of the state can be accurately grasped when performing the next estimation according to the state of the driver estimated immediately before.
  • the state of is estimated.
  • operator's state is estimated again.
  • the estimated driver's condition includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, disturbance of driving by passengers and pets, sickness, etc. It includes at least one of onset, backward, prone, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and photography.
  • the weighting performed based on the estimation result is, for example, a state in which the driver's face is not detected from the first image when the estimated driver's state is backward. The next action is expected to look forward. Therefore, weighting is performed so that detection of the presence or absence of the driver's face in the first image is emphasized.
  • the weight for the motion feature amount is appropriately changed according to the estimation result.
  • a recording medium stores the driver state estimation program according to the fourteenth aspect.
  • it is a recording medium storing the above-described driver state estimation program, and the above-described driver state estimation method is implemented by executing the driver state estimation program on a computer.
  • a subject state estimation device is a subject state estimation device that estimates a subject's state using a first image obtained by continuously photographing places where the subject should be.
  • the image acquisition unit acquires the first image.
  • the first estimation unit estimates the state of the subject included in the first image acquired by the image acquisition unit.
  • a 1st weight calculation part calculates the weight with respect to each of the subject's motion feature-value used for estimation from the state of the object person estimated in the 1st estimation part.
  • the second estimation unit estimates the state of the subject based on the motion feature amount weighted using the weight calculated by the first weight calculation unit.
  • a 2nd weight calculation part changes the weight with respect to each of the subject's motion feature-value used for estimation from the state of the subject estimated in the 2nd estimation part.
  • the state of the target person when estimating the state of the target person using the first image acquired from the imaging unit that continuously captures the place where the target person should be, such as a driver's seat driving the vehicle, weighting is performed based on the estimation result so that the change in the state can be accurately grasped, and the driver state is estimated again. And based on the estimation result of the 2nd time, after changing the weight with respect to an operation
  • the target person includes, for example, a driver who is driving a vehicle, a worker who is working in a facility such as a factory, a care recipient who is in a care facility, and the like.
  • the estimated state of the subject includes, for example, various operations by the subject, attachment / detachment of glasses / sunglasses, photography, eating and drinking, smoking, leaning, etc., onset of illness, backward facing, prone, dizziness, At least one of a change in health condition including abnormal behavior is included.
  • the weighting performed based on the estimation result is, for example, a state in which the driver's face is not detected from the first image when the estimated driver's state is backward. The next action is expected to look forward. Therefore, weighting is performed so that detection of the presence or absence of the driver's face in the first image is emphasized. On the other hand, in the state where the driver looks back, for example, the importance of detection is low with respect to other elements such as the driver's face direction, line of sight, and eye opening / closing, so that the weighting is processed to be lighter. . In the weight calculation, the weight for the motion feature amount is appropriately changed according to the estimation result.
  • the estimation of the next acquired first image is performed while changing the weight according to the state of the target person estimated using the first image including the place where the continuously shot target person should be.
  • a subject state estimation method is a subject state estimation method for estimating a subject's state using a first image obtained by continuously photographing places where the subject should be, wherein image acquisition is performed.
  • the image acquisition step acquires a first image.
  • the state of the subject included in the first image acquired in the image acquisition step is estimated.
  • a weight for each of the motion feature quantities of the subject used for estimation is calculated from the state of the subject estimated in the first estimation step.
  • the second estimation step the state of the subject is estimated based on the motion feature amount weighted using the weight calculated in the first weight calculation step.
  • the second weight calculation step changes the weight for each of the motion characteristics of the subject used for estimation from the state of the subject estimated in the second estimation step.
  • the state of the target person when estimating the state of the target person using the first image acquired from the imaging unit that continuously captures the place where the target person should be, such as a driver's seat driving the vehicle, weighting is performed based on the estimation result so that the change in the state can be accurately grasped, and the driver state is estimated again. And based on the estimation result of the 2nd time, after changing the weight with respect to an operation
  • the target person includes, for example, a driver who is driving a vehicle, a worker who is working in a facility such as a factory, a care recipient who is in a care facility, and the like.
  • the estimated state of the subject includes, for example, various operations by the subject, attachment / detachment of glasses / sunglasses, photography, eating and drinking, smoking, leaning, etc., onset of illness, backward facing, prone, dizziness, At least one of a change in health condition including abnormal behavior is included.
  • the weighting performed based on the estimation result is, for example, a state in which the driver's face is not detected from the first image when the estimated driver's state is backward. The next action is expected to look forward. Therefore, weighting is performed so that detection of the presence or absence of the driver's face in the first image is emphasized. On the other hand, in the state where the driver looks back, for example, the importance of detection is low with respect to other elements such as the driver's face direction, line of sight, and eye opening / closing, so that the weighting is processed to be lighter. . In the weight calculation, the weight for the motion feature amount is appropriately changed according to the estimation result.
  • the estimation of the next acquired first image is performed while changing the weight according to the state of the target person estimated using the first image including the place where the continuously shot target person should be.
  • a subject state estimation program is a subject state estimation program for estimating a subject's state using a first image obtained by continuously photographing places where the subject should be.
  • Causing the computer to execute a subject state estimation method including a step, a first estimation step, a first weight calculation step, a second estimation step, and a second weight calculation step.
  • the image acquisition step acquires a first image.
  • the first estimation step the state of the subject included in the first image acquired in the image acquisition step is estimated.
  • a weight for each of the motion feature quantities of the subject used for estimation is calculated from the state of the subject estimated in the first estimation step.
  • the state of the subject is estimated based on the motion feature amount weighted using the weight calculated in the first weight calculation step.
  • the second weight calculation step changes the weight for each of the motion characteristics of the subject used for estimation from the state of the subject estimated in the second estimation step.
  • the state of the target person when estimating the state of the target person using the first image acquired from the imaging unit that continuously captures the place where the target person should be, such as a driver's seat driving the vehicle, weighting is performed based on the estimation result so that the change in the state can be accurately grasped, and the driver state is estimated again. And based on the estimation result of the 2nd time, after changing the weight with respect to an operation
  • the target person includes, for example, a driver who is driving a vehicle, a worker who is working in a facility such as a factory, a care recipient who is in a care facility, and the like.
  • the estimated state of the subject includes, for example, various operations by the subject, attachment / detachment of glasses / sunglasses, photography, eating and drinking, smoking, leaning, etc., onset of illness, backward facing, prone, dizziness, At least one of a change in health condition including abnormal behavior is included.
  • the weighting performed based on the estimation result is, for example, a state in which the driver's face is not detected from the first image when the estimated driver's state is backward. The next action is expected to look forward. Therefore, weighting is performed so that detection of the presence or absence of the driver's face in the first image is emphasized. On the other hand, in the state where the driver looks back, for example, the importance of detection is low with respect to other elements such as the driver's face direction, line of sight, and eye opening / closing, so that the weighting is processed to be lighter. . In the weight calculation, the weight for the motion feature amount is appropriately changed according to the estimation result.
  • the estimation of the next acquired first image is performed while changing the weight according to the state of the target person estimated using the first image including the place where the continuously shot target person should be.
  • a recording medium stores a subject state estimation program according to the eighteenth aspect.
  • it is a recording medium storing the above-described subject state estimation program, and the subject state estimation method described above is implemented by executing the subject state estimation program on a computer.
  • the estimation of the next acquired first image is performed while changing the weight according to the state of the target person estimated using the first image including the place where the continuously shot target person should be.
  • a driver state estimation device is a driver state estimation device that estimates the state of a driver of a vehicle using a first image obtained by continuously capturing the state of a driver's seat of a driving vehicle.
  • An image acquisition unit, a face detection unit, a facial organ point detection unit, a facial organ state detection unit, an image generation unit, a driver state detection unit, and an estimation unit are provided.
  • the image acquisition unit acquires the first image.
  • the face detection unit detects a driver's face included in the first image acquired by the image acquisition unit.
  • the face organ point detector detects the position of the driver's facial organ detected by the face detector.
  • the face organ state detection unit detects the state of the organ detected by the face organ point detection unit.
  • the image generation unit generates a second image in which the resolution of the first image is reduced.
  • the driver state detection unit detects the state of the driver's body using the second image generated by the image generation unit.
  • the estimation unit estimates the driver's state by combining the detection results of the facial organ state detection unit and the driver state detection unit.
  • the state of the facial organ is determined using the first image as it is. While detecting, the state of a driver
  • the estimated driver's condition includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, disturbance of driving by passengers and pets, sickness, etc. It includes at least one of onset, backward, prone, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and photography.
  • the first image having a high resolution is used to detect a minute change in the state of the organ of the driver's face, and the resolution is lower than that of the first image to detect a change in the movement of the driver's body.
  • the second image it is possible to reduce the processing time required for estimating the driver's state and reduce the processing load.
  • a driver state estimation device is the driver state estimation device according to the twentieth aspect, wherein the facial organ state detection unit detects the driver's face orientation, eye opening / closing, and line of sight. To detect.
  • the driver's face direction, eye opening / closing, and line-of-sight change are detected as the driver state detected by the face organ state detection unit.
  • the driver's face direction changes from the front to the side
  • the open / closed state of the driver's eyes changes to the closed state, it is estimated that the driver is dozing.
  • the driver's line of sight is directed indoors, it is estimated that the driver is operating a smartphone or operating a car navigation system, a car audio system, or the like.
  • a driver state estimation device is the driver state estimation device according to the twentieth or twenty-first invention, wherein the facial organ state detection unit is configured to capture a first image captured continuously. Analyzes in frame units to detect the state of the organ. Here, a change in the state of the organ of the driver's face in the face organ state detection unit is detected in units of one frame of the continuously acquired first image.
  • a driver state estimation device is the driver state estimation device according to any one of the twentieth to twenty-second aspects, wherein the driver state detection unit includes a plurality of frames of the second image. To detect the state of the driver's body.
  • the driver state detection unit analyzes the second image obtained by reducing the resolution of the first image in units of a plurality of frames.
  • the processing load at the time of estimating the driver's state can be reduced by analyzing the second image having a resolution lower than that of the first image in units of a plurality of frames.
  • a driver state estimation device is the driver state estimation device according to any one of the twentieth to twenty-third inventions, wherein the driver state detection unit is configured to detect an edge position of the second image, The state of the driver's body is detected using a feature amount related to at least one of the edge gradient degree and the edge frequency.
  • feature amounts such as an edge position, an edge gradient degree, and an edge frequency in the second image are used.
  • the driver state estimation device is the driver state estimation device according to any one of the twentieth to twenty-fourth aspects of the present invention, wherein the estimation unit includes the first image obtained continuously and As a result of analyzing at least one of the second images, the state of the driver is estimated according to the degree of change in the organ of the driver's face and the body of the driver in comparison with the image of the previous frame.
  • the estimation result of the driver's state using the first image acquired continuously is compared with the estimation result using the first image or the second image of the previous frame, according to the degree of change.
  • Estimate the driver's condition For example, when the driver develops a sudden illness and makes a big movement, or when the driver is obstructed by a passenger or pet, etc., a high-precision estimation corresponding to the sudden movement of the driver is made. It can be carried out.
  • a driver state estimation device is the driver state estimation device according to any one of the twentieth to twenty-fifth aspects of the present invention, the first image, the second image, and the estimation result of the estimation unit.
  • a storage unit for storing at least one of them is further provided.
  • various data such as the first image, the second image, and the estimation result are stored in the storage unit.
  • a driver state estimation device is the driver state estimation device according to any one of the twentieth to twenty-sixth aspects of the present invention, wherein the estimation unit includes a driver's forward gaze, drowsiness, aside look, Putting on and taking off clothes, telephone operation, leaning on, obstructing driving by passengers and pets, onset of illness, backward, lying down, eating and drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, photography Estimate at least one of them.
  • the estimated driver status includes driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning, driving disturbance by passengers and pets, onset of illness, backwards, kneeling, eating and drinking, smoking , Dizziness, abnormal behavior, car navigation / audio operation, attachment / detachment of glasses / sunglasses, photography, etc.
  • driver operator states can be estimated correctly.
  • a driver state estimating device is the driver state estimating device according to any one of the twentieth to twenty-seventh aspects, wherein the estimating unit utilizes machine learning or deep running, Estimate the driver's condition.
  • the state of the driver is estimated using so-called artificial intelligence (AI) including machine learning and deep learning.
  • AI artificial intelligence
  • a driver state estimation system is the driver state estimation device according to any one of the twentieth to twenty-eighth aspects of the invention, and the state of the driver's seat is continuously photographed and the first photographed.
  • An imaging unit that transmits an image to the image acquisition unit.
  • a driver state estimation system including the above-described driver state estimation device and an imaging unit that supplies the first image to the driver state estimation device is configured.
  • the first image having a high resolution is used to detect a minute change in the state of the organ of the driver's face, and the resolution is lower than that of the first image to detect a change in the movement of the driver's body.
  • the second image it is possible to reduce the processing time required for estimating the driver's state and reduce the processing load.
  • a driver state estimation method is a driver state estimation method for estimating the state of a driver of a vehicle using a first image obtained by continuously photographing the driver's seat of the vehicle being driven.
  • An image acquisition step, a face detection step, a face organ point detection step, a face organ state detection step, an image generation step, a driver state detection step, and an estimation step are provided.
  • the image acquisition step acquires a first image.
  • the driver's face included in the first image acquired in the image acquisition step is detected.
  • the face organ point detecting step detects the position of the driver's facial organ detected in the face detecting step.
  • the facial organ state detection step the state of the organ detected in the facial organ point detection step is detected.
  • the image generation step generates a second image in which the resolution of the first image is reduced.
  • the driver state detection step detects the state of the driver's body using the second image generated in the image generation step.
  • the estimation step estimates the driver's state by combining the detection results in the facial organ state detection step and the driver state detection step.
  • the state of the facial organ is determined using the first image as it is. While detecting, the state of a driver
  • the estimated driver's condition includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, disturbance of driving by passengers and pets, sickness, etc. It includes at least one of onset, backward, prone, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and photography.
  • the first image having a high resolution is used to detect a minute change in the state of the organ of the driver's face, and the resolution is lower than that of the first image to detect a change in the movement of the driver's body.
  • the second image it is possible to reduce the processing time required for estimating the driver's state and reduce the processing load.
  • a driver state estimation program is a driver state estimation program for estimating the state of a driver of a vehicle using a first image obtained by continuously photographing the driver's seat of the vehicle being driven.
  • a driver state estimation comprising: an image acquisition step, a face detection step, a facial organ point detection step, a facial organ state detection step, an image generation step, a driver state detection step, and an estimation step
  • the image acquisition step acquires a first image.
  • the face detection step the driver's face included in the first image acquired in the image acquisition step is detected.
  • the face organ point detecting step detects the position of the driver's facial organ detected in the face detecting step.
  • the facial organ state detection step the state of the organ detected in the facial organ point detection step is detected.
  • the image generation step generates a second image in which the resolution of the first image is reduced.
  • the driver state detection step detects the state of the driver's body using the second image generated in the image generation step.
  • the estimation step estimates the driver's state by combining the detection results in the facial organ state detection step and the driver state detection step.
  • driver state estimation program that causes a computer to execute the driver state estimation method, and uses the first image acquired from the imaging unit that continuously captures the driver's seat while driving the vehicle.
  • the state of the facial organ is detected using the first image as it is, and the state of the driver's body is detected using the second image having a lower resolution than the first image.
  • the change in the state of the facial organ detected using the first image and the change in the state of the body detected using the second image are fused to estimate the driver's state.
  • the estimated driver's condition includes, for example, driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, disturbance of driving by passengers and pets, sickness, etc. It includes at least one of onset, backward, prone, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and photography.
  • the first image having a high resolution is used to detect a minute change in the state of the organ of the driver's face, and the resolution is lower than that of the first image to detect a change in the movement of the driver's body.
  • the second image it is possible to reduce the processing time required for estimating the driver's state and reduce the processing load.
  • a recording medium according to a thirty-second invention stores a driver state estimation program according to the thirty-first invention.
  • it is a recording medium storing the above-described driver state estimation program, and the above-described driver state estimation method is implemented by executing the driver state estimation program on a computer.
  • the first image having a high resolution is used to detect a minute change in the state of the organ of the driver's face, and the resolution is lower than that of the first image to detect a change in the movement of the driver's body.
  • the second image it is possible to reduce the processing time required for estimating the driver's state and reduce the processing load.
  • various driver states with higher speed, lower load, and higher accuracy than in the past.
  • the driver state estimating apparatus According to the driver state estimating apparatus according to the present invention, it is possible to estimate the state of a wide variety of driving drivers with higher accuracy than in the past.
  • FIG. 3 is a diagram showing a method for detecting a driver's face direction, line-of-sight direction, eye open / closed degree, etc. in a plurality of stages in the facial organ state detection unit of the driver state estimation apparatus of FIG. 2.
  • FIG. 10 is a diagram illustrating a state where the driver looks back and a weighting process after estimation as a specific example of FIG. 9.
  • the flowchart which shows the flow of the driver
  • the block diagram which shows the structure of the driver state estimation apparatus which concerns on other embodiment of this invention, and a driver state estimation system provided with the same.
  • a driver state estimation device (subject state estimation device) 10 a driver state estimation system 20 including the same, and a driver state estimation method according to an embodiment of the present invention will be described with reference to FIGS. 1 to 14. Is as follows.
  • the driver state estimation system 20 of the present embodiment includes a driver state estimation device 10, a camera (imaging unit) 21, and an automatic driving control device 22.
  • the driver state estimation device 10 continuously photographs the place (driver's seat) where the driver (target person) D1 should be, using the camera 21 installed around the driver's seat of the passenger car (vehicle) C1 that is being driven.
  • the state of the driver D1 of the passenger car C1 is estimated using the first image (moving image or the like).
  • the detailed configuration of the driver state estimation device 10 will be described in detail later.
  • the camera 21 is installed in the upper front part of the driver's seat of the passenger car C1, and photographs the driver's seat where the driver D1 should be from the front. And the camera 21 transmits the image image
  • the automatic driving control device 22 is a device for controlling the driving system and the control system of the passenger car C1 to automate the driving operation without depending on the manual driving operation by the driver D1.
  • the automatic driving control device 22 can perform automatic driving control based on the estimation result in the driver state estimating device 10.
  • the passenger car C1 is provided with one camera 21 and is operated by the driver D1.
  • the passenger car C1 is equipped with an automatic driving control device 22. Thereby, as for the passenger car C1, automatic driving control and manual driving by the driver D1 are switched according to an estimation result in the driver state estimation device 10, a setting by car navigation, or the like.
  • the state of the driver estimated in the present embodiment includes, for example, driver's forward gaze, drowsiness, looking aside, clothes attaching / detaching, telephone operation, leaning on the window / armrest, driving by a passenger or pet
  • the driver state estimation device 10 acquires a first image obtained by continuously capturing the driver's seat where the driver D1 should be from the camera 21, and estimates the state of the driver D1.
  • the driver state estimation device 10 includes an image acquisition unit 11, a face detection unit 12, a facial organ point detection unit 13, a facial organ state detection unit 14, an image generation unit 15, and a driver state detection.
  • Unit 16 storage unit 17, estimation unit (first estimation unit and second estimation unit) 18, and weight calculation unit (first weight calculation unit and second weight calculation unit) 19.
  • the image acquisition unit 11 acquires image data of a first image continuously captured by the camera 21 installed at the front upper part of the driver's seat of the passenger car C1. Then, the image acquisition unit 11 transmits the acquired image data to the face detection unit 12, the image generation unit 15, and the storage unit 17.
  • the face detection unit 12 detects the presence of the face of the driver D1 and the position of the face in the first image using the image data of the first image transmitted from the image acquisition unit 11. Then, the face detection unit 12 transmits the image data of the first image and the detection result of the face of the driver D1 to the facial organ point detection unit 13.
  • the face organ point detector 13 detects the position of each organ (eye, mouth, nose, ear, etc.) included in the face of the driver D1 detected by the face detector 12 in the first image. Further, the face organ point detector 13 may detect the outline of the entire face or a part of the face as a face organ in an auxiliary manner. Then, the facial organ point detection unit 13 transmits to the facial organ state detection unit 14 the first image and the detection result regarding the position of each organ of the face of the driver D1 in the first image.
  • the facial organ state detection unit 14 estimates the state of the facial organ of the driver D1 in the first image whose position is detected by the facial organ point detection unit 13. Specifically, as shown in FIG. 3, the facial organ state detection unit 14 includes an eye opening / closing detection unit 14a, a line-of-sight detection unit 14b, and a face direction detection unit 14c. Then, the eye opening / closing detection unit 14a, the line-of-sight detection unit 14b, and the face direction detection unit 14c respectively detect the eye open / closed degree, the direction of the line of sight, the face direction, etc. of the driver D1 (locally in FIG. 4). See info).
  • the estimation unit 18 described later estimates the state of the driver D1 in the first image (wakefulness, concentration, drowsiness, poor physical condition, etc.). Information can be obtained. Then, the facial organ state detection unit 14 transmits the detection result to the feature vector generation unit 18a.
  • the detection of the facial organ state in the facial organ state detection unit 14 is preferably performed for each frame of the first image continuously captured by the camera 21 and acquired by the image acquisition unit 11.
  • an organ that moves finely every frame such as an eye
  • a specific detection method related to the face direction, line-of-sight direction, and eye open / closed degree of the driver D1 in the facial organ state detection unit 14 will be described with reference to FIG.
  • the facial organ state detection unit 14 determines the orientation of the face of the driver D1 in the first image in three vertical directions in two axial directions, the vertical and horizontal directions, It is detected as a frequency in 5 horizontal steps.
  • the face organ state detection unit 14 detects the line-of-sight direction of the driver D1 as the frequency in three vertical levels and five horizontal levels in the two axial directions of the vertical and horizontal directions, similar to the direction of the face.
  • the facial organ state detection unit 14 detects the opening / closing degree of the eyes of the driver D1 detected in the first image in 10 stages.
  • the image generation unit 15 receives the data of the first image transmitted from the image acquisition unit 11, performs a resolution reduction process, and generates a second image having a resolution lower than that of the first image.
  • a resolution reduction process in the image generation unit 15 for example, a nearest neighbor method, a bilinear interpolation method, a bicubic method, or the like can be used. Then, the image generation unit 15 transmits data of the second image obtained by performing the resolution reduction processing on the first image to the driver state detection unit 16 and the storage unit 17.
  • the driver state detection unit 16 detects the state of the driver D1 based on information such as the movement and posture of the driver D1, using the second image obtained by performing the resolution reduction processing on the first image. To do.
  • the state of the driver D1 detected here includes, for example, the movement and posture of the driver (see the global information in FIG. 4). That is, since the driver state detection unit 16 mainly detects the movement of the body of the driver D1, the driver state detection unit 16 uses a high-resolution image as compared with the state detection of the facial organs in the face organ state detection unit 14. There seems to be little need to detect fine movements. Therefore, in the present embodiment, the detection by the driver state detection unit 16 uses a second image having a resolution lower than that of the first image used by the face organ state detection unit 14.
  • the driver state detection unit 16 transmits the detection result to the feature vector generation unit 18a.
  • a process of extracting an image feature amount by edge extraction of the second image when the driver state detection unit 16 detects the state of the driver D1 using the second image will be described with reference to FIG. It is as follows.
  • the driver state detection unit 16 has an image feature extraction unit 16a.
  • the image feature extraction unit 16a When the luminance value of the second image obtained by reducing the resolution of the first image captured by the camera 21 is input, the image feature extraction unit 16a is obtained by prior machine learning or the like, or a pre-designed image filter. Edges are extracted using (for example, 3 ⁇ 3 size). Then, the image feature extraction unit 16a compares the luminance value and the information about the extracted edge with the luminance value of the second image of the previous frame and the information about the extracted edge, respectively, and obtains a difference between the frames.
  • the previous frame is a frame at the previous time as viewed from the frame currently being processed or a frame having a predetermined time interval.
  • the extraction of the image feature amount in the image feature extraction unit 16a may be performed using an edge gradient degree, an edge frequency, or the like in addition to the edge of the second image.
  • the detection result output from the facial organ state detection unit 14 and the detection result output from the driver state detection unit 16 are collectively referred to as a driver's motion feature amount. That is, the motion feature amount is information including both information related to the state of the driver's facial organ obtained from the facial organ and information such as the body movement and posture of the driver D1 obtained as the image feature amount.
  • the feature vector generation unit 18a receives the detection results of the facial organ state detection unit 14 and the driver state detection unit 16, and generates a feature vector. Further, the feature vector generation unit 18 a performs weighting for each element of the feature vector based on the weight calculated by the weight calculation unit 19 and transmits the feature vector to the estimation unit 18.
  • the storage unit 17 has. Various data including the state of the facial organ received from the facial organ state detection unit 14, the image data of the second image received from the image generation unit 15, the weighting data set in the weight calculation unit 19, and the like are stored. As for the image data of the second image, it is only necessary to detect a rough body movement, and only the image data of the second image several frames before may be stored.
  • the estimation unit 18 receives the output of the feature vector generation unit 18a and estimates the state of the driver D1. Specifically, the estimation unit 18 includes information on the degree of eye opening / closing, the line-of-sight direction, the face direction, etc., among the facial organs of the driver D1 detected by the facial organ state detection unit 14, and driver state detection. The state of the driver D1 is estimated using information related to the movement, posture, and the like of the driver D1 detected by the unit 16.
  • the state of the driver D ⁇ b> 1 estimated by the estimation unit 18 includes, for example, driver's forward gaze, drowsiness, looking aside, clothes attaching / detaching, telephone operation, window side / armrest At least one of: leaning on, obstructing driving by passengers and pets, disease onset, backwards, kneeling, eating and drinking, smoking, dizziness, abnormal behavior, car navigation / audio operations, wearing / removing glasses / sunglasses, and photography included.
  • the facial organ state detection unit 14 detects the eye open / closed degree of the driver D1 as local information.
  • the driver state detection unit 16 may detect that there is no movement of the driver D1.
  • the facial organ state detection unit 14 detects the face direction and the line-of-sight direction of the driver D1, as local information, for estimating the state in which the driver D1 is driving aside.
  • the driver state detection unit 16 may detect the posture of the driver D1.
  • the facial organ state detection unit 14 determines the direction of the face of the driver D1 as local information. And the driver state detector 16 may detect the attitude of the driver D1 as global information. For estimating the state where the driver D1 leans on the elbow toward the window (door) side, as shown in FIG. 7, the facial organ state detection unit 14 uses the driver D1's information as local information. It is only necessary to detect that the position of the face is not at a predetermined position, and the driver state detection unit 16 detects the movement / posture of the driver D1 as global information.
  • the facial organ state detector 14 detects the orientation of the face of the driver D1.
  • the direction of the line of sight is detected, and the driver state detection unit 16 may detect the attitude of the driver D1 as global information.
  • the facial organ state detection unit 14 uses the driver D1's local information as local information.
  • the direction of the face, the line-of-sight direction, and the opening / closing of the eyes may be detected, and the driver state detection unit 16 may detect the posture of the driver D1 as global information.
  • the feature vector generator 18a generates and outputs a histogram for each facial organ state. Each of these is an element of a feature vector.
  • the image feature amount extracted by using the second image generated by the image generation unit 15 and having a resolution lower than that of the first image is input to the feature vector generation unit 18a.
  • the extraction of the image feature amount is performed using the plurality of frames using the second image subjected to the low resolution processing in the driver state detection unit 16 (image feature extraction unit 16a) described above.
  • the plurality of frames used at this time may be two frames whose times are adjacent to each other, but generally, the driver's body changes more slowly than the facial organ, so two frames having a predetermined time interval are used. A frame is preferred.
  • the second image used for detection in the driver state detection unit 16 is lower than the first image used for detection in the facial organ state detection unit 14. Since the resolution process is performed, the burden of the state estimation process of the driver D1 by the estimation unit 18 can be reduced. As a result, various states of the driver D1 can be performed at high speed and with high accuracy.
  • the estimation in the estimation unit 18 may be performed using an artificial intelligence (AI) function including machine learning and deep learning.
  • AI artificial intelligence
  • the estimation unit 18 transmits the estimation result to the weight calculation unit 19 and the automatic driving control device 22.
  • the estimation in the estimation unit 18 is repeatedly performed until the estimation of the state of the driver D1 exceeds a predetermined accuracy while changing the weighting value set in the weight calculation unit 19 described later.
  • the estimation accuracy may be stored in the storage unit 17 as a threshold value that has been digitized in advance.
  • the weight calculating unit 19 uses items (facial organs) that are regarded as important when estimating the state of the driver D1 using the next acquired image. The weighting is performed so that the movement / posture of the driver D1 is prioritized.
  • the weight calculation unit 19 determines the facial organ or driver to be detected using the next image in the facial organ state detection unit 14 and the driver state detection unit 16 according to the estimation result in the estimation unit 18. Weighting is performed on items such as movement and posture. For example, when the estimation result in the estimation unit 18 is a retrospective reflection of the driver D1, all or only part of the face of the driver D1 is not detected in the first image. It seems not. Therefore, the weight calculation unit 19 estimates that the motion detected in the next image of the driver D1 is a look back, and performs weighting so that the weight of the presence / absence of the face increases. On the other hand, the weight calculation unit 19 determines that priority is not given to detection of the facial organs of the driver D1 in a state of looking back, and performs weighting so that the eyes and eyes open / close weights are reduced.
  • the weighting process in the weight calculation unit 19 will be specifically described with reference to FIGS. 9 and 10 as follows. That is, as shown in FIG. 9, the weight calculation unit 19 uses the input variable when performing estimation using the image of the next frame based on the output (estimation result) from the estimation unit 18 using the image of the previous frame. Change the weight of.
  • the driver state vector y is a feature vector x
  • Dx D is an identification matrix (weighting coefficient) obtained by machine learning
  • the feature vector x includes items of information (face presence / absence, orientation, line of sight, eye opening / closing, etc.) relating to the face of the driver D1 input to the histogram calculation unit 14d and driving input to the image feature extraction unit 16a. It is obtained using information about the body of the person D1 (image brightness value, etc.). At that time, each element of the feature vector x is weighted.
  • the index of the largest element in the driver state vector y calculated using the feature vector x is output as an estimation result.
  • ArgMax (y (i)) 2.
  • Each element of the driver state vector y is associated with the driver's state, the first element is “forward gaze”, the second element is “sleepiness”, the third element is “side look”, and so on. If it is associated, an output of 2 means that the estimation result is “sleepiness”.
  • the estimation part 18 outputs the state looked back as an estimation result as the state of the optimal driver
  • the estimation unit 18 can predict an action of turning back as the next change of the driver D1. For this reason, it is considered unnecessary to detect the facial organ until the face of the driver D1 is detected in the image. Therefore, in the driver state estimation device 10 of the present embodiment, for the image of the next frame, the weights are gradually reduced with respect to the characteristics obtained from the information about the face such as the face direction, the line-of-sight direction, and the opening and closing of eyes. Go.
  • the weight may be increased for the information regarding the presence or absence of the face.
  • the process can be advanced so as not to detect items related to other faces until the face of the driver D1 is detected.
  • the weights of items such as the face direction, the line-of-sight direction, and the eye open / closed degree are increased based on the output result.
  • a detection result in the time series of the driver D1 in a state where the driver D1 is estimated to be prone is described with reference to FIG. That is, in the state where the driver D1 is prone, the face is no longer detected from the detected state, the movement stops after a large movement, and the posture also shifts from the normal driving posture to the forward leaning state.
  • the estimation unit 18 detects the face direction and the line-of-sight direction using the first image, and detects a change in the movement of the driver D1 using the second image, and the degree of concentration of the driver D1. Is estimated.
  • the direction of the face of the driver D1 has changed from the front to the right, and the line-of-sight direction is also the frame No. 2 to No. 4 and after moving to the right, 6 once returned to the previous frame. It changes to the right again after 7.
  • the movement of the driver D1 is also the frame No. 4 to No. It grows up to 5.
  • the driver state estimation method is performed according to the flowchart shown in FIG.
  • step S ⁇ b> 11 the image acquisition unit 11 acquires first image data continuously acquired by the camera 21.
  • step S12 the face detection unit 12 detects the face of the driver D1 included in the first image.
  • step S13 it is determined whether or not a face has been detected in the first image. If a face is detected, the process proceeds to step S14. If a face is not detected, the process of step S14 is skipped and the process proceeds to step S17. In this case, the results of face orientation detection, eye open / closed degree detection, and gaze detection are set to zero.
  • step S14 with respect to the face detected by the face detector 12, the face organ point detector 13 detects the position of each organ, and the face organ state detector 14 detects the state of each organ.
  • the specifically detected state of the driver D1 includes a face direction, an eye open / closed degree, a line-of-sight direction, and the like.
  • the process (1st flow F1) from step S12 to step S14 is implemented using the 1st image continuously image
  • step S15 the image generation unit 15 performs a process of reducing the resolution of the first image, and generates a low-resolution image (second image).
  • step S ⁇ b> 16 the driver state detection unit 16 detects the body state of the driver D ⁇ b> 1 using the second image generated in units of frames in the image generation unit 15.
  • the specific state of the body of the driver D1 detected by the image feature amount includes the posture of the driver D1, the movement of the upper body, the presence or absence of the driver, and the like.
  • the image feature extraction unit 16a outputs the image feature amount calculated based on the second image as the body state of the driver D1.
  • step S ⁇ b> 17 motion feature amounts are calculated based on the detection results of the facial organ state detection unit 14 and the driver state detection unit 16.
  • step S18a a weighting process is performed on each motion feature amount to generate a feature vector. Steps S17 and 18a are processed by the feature vector generation unit 18a.
  • the estimation unit 18 estimates the state of the driver D1 based on the feature vector generated by the feature vector generation unit 18a.
  • the estimated state of the driver D1 as described above, for example, the driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window side / armrest, passengers and pets Such as obstruction of driving, onset of illness, backward, prone, eating and drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, wearing / removing glasses / sunglasses, and taking pictures (see FIG. 4).
  • step S18b based on the estimation result in the estimation unit 18, the weight calculation unit 19 gives priority to items that should be regarded as important in the state estimation of the driver D1 using the image after the next frame. Calculate the weight. Specifically, as described above, for example, when it is estimated that the driver D1 looks back, in the estimation using the image after the next frame, the driver D1 looks back again. It is important to detect the face. Therefore, the weight calculation unit 19 temporarily stops detection of the state of the facial organ (eye open / closed degree, line-of-sight direction, etc.), and performs only face detection processing until a face is detected in the image.
  • the state of the facial organ eye open / closed degree, line-of-sight direction, etc.
  • step S ⁇ b> 20 it is determined whether or not to end the estimation in accordance with a command (not shown) from the driver state estimation system 20.
  • the process is terminated, and if it is determined that the state of the driver D1 needs to be estimated, the process returns to step S11 and the above process is repeated.
  • the weight calculation unit 19 can change the weighting based on the estimation result in the estimation unit 18 and repeatedly estimate the state of the driver D1. .
  • various states of the driver D1 can be estimated with high accuracy.
  • the state of the facial organ is detected using the first image acquired from the camera 21 that continuously captures the driver's seat where the driver D1 should be.
  • the body state of the driver D1 is detected using the second image having a lower resolution than the first image. Then, the change in the state of the facial organ detected using the first image and the change in the state of the body detected using the second image are merged to estimate the state of the driver D1.
  • the first image with high resolution is used for detecting a fine change in the state of the facial organ of the driver D1, and the first image is used for detecting a change in the body movement of the driver D1.
  • a second image having a resolution lower than that of the image is used.
  • the driver state estimation device 10 of the present embodiment an example in which the state estimation of the driver D1 is performed using artificial intelligence (AI function) such as deep learning will be described with reference to FIG. It is as follows. That is, in this embodiment, when the driver state detection unit 16 detects the state of the driver D1 using the low-resolution second image generated by reducing and resizing the first image in the image generation unit 15. The state of the driver is estimated in time series while utilizing the deep learning shown in FIG.
  • AI function artificial intelligence
  • the AI function is utilized by using the output of the intermediate layer provided between the output layer and the output layer as the next input. Then, the second image is compared with the image of the previous frame, and it is determined whether or not to save the detection information or the like in the storage unit 17 according to the amount of change.
  • the driver state detection unit 16 can improve the accuracy of the state estimation of the driver D1 by utilizing the past detection result for future detection or the like.
  • the estimation unit 18 can estimate the state of the driver D1 using the detection result obtained by utilizing the AI function in the driver state detection unit 16. Therefore, even in this case, the estimation unit 18 can indirectly estimate the state of the driver D1 by utilizing the AI function.
  • the present invention may be realized as a driver state estimation program that causes a computer to execute the driver state estimation method.
  • the driver state estimation program stored in the storage means such as the RAM is read by the CPU, and the functional block shown in FIG. 2 is generated, so that the above-described driver state estimation method can be executed. it can.
  • the present invention may be realized as a recording medium storing the driver state estimation program.
  • the driver's estimated state includes driver's forward gaze, drowsiness, looking aside, putting on and taking off clothes, telephone operation, leaning on the window / armrest, driving disturbance by passengers and pets, onset of illness
  • driver's forward gaze drowsiness
  • looking aside putting on and taking off clothes
  • telephone operation leaning on the window / armrest
  • driving disturbance by passengers and pets onset of illness
  • he explained taking a back view, lying down, eating, drinking, smoking, dizziness, abnormal behavior, car navigation / audio operation, attaching / detaching glasses / sunglasses, taking a picture, etc.
  • the present invention is not limited to this.
  • the driver's face and its organs are detected to detect the driver's face orientation, changes in line of sight, eye open / close, etc.
  • the driver's state may be estimated by monitoring a biological reaction including elements other than the above, such as the number of blinks of the driver, the speed of breathing, and the pulse.
  • the present invention may be realized as a driver state estimation system 120 that does not have an automatic driving control device.
  • the estimation result of the driver's condition for example, automatically issuing a warning about falling asleep or dangerous driving, or in the case of sudden illness, making a request for an ambulance request, etc. Should be implemented.
  • an estimation result can be utilized effectively.
  • the present invention may be realized as a driver state estimation device 210 and a driver state estimation system 220 that do not have a weight calculation unit.
  • the organ of the driver's face and its position are detected using the first image, the state of each organ is detected, and the driving is performed using the second image having a lower resolution than the first image.
  • the state of the driver's body is detected, and the driver's state is estimated by fusing these detection results.
  • the first image having a high resolution is used to detect a minute change in the state of the organ of the driver's face, and the resolution is lower than that of the first image to detect a change in the movement of the driver's body. Since the second image is used, the processing time required for estimating the driver's state can be shortened and the processing load can be reduced. As a result, it is possible to estimate various driver states with higher speed, lower load, and higher accuracy than in the past.
  • the AI function such as a deep learning
  • the AI function was utilized and demonstrated and demonstrated the example which implements estimation of a driver
  • the present invention is not limited to this.
  • the use of the AI function is not essential, and the driver's state may be estimated without using the AI function.
  • the driver D1 is in a state of the driver D1 using an image of the driver's seat where the driver D1 should be continuously photographed by one camera 21 installed in the passenger car C1.
  • An example of performing estimation has been described.
  • the present invention is not limited to this.
  • the driver's state may be estimated using images continuously captured by a plurality of cameras installed in a passenger car. In this case, by installing a plurality of cameras so that the driver can be photographed from different angles, it is possible to detect changes in the driver that could not be recognized in an image photographed by one camera. Can be estimated with higher accuracy.
  • the subject whose state is estimated is not limited to a driver of a passenger car, but may be a driver of a truck, a bus, a ship, various work vehicles, a bullet train, a train, or the like.
  • the driver state estimation device has an effect of being able to estimate the state of a wide variety of driving drivers with higher accuracy than before, so that the state of a subject other than the driver is estimated. As widely applicable.
  • Driver state estimation device DESCRIPTION OF SYMBOLS 11 Image acquisition part 12 Face detection part 13 Face organ point detection part 14 Face organ state detection part 14a Eye opening / closing detection part 14b Eye gaze detection part 14c Face direction detection part 14d Histogram calculation part 15 Image generation part 16 Driver state detection part 16a Image Feature extraction unit 17 Storage unit 18 Estimation unit (first estimation unit and second estimation unit) 18a Feature vector generator 19 Weight calculator (first weight calculator and second weight calculator) 20 Driver state estimation system 21 Camera (imaging part) 22 Automatic Driving Control Device 120 Driver State Estimation System 210 Driver State Estimation Device 220 Driver State Estimation System C1 Passenger Car (Vehicle) D1 Driver (subject) F1 first flow F2 second flow

Abstract

運転者状態推定装置(10)は、画像取得部(11)、推定部(18)、重み算出部(19)を備えている。画像取得部(11)は、第1画像を取得する。推定部(18)は、取得された第1画像に含まれる運転者の状態を推定する。重み算出部(19)は、推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれ対する重みを算出する。推定部(18)は、算出された重みを用いて重み付けされた動作特徴量に基づいて、運転者の状態を推定する。重み算出部(19)は、推定部(18)において推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを変化させる。

Description

運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体
 本発明は、車両を運転する運転者の状態を推定する運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体に関する。
 近年、車両を運転する運転者を撮影した画像を画像処理することで、居眠り運転、脇見運転、体調急変等の運転者の状態を推定することで、重大事故の発生を防止するための装置が用いられている。
 例えば、特許文献1には、車両の運転者の視線を検出して、停留時間が長い場合には、運転者の集中度が低下してものと推定する集中度判定装置について開示されている。
 また、特許文献2には、車両の運転者の免許証の顔画像と運転中の運転者の撮影画像とを比較して、運転者の眠気や脇見判定を行う画像解析装置について開示されている。
 さらに、特許文献3には、運転者のまぶたの動きを検出し、検出直後に運転者の顔の角度の変化の有無に応じて、運転者の眠気を判定することで、下方視を眠気と誤検出してしまうことを防止する眠気検出装置について開示されている。
 また、特許文献4には、運転者の口の周りの筋肉の動きに基づいて、運転者の眠気判定を行う眠気判定装置について開示されている。
 さらに、特許文献5には、撮影画像を縮小リサイズした画像中の運転者の顔を検出し、さらに顔の特定部位(目、鼻、口)を抽出して、各特定部位の動きから居眠り等の状態を判定する顔状況判定装置について開示されている。
 また、特許文献6には、運転者の顔の向きの判定、視線の推定等の複数の処理を周期的に順に処理する画像処理装置について開示されている。
特開2014-191474号公報 特開2012-84068号公報 特開2011-48531号公報 特開2010-122897号公報 特開2008-171108号公報 特開2008-282153号公報
 しかしながら、上記従来の運転者の状態を推定する装置では、以下に示すような問題点を有している。
 すなわち、上記特許文献1~5に開示された各装置では、運転者の状態を、視線、顔の傾き等の単一の指標を用いて推定しているだけであるため、例えば、パニック状態や突然の病気発症等、多種多様な運転者の状態を、高速かつ正確に推定することは困難であった。
 また、上記特許文献6では、運転者の顔の向き、視線推定等、複数の処理を周期的に順次処理していくため、突然の病気発症等の突発的な事象に対応できないおそれがある。
 本発明の課題は、多種多様な運転者の状態を高精度に推定することが可能な運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体を提供することにある。
(課題を解決するための手段)
 第1の発明に係る運転者状態推定装置は、運転中の車両の運転席を連続的に撮影した第1画像を用いて、運転者の状態を推定する運転者状態推定装置であって、画像取得部と、第1推定部と、第1重み算出部と、第2推定部と、第2重み算出部と、を備えている。画像取得部は、第1画像を取得する。第1推定部は、画像取得部において取得された第1画像に含まれる運転者の状態を推定する。第1重み算出部は、第1推定部において推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを算出する。第2推定部は、第1重み算出部において算出された重みを用いて重み付けされた動作特徴量に基づいて、運転者の状態を推定する。第2重み算出部は、第2推定部において推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを変化させる。
 ここでは、車両を運転中の運転席を連続的に撮影する撮像部から取得した第1画像を用いて、運転者の状態を推定する際に、直前に推定された運転者の状態に応じて次の推定を行うにあたり、状態の変化を的確に捉えられるように推定結果に基づいて重み付けを行い、再度、運転者の状態の推定を行う。そして、2回目の推定結果に基づいて、再度、動作特徴量に対する重みを変化させた上で、再度、運転者の状態の推定を行う。
 ここで、推定される運転者の状態には、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 また、推定結果に基づいて行われる重み付けとは、例えば、推定される運転者の状態が後ろ向きであった場合には、第1画像中から運転者の顔が検出されていない状態であるため、次の動作は、前方への振り返りと予想される。よって、第1画像中における運転者の顔の有無の検出を重要視するように重み付けされる。一方で、運転者が後方を振り返った状態では、例えば、運転者の顔の向き、視線、眼の開閉等の他の要素について検出の重要度が低いため、重み付けを軽くするように処理される。そして、重み付け処理は、推定結果に応じて、適宜、動作特徴量に対する重みを変化させる。
 なお、第1推定部および第2推定部は、それぞれ別々の推定部として設けられた構成であってもよいし、単一の推定部に、第1推定部および第2推定部の機能を持たせた構成であってもよい。同様に、第1重み算出部および第2重み算出部は、それぞれ別々の重み算出部として設けられた構成であってもよいし、単一の重み算出部に、第1重み算出部および第2重み算出部の機能を持たせた構成であってもよい。
 これにより、連続的に撮影された運転席を含む第1画像を用いて推定された運転者の状態に応じて、重み付けを変化させながら、次に取得された第1画像の推定を行うことで、運転者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な運転中の運転者の状態を精度良く、推定することができる。
 第2の発明に係る運転者状態推定装置は、第1の発明に係る運転者状態推定装置であって、顔検出部と、顔器官点検出部と、顔器官状態検出部と、をさらに備えている。顔検出部は、第1画像に含まれる運転者の顔を検出する。顔器官点検出部は、顔検出部において検出された運転者の顔の器官の位置を検出する。顔器官状態検出部は、顔器官点検出部において検出された器官の状態を検出して動作特徴量として出力する。
 ここでは、上述した運転者の状態の推定を、顔検出部、顔器官点検出部、顔器官状態検出部における検出結果を用いて行う。
 ここで、顔器官状態検出部において検出される運転者の顔の器官の状態とは、顔検出部において検出された運転者の顔に含まれ、顔器官点検出部において検出された顔の器官の位置の変化であって、例えば、顔の向き、視線、眼の開閉等が含まれる。
 これにより、運転者の顔の器官の変化を検出して運転者の状態を推定するとともに、推定結果に基づいて重み付けを変化させながら、最終的な運転者の状態を推定することができる。
 この結果、従来よりも高精度に運転中の運転者の状態を推定することができる。
 第3の発明に係る運転者状態推定装置は、第2の発明に係る運転者状態推定装置であって、顔器官状態検出部は、器官の状態として、運転者の顔の向き、眼の開閉、視線の変化を検出する。
 これにより、例えば、運転者の顔の向きが正面から側方へ変化した場合には脇見状態であることが推定される。また、運転者の眼の開閉状態が閉状態に変化した場合には、運転者が居眠り運転をしていると推定される。さらに、運転者の視線が室内に向いている場合には、運転者がスマートフォンを操作している、あるいはカーナビゲーション・カーオーディ等を操作していることが推定される。
 第4の発明に係る運転者状態推定装置は、第2または第3の発明に係る運転者状態推定装置であって、顔器官状態検出部は、連続的に撮影された第1画像を、1フレーム単位で解析して、器官の状態を検出する。
 ここでは、顔器官状態検出部における運転者の顔の器官の状態変化を、連続的に取得された第1画像の1フレーム単位で検出する。
 これにより、動画等のように連続的に撮影された第1画像における1フレーム単位での運転者の顔の器官の状態変化を検出することで、顔の器官の細かな変化を検出して、運転者の状態を精度良く推定することができる。
 第5の発明に係る運転者状態推定装置は、第1から第4の発明のいずれか1つに係る運転者状態推定装置であって、運転者の体の状態を検出する運転者状態検出部を、さらに備えている。
 ここでは、上述した運転者の状態の推定を、運転者状態検出部を用いて行う。
 ここで、運転者状態検出部において検出される運転者の体の状態とは、例えば、運転者の姿勢、上腕部の位置等の体全般の変化が含まれ、特に、運転者の上半身の動作の状態を意味する。
 これにより、運転者の体の状態変化を検出して運転者の状態を推定するとともに、推定結果に基づいて重み付けを変化させながら、最終的な運転者の状態を推定することができる。
 この結果、従来よりも高精度に運転中の運転者の状態を推定することができる。
 第6の発明に係る運転者状態推定装置は、第5の発明に係る運転者状態推定装置であって、運転者状態検出部において検出される運転者の体の状態の検出に使用される画像として、第1画像を低解像度化した第2画像を生成する画像生成部を、さらに備えている。
 ここでは、運転者の状態の推定に使用される画像として、画像取得部において取得された第1画像をそのまま用いるのではなく、第1画像を低解像度化した第2画像を用いる。
 ここで、第2画像は、例えば、第1画像を縮小リサイズ処理することで低解像度化することができる。
 これにより、運転者の顔とは異なり、低解像度画像であっても検出が可能な運転者の体の動き等について、第2画像を用いて運転者の状態推定を行うことで、処理負担を軽減することができる。
 第7の発明に係る運転者状態推定装置は、第6の発明に係る運転者状態推定装置であって、運転者状態検出部は、第2画像の複数のフレームを解析して、運転者の体の状態を検出する。
 ここでは、運転者状態検出部が、第1画像を低解像度化した第2画像の複数のフレームを解析する。
 これにより、運転者の体の動き等については、第1画像よりも解像度が低い第2画像の複数のフレームを解析することで、運転者の状態推定時における処理負担を軽減することができる。
 第8の発明に係る運転者状態推定装置は、第6または第7の発明に係る運転者状態推定装置であって、運転者状態検出部は、第2画像のエッジ位置、エッジ勾配度合い、エッジ周波数のうちの少なくとも1つに関する特徴量を用いて、運転者の体の状態を検出する。
 ここでは、運転者状態検出部における運転者の体の状態変化の検出に際して、第2画像中におけるエッジ位置、エッジ勾配度合い、エッジ周波数等の特徴量を用いる。
 これにより、第2画像中におけるエッジ部分の変化を検出して、運転者の体の動き(運転者の状態)を推定することができる。
 第9の発明に係る運転者状態推定装置は、第1から第8の発明のいずれか1つに係る運転者状態推定装置であって、第2推定部は、連続的に取得された第1画像の解析において、前フレームの画像との比較において運転者の変化の度合いに応じて、運転者の状態を推定する。
 ここでは、連続的に取得された第1画像を用いた運転者の状態推定結果と、前フレームの第1画像を用いた推定結果と比較して、変化の度合いに応じて運転者の状態を推定する。
 これにより、例えば、運転者が急病を発症して大きな動きをした場合や、同乗者やペット等によって運転妨害にあった場合等、運転者の急な動きにも対応して高精度な推定を行うことができる。
 第10の発明に係る運転者状態推定装置は、第1から第9の発明のいずれか1つに係る運転者状態推定装置であって、第1推定部および第2推定部は、運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つを推定する。
 ここでは、推定される運転者状態として、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影等が含まれる。
 これにより、多種多様な運転者の状態を、正確に推定することができる。
 第11の発明に係る運転者状態推定装置は、第1から第10の発明のいずれか1つに係る運転者状態推定装置であって、第1推定部および第2推定部は、機械学習またはディープランニングを活用して、運転者の状態推定を行う。
 ここでは、機械学習やディープラーニングを含むいわゆる人工知能(AI)を用いて、運転者の状態を推定する。
 これにより、過去の推定結果を用いて自動的に学習して推定を実施するため、より高精度な推定を実施することができる。
 第12の発明に係る運転者状態推定システムは、第1から第11の発明のいずれか1つに係る運転者状態推定装置と、運転席を連続的に撮影するとともに、撮影した第1画像を画像取得部へ送信する撮像部と、を備えている。
 ここでは、上述した運転者状態推定装置と、運転者状態推定装置に対して第1画像を供給する撮像部と、を備えた運転者状態推定システムを構成する。
 これにより、連続的に撮影された運転席を含む第1画像を用いて推定された運転者の状態に応じて、重み付けを変化させながら、次に取得された第1画像の推定を行うことで、運転者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な運転中の運転者の状態を精度良く、推定することが可能なシステムを構築できる。
 第13の発明に係る運転者状態推定方法は、運転中の車両の運転席を連続的に撮影した第1画像を用いて、運転者の状態を推定する運転者状態推定方法であって、画像取得ステップと、第1推定ステップと、第1重み算出ステップと、第2推定ステップと、第2重み算出ステップと、を備えている。画像取得ステップは、第1画像を取得する。第1推定ステップは、画像取得ステップにおいて取得された第1画像に含まれる運転者の状態を推定する。第1重み算出ステップは、第1推定ステップにおいて推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを算出する。第2推定ステップは、第1重み算出ステップにおいて算出された重みを用いて重み付けされた動作特徴量に基づいて、運転者の状態を推定する。第2重み算出ステップは、第2推定ステップにおいて推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを変化させる。
 ここでは、車両を運転中の運転席を連続的に撮影する撮像部から取得した第1画像を用いて、運転者の状態を推定する際に、直前に推定された運転者の状態に応じて次の推定を行うにあたり、状態の変化を的確に捉えられるように推定結果に基づいて重み付けを行い、再度、運転者の状態の推定を行う。そして、2回目の推定結果に基づいて、再度、動作特徴量に対する重みを変化させた上で、再度、運転者の状態の推定を行う。
 ここで、推定される運転者の状態には、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 また、推定結果に基づいて行われる重み付けとは、例えば、推定される運転者の状態が後ろ向きであった場合には、第1画像中から運転者の顔が検出されていない状態であるため、次の動作は、前方への振り返りと予想される。よって、第1画像中における運転者の顔の有無の検出を重要視するように重み付けされる。一方で、運転者が後方を振り返った状態では、例えば、運転者の顔の向き、視線、眼の開閉等の他の要素について検出の重要度が低いため、重み付けを軽くするように処理される。そして、重み付け処理は、推定結果に応じて、適宜、動作特徴量に対する重みを変化させる。
 これにより、連続的に撮影された運転席を含む第1画像を用いて推定された運転者の状態に応じて、重み付けを変化させながら、次に取得された第1画像の推定を行うことで、運転者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な運転中の運転者の状態を精度良く、推定することができる。
 第14の発明に係る運転者状態推定プログラムは、運転中の車両の運転席を連続的に撮影した第1画像を用いて、運転者の状態を推定する運転者状態推定プログラムであって、画像取得ステップと、第1推定ステップと、第1重み算出ステップと、第2推定ステップと、第2重み算出ステップと、を備えた運転者状態推定方法をコンピュータに実行させる。画像取得ステップは、第1画像を取得する。第1推定ステップは、画像取得ステップにおいて取得された第1画像に含まれる運転者の状態を推定する。第1重み算出ステップは、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを算出する。第2推定ステップは、第1重み算出ステップにおいて算出された重みを用いて重み付けされた動作特徴量に基づいて、運転者の状態を推定する。第2重み算出ステップは、第2推定ステップにおいて推定された運転者の状態から、推定に用いられる運転者の動作特徴量のそれぞれに対する重みを変化させる。
 ここでは、上記運転者状態推定方法をコンピュータに実行させる運転者状態推定プログラムであって、車両を運転中の運転席を連続的に撮影する撮像部から取得した第1画像を用いて、運転者の状態を推定する際に、直前に推定された運転者の状態に応じて次の推定を行うにあたり、状態の変化を的確に捉えられるように推定結果に基づいて重み付けを行い、再度、運転者の状態の推定を行う。そして、2回目の推定結果に基づいて、再度、動作特徴量に対する重みを変化させた上で、再度、運転者の状態の推定を行う。
 ここで、推定される運転者の状態には、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 また、推定結果に基づいて行われる重み付けとは、例えば、推定される運転者の状態が後ろ向きであった場合には、第1画像中から運転者の顔が検出されていない状態であるため、次の動作は、前方への振り返りと予想される。よって、第1画像中における運転者の顔の有無の検出を重要視するように重み付けされる。一方で、運転者が後方を振り返った状態では、例えば、運転者の顔の向き、視線、眼の開閉等の他の要素について検出の重要度が低いため、重み付けを軽くするように処理される。そして、重み算出は、推定結果に応じて、適宜、動作特徴量に対する重みを変化させる。
 これにより、連続的に撮影された運転席を含む第1画像を用いて推定された運転者の状態に応じて、重み付けを変化させながら、次に取得された第1画像の推定を行うことで、運転者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な運転中の運転者の状態を精度良く、推定することができる。
 第15の発明に係る記録媒体は、第14の発明に係る運転者状態推定プログラムを格納している。
 ここでは、上述した運転者状態推定プログラムを格納した記録媒体であって、上記運転者状態推定プログラムがコンピュータに実行されることにより、上述した運転者状態推定方法が実施される。
 これにより、連続的に撮影された運転席を含む第1画像を用いて推定された運転者の状態に応じて、重み付けを変化させながら、次に取得された第1画像の推定を行うことで、運転者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な運転中の運転者の状態を精度良く、推定することができる。
 第16の発明に係る対象者状態推定装置は、対象者が居るべき場所を連続的に撮影した第1画像を用いて、対象者の状態を推定する対象者状態推定装置であって、画像取得部と、第1推定部と、第1重み算出部と、第2推定部と、第2重み算出部と、を備えている。画像取得部は、第1画像を取得する。第1推定部は、画像取得部において取得された第1画像に含まれる対象者の状態を推定する。第1重み算出部は、第1推定部において推定された対象者の状態から、推定に用いられる対象者の動作特徴量のそれぞれに対する重みを算出する。第2推定部は、第1重み算出部において算出された重みを用いて重み付けされた動作特徴量に基づいて、対象者の状態を推定する。第2重み算出部は、第2推定部において推定された対象者の状態から、推定に用いられる対象者の動作特徴量のそれぞれに対する重みを変化させる。
 ここでは、例えば、車両を運転中の運転席等の対象者が居るべき場所を連続的に撮影する撮像部から取得した第1画像を用いて、当該対象者の状態を推定する際に、直前に推定された運転者の状態に応じて次の推定を行うにあたり、状態の変化を的確に捉えられるように推定結果に基づいて重み付けを行い、再度、運転者の状態の推定を行う。そして、2回目の推定結果に基づいて、再度、動作特徴量に対する重みを変化させた上で、再度、運転者の状態の推定を行う。
 ここで、上記対象者には、例えば、車両を運転中の運転者、工場等の施設で作業中の作業者、介護施設等へ入居している要介護者等が含まれる。
 また、推定される対象者の状態には、例えば、対象者による各種操作、眼鏡・サングラスの着脱、写真撮影、飲食、喫煙、寄り掛かり等の動作や、病気の発症、後ろ向き、突っ伏し、めまい、異常行動を含む健康状態の変化等のうちの少なくとも1つが含まれる。
 また、推定結果に基づいて行われる重み付けとは、例えば、推定される運転者の状態が後ろ向きであった場合には、第1画像中から運転者の顔が検出されていない状態であるため、次の動作は、前方への振り返りと予想される。よって、第1画像中における運転者の顔の有無の検出を重要視するように重み付けされる。一方で、運転者が後方を振り返った状態では、例えば、運転者の顔の向き、視線、眼の開閉等の他の要素について検出の重要度が低いため、重み付けを軽くするように処理される。そして、重み算出は、推定結果に応じて、適宜、動作特徴量に対する重みを変化させる。
 これにより、連続的に撮影された対象者が居るべき場所を含む第1画像を用いて推定された対象者の状態に応じて、重みを変化させながら、次に取得された第1画像の推定を行うことで、対象者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な対象者の動きや健康状態等を精度良く、推定することができる。
 第17の発明に係る対象者状態推定方法は、対象者が居るべき場所を連続的に撮影した第1画像を用いて、対象者の状態を推定する対象者状態推定方法であって、画像取得ステップと、第1推定ステップと、第1重み算出ステップと、第2推定ステップと、第2重み算出ステップと、を備えている。画像取得ステップは、第1画像を取得する。第1推定ステップは、画像取得ステップにおいて取得された第1画像に含まれる対象者の状態を推定する。第1重み算出ステップは、第1推定ステップにおいて推定された対象者の状態から、推定に用いられる対象者の動作特徴量のそれぞれに対する重みを算出する。第2推定ステップは、第1重み算出ステップにおいて算出された重みを用いて重み付けされた動作特徴量に基づいて、対象者の状態を推定する。第2重み算出ステップは、第2推定ステップにおいて推定された対象者の状態から、推定に用いられる対象者の動作特徴量のそれぞれに対する重みを変化させる。
 ここでは、例えば、車両を運転中の運転席等の対象者が居るべき場所を連続的に撮影する撮像部から取得した第1画像を用いて、当該対象者の状態を推定する際に、直前に推定された運転者の状態に応じて次の推定を行うにあたり、状態の変化を的確に捉えられるように推定結果に基づいて重み付けを行い、再度、運転者の状態の推定を行う。そして、2回目の推定結果に基づいて、再度、動作特徴量に対する重みを変化させた上で、再度、運転者の状態の推定を行う。
 ここで、上記対象者には、例えば、車両を運転中の運転者、工場等の施設で作業中の作業者、介護施設等へ入居している要介護者等が含まれる。
 また、推定される対象者の状態には、例えば、対象者による各種操作、眼鏡・サングラスの着脱、写真撮影、飲食、喫煙、寄り掛かり等の動作や、病気の発症、後ろ向き、突っ伏し、めまい、異常行動を含む健康状態の変化等のうちの少なくとも1つが含まれる。
 また、推定結果に基づいて行われる重み付けとは、例えば、推定される運転者の状態が後ろ向きであった場合には、第1画像中から運転者の顔が検出されていない状態であるため、次の動作は、前方への振り返りと予想される。よって、第1画像中における運転者の顔の有無の検出を重要視するように重み付けされる。一方で、運転者が後方を振り返った状態では、例えば、運転者の顔の向き、視線、眼の開閉等の他の要素について検出の重要度が低いため、重み付けを軽くするように処理される。そして、重み算出は、推定結果に応じて、適宜、動作特徴量に対する重みを変化させる。
 これにより、連続的に撮影された対象者が居るべき場所を含む第1画像を用いて推定された対象者の状態に応じて、重みを変化させながら、次に取得された第1画像の推定を行うことで、対象者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な対象者の動きや健康状態等を精度良く、推定することができる。
 第18の発明に係る対象者状態推定プログラムは、対象者が居るべき場所を連続的に撮影した第1画像を用いて、対象者の状態を推定する対象者状態推定プログラムであって、画像取得ステップと、第1推定ステップと、第1重み算出ステップと、第2推定ステップと、第2重み算出ステップと、を備えた対象者状態推定方法をコンピュータに実行させる。画像取得ステップは、第1画像を取得する。第1推定ステップは、画像取得ステップにおいて取得された第1画像に含まれる対象者の状態を推定する。第1重み算出ステップは、第1推定ステップにおいて推定された対象者の状態から、推定に用いられる対象者の動作特徴量のそれぞれに対する重みを算出する。第2推定ステップは、第1重み算出ステップにおいて算出された重みを用いて重み付けされた動作特徴量に基づいて、対象者の状態を推定する。第2重み算出ステップは、第2推定ステップにおいて推定された対象者の状態から、推定に用いられる対象者の動作特徴量のそれぞれに対する重みを変化させる。
 ここでは、例えば、車両を運転中の運転席等の対象者が居るべき場所を連続的に撮影する撮像部から取得した第1画像を用いて、当該対象者の状態を推定する際に、直前に推定された運転者の状態に応じて次の推定を行うにあたり、状態の変化を的確に捉えられるように推定結果に基づいて重み付けを行い、再度、運転者の状態の推定を行う。そして、2回目の推定結果に基づいて、再度、動作特徴量に対する重みを変化させた上で、再度、運転者の状態の推定を行う。
 ここで、上記対象者には、例えば、車両を運転中の運転者、工場等の施設で作業中の作業者、介護施設等へ入居している要介護者等が含まれる。
 また、推定される対象者の状態には、例えば、対象者による各種操作、眼鏡・サングラスの着脱、写真撮影、飲食、喫煙、寄り掛かり等の動作や、病気の発症、後ろ向き、突っ伏し、めまい、異常行動を含む健康状態の変化等のうちの少なくとも1つが含まれる。
 また、推定結果に基づいて行われる重み付けとは、例えば、推定される運転者の状態が後ろ向きであった場合には、第1画像中から運転者の顔が検出されていない状態であるため、次の動作は、前方への振り返りと予想される。よって、第1画像中における運転者の顔の有無の検出を重要視するように重み付けされる。一方で、運転者が後方を振り返った状態では、例えば、運転者の顔の向き、視線、眼の開閉等の他の要素について検出の重要度が低いため、重み付けを軽くするように処理される。そして、重み算出は、推定結果に応じて、適宜、動作特徴量に対する重みを変化させる。
 これにより、連続的に撮影された対象者が居るべき場所を含む第1画像を用いて推定された対象者の状態に応じて、重みを変化させながら、次に取得された第1画像の推定を行うことで、対象者の状態の推定精度を従来よりも向上させることができる。
 この結果、従来よりも多種多様な対象者の動きや健康状態等を精度良く、推定することができる。
 第19の発明に係る記録媒体は、第18の発明に係る対象者状態推定プログラムを格納している。
 ここでは、上述した対象者状態推定プログラムを格納した記録媒体であって、上記対象者状態推定プログラムがコンピュータに実行されることにより、上述した対象者状態推定方法が実施される。
 これにより、連続的に撮影された対象者が居るべき場所を含む第1画像を用いて推定された対象者の状態に応じて、重みを変化させながら、次に取得された第1画像の推定を行うことで、対象者の状態の推定精度を従来よりも向上させることができる。
 この結果、運転者や作業者、要介護者等を含む対象者の状態を従来よりも精度良く、推定することができる。
 第20の発明に係る運転者状態推定装置は、運転中の車両の運転席の様子を連続的に撮影した第1画像を用いて、車両の運転者の状態を推定する運転者状態推定装置であって、画像取得部と、顔検出部と、顔器官点検出部と、顔器官状態検出部と、画像生成部と、運転者状態検出部と、推定部と、を備えている。画像取得部は、第1画像を取得する。顔検出部は、画像取得部において取得された第1画像に含まれる運転者の顔を検出する。顔器官点検出部は、顔検出部において検出された運転者の顔の器官の位置を検出する。顔器官状態検出部は、顔器官点検出部において検出された器官の状態を検出する。画像生成部は、第1画像の解像度を低下させた第2画像を生成する。運転者状態検出部は、画像生成部において生成された第2画像を用いて、運転者の体の状態を検出する。推定部は、顔器官状態検出部と運転者状態検出部とにおける検出結果を組み合わせて運転者の状態を推定する。
 ここでは、車両を運転中の運転席を連続的に撮影する撮像部から取得した第1画像を用いて運転者の状態を推定する際に、第1画像をそのまま用いて顔の器官の状態を検出するとともに、第1画像よりも低解像度化された第2画像を用いて運転者の体の状態を検出する。そして、第1画像を用いて検出された顔の器官の状態の変化と、第2画像を用いて検出された体の状態の変化とを融合させて、運転者の状態の推定を行う。
 ここで、推定される運転者の状態には、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 これにより、運転者の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いることで、運転者の状態推定に必要な処理時間を短縮するとともに、処理負担を軽減することができる。
 この結果、多種多様な運転者の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することができる。
 第21の発明に係る運転者状態推定装置は、第20の発明に係る運転者状態推定装置であって、顔器官状態検出部は、運転者の顔の向き、眼の開閉、視線の変化を検出する。
 ここでは、顔器官状態検出部において検出される運転者の状態として、運転者の顔の向き、眼の開閉、視線の変化を検出する。
 これにより、例えば、運転者の顔の向きが正面から側方へ変化した場合には脇見状態であることが推定される。また、運転者の眼の開閉状態が閉状態に変化した場合には、運転者が居眠り運転をしていると推定される。さらに、運転者の視線が室内に向いている場合には、運転者がスマートフォンを操作している、あるいはカーナビゲーション・カーオーディ等を操作していることが推定される。
 第22の発明に係る運転者状態推定装置は、第20または第21の発明に係る運転者状態推定装置であって、顔器官状態検出部は、連続的に撮影された第1画像を、1フレーム単位で解析して、器官の状態を検出する。
 ここでは、顔器官状態検出部における運転者の顔の器官の状態変化を、連続的に取得された第1画像の1フレーム単位で検出する。
 これにより、動画等のように連続的に撮影された第1画像における1フレーム単位での運転者の顔の器官の状態変化を検出することで、顔の器官の細かな変化を検出して、運転者の状態を精度良く推定することができる。
 第23の発明に係る運転者状態推定装置は、第20から第22の発明のいずれか1つに係る運転者状態推定装置であって、運転者状態検出部は、第2画像の複数のフレームを解析して、運転者の体の状態を検出する。
 ここでは、運転者状態検出部が、第1画像を低解像度化した第2画像について、複数フレーム単位で解析を行う。
 これにより、運転者の体の動き等については、第1画像よりも解像度が低い第2画像を複数フレーム単位で解析することで、運転者の状態推定時における処理負担を軽減することができる。
 第24の発明に係る運転者状態推定装置は、第20から第23の発明のいずれか1つに係る運転者状態推定装置であって、運転者状態検出部は、第2画像のエッジ位置、エッジ勾配度合い、エッジ周波数のうちの少なくとも1つに関する特徴量を用いて、運転者の体の状態を検出する。
 ここでは、運転者状態検出部における運転者の体の状態変化の検出に際して、第2画像中におけるエッジ位置、エッジ勾配度合い、エッジ周波数等の特徴量を用いる。
 これにより、第2画像中におけるエッジ部分の変化を検出して、運転者の体の動き(運転者の状態)を推定することができる。
 第25の発明に係る運転者状態推定装置は、第20から第24の発明のいずれか1つに係る運転者状態推定装置であって、推定部は、連続的に取得された第1画像および第2画像の少なくとも1つを解析した結果、前フレームの画像との比較において運転者の顔の器官、および運転者の体の変化の度合いに応じて、運転者の状態を推定する。
 ここでは、連続的に取得された第1画像を用いた運転者の状態の推定結果と、前フレームの第1画像または第2画像を用いた推定結果と比較して、変化の度合いに応じて運転者の状態を推定する。
 これにより、例えば、運転者が急病を発症して大きな動きをした場合や、同乗者やペット等によって運転妨害にあった場合等、運転者の急な動きにも対応して高精度な推定を行うことができる。
 第26の発明に係る運転者状態推定装置は、第20から第25の発明のいずれか1つに係る運転者状態推定装置であって、第1画像および第2画像、推定部における推定結果のうち少なくとも1つを保存する記憶部を、さらに備えている。
 ここでは、第1画像および第2画像、推定結果等の各種データを、記憶部に保存する。
 これにより、過去に取得した画像データや、過去の推定結果等を保存することで、例えば、機械学習やディープラーニング等で活用することができる。
 また、記憶部に保存される第2画像は、第1画像よりも低解像度化されているため、同じ解像度の2つの画像を保存する場合と比較して、容量負荷を軽減することができる。
 第27の発明に係る運転者状態推定装置は、第20から第26の発明のいずれか1つに係る運転者状態推定装置であって、推定部は、運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つを推定する。
 ここでは、推定される運転者状態として、運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影等が含まれる。
 これにより、多種多様な運転者の状態を、正確に推定することができる。
 第28の発明に係る運転者状態推定装置は、第20から第27の発明のいずれか1つに係る運転者状態推定装置であって、推定部は、機械学習またはディープランニングを活用して、運転者の状態推定を行う。
 ここでは、機械学習やディープラーニングを含むいわゆる人工知能(AI)を用いて、運転者の状態を推定する。
 これにより、過去の推定結果を用いて自動的に学習して推定を実施するため、より高精度な推定を実施することができる。
 第29の発明に係る運転者状態推定システムは、第20から第28の発明のいずれか1つに係る運転者状態推定装置と、運転席の様子を連続的に撮影するとともに、撮影した第1画像を画像取得部へ送信する撮像部と、を備えている。
 ここでは、上述した運転者状態推定装置と、運転者状態推定装置に対して第1画像を供給する撮像部と、を備えた運転者状態推定システムを構成する。
 これにより、運転者の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いることで、運転者の状態推定に必要な処理時間を短縮するとともに、処理負担を軽減することができる。
 この結果、多種多様な運転者の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することが可能なシステムを構築できる。
 第30の発明に係る運転者状態推定方法は、運転中の車両の運転席の様子を連続的に撮影した第1画像を用いて、車両の運転者の状態を推定する運転者状態推定方法であって、画像取得ステップと、顔検出ステップと、顔器官点検出ステップと、顔器官状態検出ステップと、画像生成ステップと、運転者状態検出ステップと、推定ステップと、を備えている。画像取得ステップは、第1画像を取得する。顔検出ステップは、画像取得ステップにおいて取得された第1画像に含まれる運転者の顔を検出する。顔器官点検出ステップは、顔検出ステップにおいて検出された運転者の顔の器官の位置を検出する。顔器官状態検出ステップは、顔器官点検出ステップにおいて検出された器官の状態を検出する。画像生成ステップは、第1画像の解像度を低下させた第2画像を生成する。運転者状態検出ステップは、画像生成ステップにおいて生成された第2画像を用いて、運転者の体の状態を検出する。推定ステップは、顔器官状態検出ステップと運転者状態検出ステップとにおける検出結果を組み合わせて運転者の状態を推定する。
 ここでは、車両を運転中の運転席を連続的に撮影する撮像部から取得した第1画像を用いて運転者の状態を推定する際に、第1画像をそのまま用いて顔の器官の状態を検出するとともに、第1画像よりも低解像度化された第2画像を用いて運転者の体の状態を検出する。そして、第1画像を用いて検出された顔の器官の状態の変化と、第2画像を用いて検出された体の状態の変化とを融合させて、運転者の状態の推定を行う。
 ここで、推定される運転者の状態には、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 これにより、運転者の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いることで、運転者の状態推定に必要な処理時間を短縮するとともに、処理負担を軽減することができる。
 この結果、多種多様な運転者の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することができる。
 第31の発明に係る運転者状態推定プログラムは、運転中の車両の運転席の様子を連続的に撮影した第1画像を用いて、車両の運転者の状態を推定する運転者状態推定プログラムであって、画像取得ステップと、顔検出ステップと、顔器官点検出ステップと、顔器官状態検出ステップと、画像生成ステップと、運転者状態検出ステップと、推定ステップと、を備えた運転者状態推定方法をコンピュータに実行させる。画像取得ステップは、第1画像を取得する。顔検出ステップは、画像取得ステップにおいて取得された第1画像に含まれる運転者の顔を検出する。顔器官点検出ステップは、顔検出ステップにおいて検出された運転者の顔の器官の位置を検出する。顔器官状態検出ステップは、顔器官点検出ステップにおいて検出された器官の状態を検出する。画像生成ステップは、第1画像の解像度を低下させた第2画像を生成する。運転者状態検出ステップは、画像生成ステップにおいて生成された第2画像を用いて、運転者の体の状態を検出する。推定ステップは、顔器官状態検出ステップと運転者状態検出ステップとにおける検出結果を組み合わせて運転者の状態を推定する。
 ここでは、上記運転者状態推定方法をコンピュータに実行させる運転者状態推定プログラムであって、車両を運転中の運転席を連続的に撮影する撮像部から取得した第1画像を用いて運転者の状態を推定する際に、第1画像をそのまま用いて顔の器官の状態を検出するとともに、第1画像よりも低解像度化された第2画像を用いて運転者の体の状態を検出する。そして、第1画像を用いて検出された顔の器官の状態の変化と、第2画像を用いて検出された体の状態の変化とを融合させて、運転者の状態の推定を行う。
 ここで、推定される運転者の状態には、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 これにより、運転者の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いることで、運転者の状態推定に必要な処理時間を短縮するとともに、処理負担を軽減することができる。
 この結果、多種多様な運転者の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することができる。
 第32の発明に係る記録媒体は、第31の発明に係る運転者状態推定プログラムを格納している。
 ここでは、上述した運転者状態推定プログラムを格納した記録媒体であって、上記運転者状態推定プログラムがコンピュータに実行されることにより、上述した運転者状態推定方法が実施される。
 これにより、運転者の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いることで、運転者の状態推定に必要な処理時間を短縮するとともに、処理負担を軽減することができる。
 この結果、多種多様な運転者の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することができる。
(発明の効果)
 本発明に係る運転者状態推定装置によれば、多種多様な運転中の運転者の状態を従来よりも精度良く推定することができる。
本発明の一実施形態に係る運転者状態推定装置を登載した乗用車の構成を示す概略図。 図1の運転者状態推定装置の構成を示す制御ブロック図。 図2の顔器官状態検出部内に構成される機能ブロックを示すブロック図。 図2の運転者状態推定装置によって推定される運転者の状態の例と、それを推定するために必要な条件との関係を示す図。 図2の運転者状態推定装置の顔器官状態検出部において、運転者の顔の向き、視線方向、眼の開閉度等を複数の段階に分けて検出する方法について示す図。 図2の運転者状態推定装置の運転者状態検出部において画像特徴量を抽出する処理について説明する図。 図4に示す運転者の状態の推定について、より具体的に推定条件を示した図。 図2の運転者状態推定装置の推定部において、運転者の顔の向き、視線方向、眼の開閉度等を、複数フレームで実施される顔認識の統計情報(ヒストグラム)と、第2画像を用いて抽出された画像特徴量とを用いて、運転者の状態を推定する方法を示す図。 図2の運転者状態推定装置の推定部において、前フレームの画像を用いて推定された結果に基づいて重み算出部において変化させた重み係数を用いて、次フレームの画像を用いた推定を実施する方法を示す図。 図9の具体例として、運転者が後方を振り返った状態と推定後の重み付け処理について説明する図。 運転者が突っ伏し状態に変化する際に検出される時系列情報を示す図。 運転者が右方向に気が取られて集中度が低下していく際に検出される時系列情報を示す図。 本発明の運転者状態推定方法の流れを示すフローチャート。 図13に示す運転者状態推定方法において、AI機能を用いた画像解析フローを示す図。 本発明の他の実施形態に係る運転者状態推定装置およびこれを備えた運転者状態推定システムの構成を示すブロック図。 本発明のさらに他の実施形態に係る運転者状態推定装置およびこれを備えた運転者状態推定システムの構成を示すブロック図。
 (実施形態1)
 本発明の一実施形態に係る運転者状態推定装置(対象者状態推定装置)10およびこれを備えた運転者状態推定システム20、運転者状態推定方法について、図1~図14を用いて説明すれば以下の通りである。
 (運転者状態推定システム20)
 本実施形態の運転者状態推定システム20は、図1に示すように、運転者状態推定装置10と、カメラ(撮像部)21と、自動運転制御装置22とを備えている。
 運転者状態推定装置10は、運転中の乗用車(車両)C1の運転席の周囲に設置されたカメラ21を用いて運転者(対象者)D1が居るべき場所(運転席)を連続的に撮影した第1画像(動画等)を用いて、乗用車C1の運転者D1の状態を推定する。
 なお、運転者状態推定装置10の詳細な構成については、後段にて詳述する。
 カメラ21は、乗用車C1の運転席の前方上部に設置されており、運転者D1が居るべき運転席を正面から撮影する。そして、カメラ21は、運転者D1の上半身の略全体が含まれるように連続的に撮影した画像を、運転者状態推定装置10の画像取得部11(図2参照)へ送信する。
 自動運転制御装置22は、乗用車C1の駆動系、制御系を制御して、運転者D1による手動運転操作によらずに運転操作を自動化するための装置である。本実施形態では、自動運転制御装置22は、運転者状態推定装置10における推定結果に基づいて、自動運転制御を行うことができる。
 乗用車C1は、1台のカメラ21が設置されており、運転者D1によって運転操作される。また、乗用車C1は、自動運転制御装置22を搭載している。これにより、乗用車C1は、運転者状態推定装置10における推定結果やカーナビゲーションによる設定等に応じて、自動運転制御と運転者D1による手動運転とが切り替えられる。
 ここで、本実施形態において推定される運転者の状態とは、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる(図4参照)。
 そして、本実施形態では、推定の結果、例えば、運転者D1が急病を発症している推定された場合には、自動運転制御と連携して、例えば、運転中の乗用車C1を安全な場所へ停止させる等の制御を実施することもできる。
 (運転者状態推定装置10の構成)
 本実施形態の運転者状態推定装置10は、カメラ21から運転者D1が居るべき運転席を連続的に撮影した第1画像を取得して、運転者D1の状態を推定する。そして、運転者状態推定装置10は、図2に示すように、画像取得部11、顔検出部12、顔器官点検出部13、顔器官状態検出部14、画像生成部15、運転者状態検出部16、記憶部17、推定部(第1推定部および第2推定部)18、および重み算出部(第1重み算出部および第2重み算出部)19を備えている。
 画像取得部11は、乗用車C1の運転席の前方上部に設置されたカメラ21によって連続的に撮影された第1画像の画像データを取得する。そして、画像取得部11は、取得した画像データを、顔検出部12、画像生成部15、および記憶部17へ送信する。
 顔検出部12は、画像取得部11から送信された第1画像の画像データを用いて、第1画像中の運転者D1の顔の有無および顔の位置を検出する。そして、顔検出部12は、第1画像の画像データと運転者D1の顔の検出結果とを、顔器官点検出部13へと送信する。
 顔器官点検出部13は、第1画像中において、顔検出部12において検出された運転者D1の顔に含まれる各器官(眼、口、鼻、耳等)の位置を検出する。さらに、顔器官点検出部13は、補助的に顔全体または顔の一部分の輪郭を顔の器官として検出してもよい。そして、顔器官点検出部13は、第1画像と、第1画像中の運転者D1の顔の各器官の位置に関する検出結果とを、顔器官状態検出部14へと送信する。
 顔器官状態検出部14は、顔器官点検出部13において位置が検出された第1画像中における運転者D1の顔の器官の状態を推定する。具体的には、顔器官状態検出部14は、図3に示すように、眼開閉検出部14a、視線検出部14b、および顔向き検出部14cを有している。そして、眼開閉検出部14a、視線検出部14b、および顔向き検出部14cは、それぞれ、運転者D1の眼の開閉度、視線の方向、顔の向き等を検出する(図4の局所的な情報を参照)。
 これにより、顔器官状態検出部14における検出結果を用いることで、後述する推定部18において、第1画像中の運転者D1の状態(覚醒度、集中度、眠気、体調不良等)を推定するための情報を得ることができる。
 そして、顔器官状態検出部14は、特徴ベクトル生成部18aに対して検出結果を送信する。
 ここで、顔器官状態検出部14における顔器官状態の検出は、カメラ21によって連続的に撮影され画像取得部11において取得された第1画像の毎フレームごとに実施することが好ましい。これにより、運転者D1の顔の器官のうち、例えば、眼等のように、毎フレームごとに細かく動きがある器官について、正確に状態を検出することができる。
 ここで、顔器官状態検出部14における運転者D1の顔の向き、視線方向、眼の開閉度に関する具体的な検出方法について、図5を用いて説明すれば以下の通りである。
 すなわち、本実施形態では、顔器官状態検出部14が、図5に示すように、第1画像中における運転者D1の顔の向きを、縦・横方向の2軸方向において、縦3段階、横5段階の度数として検出する。また、顔器官状態検出部14は、運転者D1の視線方向を、顔の向きと同じく、縦・横方向の2軸方向において、縦3段階、横5段階の度数として検出する。さらに、顔器官状態検出部14は、第1画像中において検出された運転者D1の眼の開閉度を、10段階に分けて検出する。
 画像生成部15は、画像取得部11から送信された第1画像のデータを受信して、低解像度化処理を実施し、第1画像よりも解像度が低い第2画像を生成する。画像生成部15における低解像度化処理としては、例えば、ニアレストネイバー法、バイリニア補間法、バイキュービック法等の手法を用いることができる。そして、画像生成部15は、第1画像を低解像度化処理して得られた第2画像のデータを、運転者状態検出部16および記憶部17へと送信する。
 運転者状態検出部16は、第1画像を低解像化処理して得られた第2画像を用いて、運転者D1の動きや姿勢等の情報に基づいて、運転者D1の状態を検出する。
 ここで検出される運転者D1の状態としては、例えば、運転者の動きや姿勢等が含まれる(図4の大局的な情報を参照)。
 すなわち、運転者状態検出部16では、主に、運転者D1の体の動きを検出するため、顔器官状態検出部14における顔の器官の状態検出と比較して、高解像度の画像を用いて細かい動きを検出する必要性が低いと思われる。そこで、本実施形態では、運転者状態検出部16における検出には、顔器官状態検出部14で用いられる第1画像よりも解像度が低い第2画像を用いている。
 これにより、運転者状態検出部16において運転者の状態を検出するために必要な画像として、低解像度化された第2画像を用いることができる。
 そして、運転者状態検出部16は、特徴ベクトル生成部18aに対して検出結果を送信する。
 ここで、運転者状態検出部16における第2画像を用いた運転者D1の状態検出の際に、第2画像のエッジ抽出によって画像特徴量を抽出する処理について、図6を用いて説明すれば以下の通りである。
 すなわち、運転者状態検出部16は、画像特徴抽出部16aを有している。画像特徴抽出部16aは、カメラ21によって撮影された第1画像を低解像度化した第2画像の輝度値が入力されると、事前の機械学習等によって求められた、あるいは予め設計済みの画像フィルタ(例えば、3×3のサイズ)を用いて、エッジを抽出する。そして、画像特徴抽出部16aは、輝度値および抽出されたエッジに関する情報を、前フレームの第2画像の輝度値および抽出されたエッジに関する情報とそれぞれ比較して、フレーム間の差分を求める。その結果、現在フレームの輝度値情報、現在フレームのエッジ情報、前フレームと比較した輝度値差分情報、前フレームと比較したエッジ差分情報という4種類の情報を画像特徴量として出力する。ここで、前フレームとは、現在処理中のフレームから見てひとつ前の時刻のフレーム、または所定の時間間隔を有するフレームである。
 なお、画像特徴抽出部16aにおける画像特徴量の抽出は、第2画像のエッジ以外に、エッジ勾配度合い、エッジ周波数等を用いて行われてもよい。
 これにより、例えば、男性と女性等のように運転者D1ごとの体格の違いや、運転席がスライド移動可能で運転者D1の位置の違いがあった場合でも、運転者D1の状態を精度良く推定することができる。
 顔器官状態検出部14から出力された検出結果および運転者状態検出部16から出力された検出結果をまとめて、運転者の動作特徴量と呼ぶこととする。つまり動作特徴量は顔の器官から得られる運転者の顔の器官の状態に関する情報と、画像特徴量として得られる運転者D1の体の動きや姿勢等の情報の両方を含む情報である。
 特徴ベクトル生成部18aは、顔器官状態検出部14および運転者状態検出部16の検出結果を受け取り、特徴ベクトルを生成する。さらに、特徴ベクトル生成部18aは、該特徴ベクトルの要素ごとに、重み算出部19で算出された重みに基づいて重み付けを行い、特徴ベクトルを推定部18に送信する。
 記憶部17は.顔器官状態検出部14から受信した顔の器官の状態、画像生成部15から受信した第2画像の画像データ、重み算出部19において設定された重み付けのデータ等を含む各種データを保存する。
 なお、第2画像の画像データについては、大まかな体の動きが検出できればよく、数フレーム前の第2画像の画像データのみを保存してもよい。
 これにより、不要なフレームの画像データを保存する必要はなくなり、メモリ容量を減少させることができる。
 推定部18は、特徴ベクトル生成部18aの出力を受信して運転者D1の状態を推定する。具体的には、推定部18は、顔器官状態検出部14において検出された運転者D1の顔の器官のうち、眼の開閉度、視線方向、顔の向き等に関する情報と、運転者状態検出部16において検出された運転者D1の動きや姿勢等に関する情報とを用いて、運転者D1の状態を推定する。
 ここで、推定部18において推定される運転者D1の状態としては、図4および図7に示すように、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つが含まれる。
 これにより、図4に示すように、顔器官状態検出部14において検出された局所的な情報(運転者D1の顔の器官情報)と、運転者状態検出部16において検出された大局的な情報(運転者D1の動き、姿勢等の情報)と、を組み合わせることで、多種多様な運転者D1の状態を従来よりも高精度に推定することができる。
 なお、図4において、○は、左欄に示す運転者(ドライバ)の状態例を推定するために必須の条件を意味している。また、△は、左欄に示す運転者の状態例を推定するために好ましい条件を意味している。
 例えば、運転者D1が眠気を覚えている状態の推定には、図7に示すように、局所的な情報として、顔器官状態検出部14が運転者D1の眼の開閉度を検出し、大局的な情報として、運転者状態検出部16が運転者D1の動きがないことを検出すればよい。
 また、運転者D1が脇見運転をしている状態の推定には、図7に示すように、局所的な情報として、顔器官状態検出部14が運転者D1の顔の向き、視線方向を検出し、大局的な情報として、運転者状態検出部16が運転者D1の姿勢を検出すればよい。
 また、運転者D1が携帯端末を操作中(電話中)である状態の推定には、図7に示すように、局所的な情報として、顔器官状態検出部14が運転者D1の顔の向きを検出し、大局的な情報として、運転者状態検出部16が運転者D1の姿勢を検出すればよい。
 また、運転者D1が窓(ドア)側に肘を突いて寄り掛かっている状態の推定には、図7に示すように、局所的な情報として、顔器官状態検出部14が運転者D1の顔の位置が所定の位置にないことを検出し、大局的な情報として、運転者状態検出部16が運転者D1の動き・姿勢を検出すればよい。
 さらに、運転者D1が同乗者やペットによって運転妨害を受けている状態の推定には、図7に示すように、局所的な情報として、顔器官状態検出部14が運転者D1の顔の向き・視線の方向を検出し、大局的な情報として、運転者状態検出部16が運転者D1の姿勢を検出すればよい。
 また、運転者D1が突然の病気(呼吸困難、心臓発作等)を発症した状態の推定には、図7に示すように、局所的な情報として、顔器官状態検出部14が運転者D1の顔の向き・視線方向・眼の開閉を検出し、大局的な情報として、運転者状態検出部16が運転者D1の姿勢を検出すればよい。
 ここで、顔器官状態検出部14および運転者状態検出部16から特徴ベクトル生成部18aを経由して推定部18に至る機能を用いて運転者D1の状態を推定する方法について、図8を用いて具体的に説明すれば以下の通りである。
 すなわち、図8に示すように、時刻t=0,1,・・・,Tの間にカメラ21において連続して撮影された複数の第1画像について、顔器官状態検出部14は1フレーム単位に顔器官状態を検出し、特徴ベクトル生成部18aに出力する。特徴ベクトル生成部18aは、それぞれの顔の器官の状態ごとにヒストグラムを生成して出力する。これらは、それぞれ特徴量ベクトルの要素となる。
 さらに、特徴ベクトル生成部18aには、図8に示すように、画像生成部15において生成され第1画像よりも解像度が低い第2画像を用いて抽出された画像特徴量が入力される。なお、この画像特徴量の抽出は、上述した運転者状態検出部16(画像特徴抽出部16a)において、低解像度処理された第2画像を用いて複数のフレームを用いて行われる。このとき用いられる複数のフレームは、時刻が隣接する2つのフレームでもよいが、一般的に、運転者の体は顔の器官と比べて変化がゆっくりであるので、所定の時間間隔を持つ2つのフレームであることが好ましい。
 本実施形態の運転者状態推定装置10では、上述したように、運転者状態検出部16における検出に用いられる第2画像を、顔器官状態検出部14における検出に用いられる第1画像よりも低解像度化処理しているため、推定部18による運転者D1の状態推定処理の負担を軽減することができる。
 この結果、多種多様な運転者D1の状態を、高速かつ高精度に実施することができる。
 ここで、推定部18における推定は、機械学習やディープラーニング等を含む人工知能(AI)機能を用いて行われてもよい。この場合には、例えば、過去の推定結果と実際の運転者D1の状態とを比較してその差を埋めるような処理を加えて運転者D1の状態推定を実施することで、さらに高精度に運転者D1の状態推定を行うことができる。
 そして、推定部18は、重み算出部19および自動運転制御装置22に対して、推定結果を送信する。
 なお、本実施形態では、推定部18における推定は、後述する重み算出部19において設定された重み付けの値を変化させながら、運転者D1の状態の推定が所定の確度を超えるまで繰り返し実施される。推定の確度としては、予め数値化された閾値として記憶部17に保存されていればよい。
 重み算出部19は、推定部18において推定された運転者D1の状態に基づいて、次に取得された画像を用いて運転者D1の状態を推定する際に重要視される項目(顔の器官、運転者D1の動き・姿勢等)が優先されるように重み付けを行う。
 具体的には、重み算出部19は、推定部18における推定結果に応じて、顔器官状態検出部14および運転者状態検出部16において次の画像を用いて検出すべき顔の器官、運転者の動きや姿勢等の項目について、重み付けを行う。
 例えば、推定部18における推定結果が運転者D1の後方への振り返りであった場合には、第1画像中には運転者D1の顔の全てが検出されていない、あるいは一部しか検出されていないと思われる。そこで、重み算出部19は、運転者D1の次の画像で検出される動きは、前方への振り返りであると推測し、顔の有無の重みが大きくなるように重み付けを行う。一方で、重み算出部19は、後方を振り返っている状態の運転者D1の顔の器官の検出は優先されないと判断し、視線および目の開閉の重みが小さくなるように、重み付けを行う。
 ここで、重み算出部19における重み付け処理について、図9および図10を用いて具体的に説明すれば以下の通りである。
 すなわち、重み算出部19は、図9に示すように、前フレームの画像を用いた推定部18からの出力(推定結果)に基づいて、次フレームの画像を用いた推定を行う際の入力変数の重み付けを変化させる。
 ここで、運転者状態ベクトルyは、特徴ベクトルxとすると、=Dxという式によって表される(Dは、機械学習によって得られる識別行列(重み係数))。
 特徴ベクトルxは、ヒストグラム算出部14dに入力される運転者D1の顔に関する情報(顔の有無、向き、視線、眼の開閉等)のそれぞれの項目と、画像特徴抽出部16aに入力される運転者D1の体に関する情報(画像輝度値等)とを用いて求められる。その際、特徴ベクトルxの各要素は重み付けされる。
 そして、特徴ベクトルxを用いて算出された運転者状態ベクトルyにおいて最も大きい要素のインデックスを推定結果として出力する。図9では、これをArgMax(y(i))と記載しており、y=(y(1)、y(2)、y(3))と表現した時に、y(i)(i=1,2,3)のうちで最もy(i)が大きくなるiのことである。例えば、運転者状態ベクトルy=(0.3,0.5,0.1)であったとすると、ArgMax(y(i))=2となる。運転者状態ベクトルyの各要素は、運転者の状態と関連付けられており、1番目の要素を「前方注視」、2番目の要素を「眠気」、3番目の要素を「脇見」のように関連付けられているとすれば、出力が2であるということは推定結果が「眠気」であることを意味する。
 より具体的な例として、例えば、図10に示すように、運転者D1の顔に関する検出結果と、運転者D1の体に関する検出結果とを参照した結果、画像中に運転者D1の顔が検出されなくなった場合について、以下で説明する。
 このとき、推定部18は、この状態を示す最適な運転者D1の状態として、後方へ振り返った状態を推定結果として出力する。
 この場合には、推定部18は、次の運転者D1の変化として、前方へ振り返る動作を予測できる。このため、画像中に運転者D1の顔が検出されるまでは、顔の器官を検出する処理は不要と考えられる。
 そこで、本実施形態の運転者状態推定装置10では、次フレームの画像に対しては、顔の向きや視線方向、眼の開閉等の顔に関する情報から得られる特徴について重み付けを徐々に軽くしていく。
 一方、顔の有無に関する情報について、重みを大きくしてもよい。
 これにより、次のフレーム以降の画像において、運転者D1の顔が検出されるまでは、他の顔に関する項目の検出を行わないように処理を進めることができる。
 なお、次フレーム以降の画像において、運転者D1の顔が検出された場合には、その出力結果を踏まえて、顔の向き、視線方向、眼の開閉度等の項目について、重みを大きくするように変化させればよい。
 次に、例えば、運転者D1が突っ伏していると推定される状態における運転者D1の時系列における検出結果について、図11を用いて説明する。
 すなわち、運転者D1が突っ伏した状態では、顔が検出されていた状態から検出されなくなるとともに、大きな動きの後で動きが停止し、かつ姿勢も通常の運転姿勢から前傾状態へ移行する。
 このため、推定部18では、第1画像を用いて顔の有無を検出するとともに、第2画像を用いて運転者D1の動きの変化、姿勢の変化等を検出して、突っ伏し状態であると推定する。
 なお、図11に示す例では、フレームNo.4からNo.5にかけて、運転者D1の顔が見えなく(検出されなく)なり、フレームNo.3からNo.5にかけて、運転者D1の動きが大きくなりフレームNo.6で動きが止まっている。さらに、フレームNo.2からNo.3にかけて、運転者D1の姿勢が通常の運転姿勢から前傾へ移行している。
 この結果、図11に示す例では、フレームNo.3からNo.6にかけて、突っ伏し状態へ移行したものと推定される。
 次に、例えば、運転者D1の集中度が散漫になっていく状態変化について、図12を用いて説明する。
 すなわち、運転者D1が運転に集中している状態では顔の向きが前向きと検出されるが、集中度が散漫になるにつれて顔の向きや視線が前方以外の方向に向くとともに、動きも大きくなる状態へ移行する。
 このため、推定部18では、第1画像を用いて顔の向き、視線方向を検出するとともに、第2画像を用いて運転者D1の動きの変化等を検出して、運転者D1の集中度を推定する。
 なお、図12に示す例では、フレームNo.3からNo.4にかけて、運転者D1の顔の向きが、前方から右へ変化しており、視線方向も、フレームNo.2からNo.4にかけて右方向へ移動した後、フレームNo.6で一旦、前に戻っているが、フレームNo.7以降で再び右へ変化している。さらに、運転者D1の動きも、フレームNo.4からNo.5にかけて大きくなっている。
 この結果、図12に示す例では、フレームNo.2から、徐々に右方向の物に気を取られて、徐々に姿勢が右向きになり、集中度が低下しているものと推定される。
 <運転者状態推定方法の流れ>
 本実施形態の運転者状態推定装置10では、図13に示すフローチャートに従って、運転者状態推定方法を実施する。
 すなわち、まず、ステップS11では、画像取得部11が、カメラ21において連続的に取得された第1画像のデータを取得する。
 次に、ステップS12では、顔検出部12が、第1画像中に含まれる運転者D1の顔を検出する。
 次に、ステップS13では、第1画像中に顔が検出されたか否かを判定する。ここで、顔が検出された場合には、ステップS14へ進み、顔が検出されなかった場合には、ステップS14の処理をスキップして、ステップS17へ進む。この場合、顔向き検出、眼開閉度検出および視線検出の結果は0とする。
 次に、ステップS14では、顔検出部12において検出された顔について、顔器官点検出部13が各器官の位置を検出し、顔器官状態検出部14が各器官の状態を検出する。
 ここで、具体的に検出される運転者D1の状態としては、顔の向き、眼の開閉度、視線方向等である。
 なお、ステップS12からステップS14までの処理(第1フローF1)は、カメラ21によって連続的に撮影され解像度の高い第1画像をそのまま用いて実施される。
 次に、ステップS15では、画像生成部15が、第1画像の解像度を低下させる処理を実施して、低解像度画像(第2画像)を生成する。
 次に、ステップS16では、画像生成部15においてフレーム単位で生成された第2画像を用いて、運転者状態検出部16が、運転者D1の体の状態を検出する。
 ここで、画像特徴量によって検出される具体的な運転者D1の体の状態としては、運転者D1の姿勢、上半身の動き、運転者の有無等がある。具体的には、本実施形態では、画像特徴抽出部16aにおいて、第2画像に基づいて算出された画像特徴量を、運転者D1の体の状態として出力している。
 次に、ステップS17では、顔器官状態検出部14および運転者状態検出部16の検出結果に基づいて、動作特徴量を算出する。
 次に、ステップS18aでは、動作特徴量に対して、それぞれ重み付け処理を行い、特徴ベクトルを生成する。
 なお、ステップS17およびステップ18aは特徴ベクトル生成部18aにて処理される。
 次に、ステップS19では、推定部18が、特徴ベクトル生成部18aで生成された特徴ベクトルに基づいて、運転者D1の状態を推定する。
 ここで、推定される運転者D1の状態としては、上述したように、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影等がある(図4参照)。
 次に、ステップS18bでは、重み算出部19が、推定部18における推定結果に基づいて、次フレーム以降の画像を用いた運転者D1の状態推定において重要視されるべき項目が優先されるように重みを算出する。
 具体的には、上述したように、例えば、運転者D1が後方を振り返った状態と推定された場合には、次フレーム以降の画像を用いた推定では、運転者D1が再び前方に振り返る動作をして顔が検出されることが重要視される。そこで、重み算出部19は、顔の器官の状態(眼の開閉度、視線方向等)の検出を一旦停止させ、画像中に顔が検出されるまで顔の検出処理だけを実施する。
 なお、ステップS15からステップS18bまでの処理(第2フローF2)は、カメラ21によって連続的に撮影され解像度の高い第1画像を低解像度化処理した第2画像を用いて実施される。
 次に、ステップS20では、運転者状態推定システム20からの指令(図示せず)に応じて、推定を終了するか否かを判定する。ここで、推定終了となる場合には、処理を終了し、さらに運転者D1の状態の推定が必要と判定された場合には、ステップS11へ戻って上記処理を繰り返し実施する。
 本実施形態の運転者状態推定方法では、以上のように、推定部18における推定結果に基づいて、重み算出部19が重み付けを変化させて、繰り返し、運転者D1の状態を推定することができる。
 この結果、運転者D1の状態に応じて重み付けを変化させながら推定を繰り返し実施することで、多種多様な運転者D1の状態を、高精度に推定することができる。
 また、本実施形態の運転者状態推定方法では、以上のように、運転者D1が居るべき運転席を連続的に撮影するカメラ21から取得した第1画像を用いて顔の器官の状態を検出するとともに、第1画像よりも低解像度化された第2画像を用いて運転者D1の体の状態を検出する。そして、第1画像を用いて検出された顔の器官の状態の変化と、第2画像を用いて検出された体の状態の変化とを融合させて、運転者D1の状態の推定を行う。
 つまり、本実施形態では、運転者D1の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者D1の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いる。
 これにより、運転者D1の状態推定に必要な処理時間を短縮するとともに、処理負担を軽減することができる。この結果、多種多様な運転者D1の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することができる。
 <AI機能を用いた運転者の状態推定>
 次に、本実施形態の運転者状態推定装置10において、ディープラーニング等の人工知能(AI機能)を用いて、運転者D1の状態推定を実施する例について、図14を用いて説明すれば以下の通りである。
 すなわち、本実施形態では、画像生成部15において第1画像を縮小リサイズして生成された低解像度の第2画像を用いて、運転者状態検出部16が運転者D1の状態を検出する際に、図14に示すディープラーニングを活用しながら、時系列で運転者の状態を推定する。
 具体的には、図14に示すように、時刻t=0,1,・・・,T-1,Tまでの間において、複数フレーム分の第2画像の入力があったとすると、入力層と出力層との間に設けられた中間層の出力を次回の入力として利用することで、AI機能を活用する。そして、第2画像を前フレームの画像と比較してその変化量に応じて、記憶部17へ検出情報等を保存するか否かを決定する。
 これにより、運転者状態検出部16では、過去の検出結果を将来の検出等へ活用することで、運転者D1の状態推定の精度を向上させることができる。
 そして、推定部18では、運転者状態検出部16においてAI機能を活用して得られた検出結果を用いて、運転者D1の状態を推定することができる。よって、この場合でも、推定部18は、間接的にAI機能を活用して、運転者D1の状態を推定することができる。
 [他の実施形態]
 以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
 (A)
 上記実施形態では、上述した運転者状態推定装置10および運転者状態推定方法として、本発明を実現する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、上述したように、運転者状態推定方法をコンピュータに実行させる運転者状態推定プログラムとして、本発明を実現してもよい。
 この場合には、RAM等の記憶手段に格納された運転者状態推定プログラムをCPUが読み込んで、図2に示す機能ブロックが生成されることで、上述した運転者状態推定方法を実行することができる。
 さらに、この運転者状態推定プログラムを格納した記録媒体として、本発明を実現してもよい。
 (B)
 上記実施形態では、状態推定の対象者として、図1に示すように、乗用車C1の運転者D1を例として挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、状態推定の対象者として、工場等の施設において作業する作業者、介護施設に入居する要介護者等を設定してもよい。
 この場合には、各対象者を撮影した画像を用いて、対象者の状態推定を行うことで、対象者の健康状態、異常行動等を推定することができる。
 (C)
 上記実施形態では、本発明の第1推定部および第2推定部としての機能を、単一の推定部18によって実現した例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、第1推定部、第2推定部としての機能を、それぞれ実現する3つの推定部を備えた構成であってもよい。
 (D)
 上記実施形態では、本発明の第1重み算出部および第2重み算出部としての機能を、単一の重み算出部19によって実現させた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、第1重み算出部および第2重み算出部としての機能を、それぞれ実現する2つの重み算出部を備えた構成であってもよい。
 (E)
 上記実施形態では、推定される運転者の状態として、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側・肘掛けへの寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影等を例として挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、居眠り、モニタ画面注視等の他の状態を、運転者の状態推定の候補として用いてもよい。
 (F)
 上記実施形態では、運転者の状態を推定する手段として、運転者の顔およびその器官(眼、口等)を検出して、運転者の顔の向き、視線の変化、眼の開閉等を検出する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、運転者の瞬きの回数、呼吸の速さ、脈拍等の上記以外の要素を含む生体反応をモニタリングして、運転者の状態を推定してもよい。
 (G)
 上記実施形態では、図1および図2に示すように、乗用車C1の自動運転制御を行う自動運転制御装置22を含む運転者状態推定システム20として、本発明を実現した例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、図15に示すように、自動運転制御装置を持たない運転者状態推定システム120として、本発明を実現してもよい。
 この場合には、運転者の状態の推定結果に基づいて、例えば、自動的に居眠りや危険運転に対する警報を発したり、急病発症の場合には救急車の要請を行う連絡を行ったりする等の措置を実施すればよい。
 これにより、自動運転制御装置を持たない運転者状態推定システムであっても、推定結果を有効に活用することができる。
 (H)
 上記実施形態では、図2に示すように、運転者D1の状態推定結果に基づいて重み付けを変化させる重み算出部19を含む運転者状態推定システム20として、本発明を実現した例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、図16に示すように、重み算出部を持たない運転者状態推定装置210および運転者状態推定システム220として、本発明を実現してもよい。
 この場合には、第1画像を用いて運転者の顔の器官およびその位置を検出し、各器官の状態を検出するとともに、第1画像よりも低解像度化された第2画像を用いて運転者の体の状態を検出し、これらの検出結果を融合することで、運転者の状態を推定する。
 これにより、運転者の顔の器官の状態の細かい変化の検出には、解像度の高い第1画像を用いるとともに、運転者の体の動きの変化の検出には、第1画像よりも解像度の低い第2画像を用いているため、運転者の状態推定に必要な処理時間を短縮し、かつ処理負担を軽減することができる。
 この結果、多種多様な運転者の状態の推定を、従来よりも高速、低負荷かつ高精度に実施することができる。
 (I)
 上記実施形態では、ディープラーニング等のAI機能を活用して、運転者状態の推定を実施する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、AI機能の活用は必須ではなく、AI機能を活用せずに、運転者の状態推定を実施してもよい。
 (J)
 上記実施形態では、図1に示すように、乗用車C1に設置された1台のカメラ21によって連続的に撮影された運転者D1が居るべき運転席の画像を用いて、運転者D1の状態の推定を行う例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、乗用車に設置された複数のカメラによって連続的に撮影された画像を用いて運転者の状態を推定してもよい。
 この場合には、複数のカメラを異なる角度から運転者を撮影できるように設置することで、1台のカメラによって撮影された画像では認識できなかった運転者の変化を検出することで、運転者の状態をさらに精度良く推定することができる。
 (K)
 上記実施形態では、状態推定される対象者として、乗用車を運転している運転者を例として挙げて説明した。しかし、本発明はこれに限定されるものではない。
 例えば、状態推定される対象者は、乗用車の運転者に限らず、トラック、バス、船舶、各種作業車両、新幹線、電車等の運転者であってもよい。
 本発明の運転者状態推定装置は、多種多様な運転中の運転者の状態を従来よりも精度良く推定することができるという効果を奏することから、運転者以外の対象者の状態を推定する装置として広く適用可能である。
10   運転者状態推定装置(対象者状態推定装置)
11   画像取得部
12   顔検出部
13   顔器官点検出部
14   顔器官状態検出部
14a  眼開閉検出部
14b  視線検出部
14c  顔向き検出部
14d  ヒストグラム算出部
15   画像生成部
16   運転者状態検出部
16a  画像特徴抽出部
17   記憶部
18   推定部(第1推定部および第2推定部)
18a  特徴ベクトル生成部
19   重み算出部(第1重み算出部および第2重み算出部)
20   運転者状態推定システム
21   カメラ(撮像部)
22   自動運転制御装置
120  運転者状態推定システム
210  運転者状態推定装置
220  運転者状態推定システム
 C1  乗用車(車両)
 D1  運転者(対象者)
 F1  第1フロー
 F2  第2フロー

Claims (32)

  1.  運転中の車両の運転席を連続的に撮影した第1画像を用いて、前記運転者の状態を推定する運転者状態推定装置であって、
     前記第1画像を取得する画像取得部と、
     前記画像取得部において取得された前記第1画像に含まれる前記運転者の状態を推定する第1推定部と、
     前記第1推定部において推定された前記運転者の状態から、推定に用いられる前記運転者の動作特徴量のそれぞれに対する重みを算出する第1重み算出部と、
     前記第1重み算出部において算出された前記重みを用いて重み付けされた前記動作特徴量に基づいて、前記運転者の状態を推定する第2推定部と、
     前記第2推定部において推定された前記運転者の状態から、推定に用いられる前記運転者の動作特徴量のそれぞれに対する前記重みを変化させる第2重み算出部と、
    を備えている運転者状態推定装置。
  2.  前記第1画像に含まれる前記運転者の顔を検出する顔検出部と、前記顔検出部において検出された前記運転者の顔の器官の位置を検出する顔器官点検出部と、前記顔器官点検出部において検出された前記器官の状態を検出する顔器官状態検出部と、をさらに備え、
     前記器官の状態を前記動作特徴量とする、
    請求項1に記載の運転者状態推定装置。
  3.  前記顔器官状態検出部は、前記器官の状態として、前記運転者の顔の向き、眼の開閉、視線の変化を検出する、
    請求項2に記載の運転者状態推定装置。
  4.  前記顔器官状態検出部は、連続的に撮影された前記第1画像を、1フレーム単位で解析して、前記器官の状態を検出する、
    請求項2または3に記載の運転者状態推定装置。
  5.  前記運転者の体の状態を検出する運転者状態検出部を、さらに備えている、
    請求項1から4のいずれか1項に記載の運転者状態推定装置。
  6.  前記運転者状態検出部において検出される前記運転者の体の状態の検出に使用される画像として、前記第1画像を低解像度化した第2画像を生成する画像生成部を、さらに備えている、
    請求項5に記載の運転者状態推定装置。
  7.  前記運転者状態検出部は、前記第2画像の複数のフレームを解析して、前記運転者の体の状態を検出する、
    請求項6に記載の運転者状態推定装置。
  8.  前記運転者状態検出部は、前記第2画像のエッジ位置、エッジ勾配度合い、エッジ周波数のうちの少なくとも1つに関する特徴量を用いて、前記運転者の体の状態を検出する、
    請求項6または7に記載の運転者状態推定装置。
  9.  前記第2推定部は、連続的に取得された前記第1画像の解析において、前フレームの画像との比較において前記運転者の変化の度合いに応じて、前記運転者の状態を推定する、
    請求項1から8のいずれか1項に記載の運転者状態推定装置。
  10.  前記第1推定部および前記第2推定部は、前記運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つを推定する、
    請求項1から9のいずれか1項に記載の運転者状態推定装置。
  11.  前記第1推定部および前記第2推定部は、機械学習またはディープランニングを活用して、前記運転者の状態推定を行う、
    請求項1から10のいずれか1項に記載の運転者状態推定装置。
  12.  請求項1から11のいずれか1項に記載の運転者状態推定装置と、
     前記運転席を連続的に撮影するとともに、撮影した前記第1画像を前記画像取得部へ送信する撮像部と、
    を備えた運転者状態推定システム。
  13.  運転中の車両の運転席を連続的に撮影した第1画像を用いて、前記運転者の状態を推定する運転者状態推定方法であって、
     前記第1画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記第1画像に含まれる前記運転者の状態を推定する第1推定ステップと、
     前記第1推定ステップにおいて推定された前記運転者の状態から、推定に用いられる前記運転者の動作特徴量のそれぞれに対する重みを算出する第1重み算出ステップと、
     前記第1重み算出ステップにおいて算出された前記重みを用いて重み付けされた前記動作特徴量に基づいて、前記運転者の状態を推定する第2推定ステップと、
     前記第2推定ステップにおいて推定された前記運転者の状態から、推定に用いられる前記運転者の動作特徴量のそれぞれに対する前記重みを変化させる第2重み算出ステップと、
    を備えている運転者状態推定方法。
  14.  運転中の車両の運転席を連続的に撮影した第1画像を用いて、前記運転者の状態を推定する運転者状態推定プログラムであって、
     前記第1画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記第1画像に含まれる前記運転者の状態を推定する第1推定ステップと、
     前記第1推定ステップにおいて推定された前記運転者の状態から、推定に用いられる前記運転者の動作特徴量のそれぞれに対する重みを算出する第1重み算出ステップと、
     前記第1重み算出ステップにおいて算出された前記重みを用いて重み付けされた前記動作特徴量に基づいて、前記運転者の状態を推定する第2推定ステップと、
     前記第2推定ステップにおいて推定された前記運転者の状態から、推定に用いられる前記運転者の動作特徴量のそれぞれに対する前記重みを変化させる第2重み算出ステップと、
    を備えている運転者状態推定方法をコンピュータに実行させる運転者状態推定プログラム。
  15.  請求項14に記載の運転者状態推定プログラムを格納した記録媒体。
  16.  対象者が居るべき場所を連続的に撮影した第1画像を用いて、前記対象者の状態を推定する対象者状態推定装置であって、
     前記第1画像を取得する画像取得部と、
     前記画像取得部において取得された前記第1画像に含まれる前記対象者の状態を推定する第1推定部と、
     前記第1推定部において推定された前記対象者の状態から、推定に用いられる前記対象者の動作特徴量のそれぞれに対する重みを算出する第1重み算出部と、
     前記第1重み算出部において算出された前記重みを用いて重み付けされた前記動作特徴量に基づいて、前記対象者の状態を推定する第2推定部と、
     前記第2推定部において推定された前記対象者の状態から、推定に用いられる前記対象者の動作特徴量のそれぞれに対する前記重みを変化させる第2重み算出部と、
    を備えた対象者状態推定装置。
  17.  対象者が居るべき場所を連続的に撮影した第1画像を用いて、前記対象者の状態を推定する対象者状態推定方法であって、
     前記第1画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記第1画像に含まれる前記対象者の状態を推定する第1推定ステップと、
     前記第1推定ステップにおいて推定された前記対象者の状態から、推定に用いられる前記対象者の動作特徴量のそれぞれに対する重みを算出する第1重み算出ステップと、
     前記第1重み算出ステップにおいて算出された前記重みを用いて重み付けされた前記動作特徴量に基づいて、前記対象者の状態を推定する第2推定ステップと、
     前記第2推定ステップにおいて推定された前記対象者の状態から、推定に用いられる前記対象者の動作特徴量のそれぞれに対する前記重みを変化させる第2重み算出ステップと、
    を備えている対象者状態推定方法。
  18.  対象者が居るべき場所を連続的に撮影した第1画像を用いて、前記対象者の状態を推定する対象者状態推定プログラムであって、
     前記第1画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記第1画像に含まれる前記対象者の状態を推定する第1推定ステップと、
     前記第1推定ステップにおいて推定された前記対象者の状態から、推定に用いられる前記対象者の動作特徴量のそれぞれに対する重みを算出する第1重み算出ステップと、
     前記第1重み算出ステップにおいて算出された前記重みを用いて重み付けされた前記動作特徴量に基づいて、前記対象者の状態を推定する第2推定ステップと、
     前記第2推定ステップにおいて推定された前記対象者の状態から、推定に用いられる前記対象者の動作特徴量のそれぞれに対する前記重みを変化させる第2重み算出ステップと、
    を備えている対象者状態推定方法をコンピュータに実行させる対象者状態推定プログラム。
  19.  請求項18に記載の対象者状態推定プログラムを格納した記録媒体。
  20.  運転中の車両の運転席の様子を連続的に撮影した第1画像を用いて、前記車両の運転者の状態を推定する運転者状態推定装置であって、
     前記第1画像を取得する画像取得部と、
     前記画像取得部において取得された前記第1画像に含まれる前記運転者の顔を検出する顔検出部と、
     前記顔検出部において検出された前記運転者の顔の器官の位置を検出する顔器官点検出部と、
     前記顔器官点検出部において検出された前記器官の状態を検出する顔器官状態検出部と、
     前記第1画像の解像度を低下させた第2画像を生成する画像生成部と、
     前記画像生成部において生成された前記第2画像を用いて、前記運転者の体の状態を検出する運転者状態検出部と、
     前記顔器官状態検出部と前記運転者状態検出部とにおける検出結果を組み合わせて前記運転者の状態を推定する推定部と、
    を備えている運転者状態推定装置。
  21.  前記顔器官状態検出部は、前記運転者の顔の向き、眼の開閉、視線の変化を検出する、
    請求項20に記載の運転者状態推定装置。
  22.  前記顔器官状態検出部は、連続的に撮影された前記第1画像を、1フレーム単位で解析して、前記器官の状態を検出する、
    請求項20または21に記載の運転者状態推定装置。
  23.  前記運転者状態検出部は、前記第2画像の複数のフレームを解析して、前記運転者の体の状態を検出する、
    請求項20から22のいずれか1項に記載の運転者状態推定装置。
  24.  前記運転者状態検出部は、前記第2画像のエッジ位置、エッジ勾配度合い、エッジ周波数のうちの少なくとも1つに関する特徴量を用いて、前記運転者の体の状態を検出する、
    請求項20から23のいずれか1項に記載の運転者状態推定装置。
  25.  前記推定部は、連続的に取得された前記第1画像および前記第2画像の少なくとも1つを解析した結果、前フレームの画像との比較において前記運転者の顔の器官、および前記運転者の体の変化の度合いに応じて、前記運転者の状態を推定する、
    請求項20から24のいずれか1項に記載の運転者状態推定装置。
  26.  前記第1画像および前記第2画像、前記推定部における推定結果のうち少なくとも1つを保存する記憶部を、さらに備えている、
    請求項20から25のいずれか1項に記載の運転者状態推定装置。
  27.  前記推定部は、前記運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者やペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション・オーディオ操作、眼鏡・サングラスの着脱、写真撮影のうちの少なくとも1つを推定する、
    請求項20から26のいずれか1項に記載の運転者状態推定装置。
  28.  前記推定部は、機械学習またはディープランニングを活用して、前記運転者の状態推定を行う、
    請求項20から27のいずれか1項に記載の運転者状態推定装置。
  29.  請求項20から28のいずれか1項に記載の運転者状態推定装置と、
     前記運転席の様子を連続的に撮影するとともに、撮影した前記第1画像を前記画像取得部へ送信する撮像部と、
    を備えた運転者状態推定システム。
  30.  運転中の車両の運転席の様子を連続的に撮影した第1画像を用いて、前記車両の運転者の状態を推定する運転者状態推定方法であって、
     前記第1画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記第1画像に含まれる前記運転者の顔を検出する顔検出ステップと、
     前記顔検出ステップにおいて検出された前記運転者の顔の器官の位置を検出する顔器官点検出ステップと、
     前記顔器官点検出ステップにおいて検出された前記器官の状態を検出する顔器官状態検出ステップと、
     前記第1画像の解像度を低下させた第2画像を生成する画像生成ステップと、
     前記画像生成ステップにおいて生成された前記第2画像を用いて、前記運転者の体の状態を検出する運転者状態検出ステップと、
     前記顔器官状態検出ステップと前記運転者状態検出ステップとにおける検出結果を組み合わせて前記運転者の状態を推定する推定ステップと、
    を備えている運転者状態推定方法。
  31.  運転中の車両の運転席の様子を連続的に撮影した第1画像を用いて、前記車両の運転者の状態を推定する運転者状態推定プログラムであって、
     前記第1画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記第1画像に含まれる前記運転者の顔を検出する顔検出ステップと、
     前記顔検出ステップにおいて検出された前記運転者の顔の器官の位置を検出する顔器官点検出ステップと、
     前記顔器官点検出ステップにおいて検出された前記器官の状態を検出する顔器官状態検出ステップと、
     前記第1画像の解像度を低下させた第2画像を生成する画像生成ステップと、
     前記画像生成ステップにおいて生成された前記第2画像を用いて、前記運転者の体の状態を検出する運転者状態検出ステップと、
     前記顔器官状態検出ステップと前記運転者状態検出ステップとにおける検出結果を組み合わせて前記運転者の状態を推定する推定ステップと、
    を備えている運転者状態推定方法をコンピュータに実行させる運転者状態推定プログラム。
  32.  請求項31に記載の運転者状態推定プログラムを格納した記録媒体。
PCT/JP2017/007142 2016-06-02 2017-02-24 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体 WO2017208529A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/303,710 US20200334477A1 (en) 2016-06-02 2017-06-01 State estimation apparatus, state estimation method, and state estimation program
CN201780029000.6A CN109155106A (zh) 2016-06-02 2017-06-01 状态推定装置、状态推定方法和状态推定程序
PCT/JP2017/020378 WO2017209225A1 (ja) 2016-06-02 2017-06-01 状態推定装置、状態推定方法、及び状態推定プログラム
DE112017002765.9T DE112017002765T5 (de) 2016-06-02 2017-06-01 Zustandsabschätzungsvorrichtung, Zustandsabschätzungsverfahren und Zustandsabschätzungsprogramm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016111108 2016-06-02
JP2016-111108 2016-06-02

Publications (1)

Publication Number Publication Date
WO2017208529A1 true WO2017208529A1 (ja) 2017-12-07

Family

ID=60478269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007142 WO2017208529A1 (ja) 2016-06-02 2017-02-24 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体

Country Status (5)

Country Link
US (1) US20200334477A1 (ja)
JP (1) JP6245398B2 (ja)
CN (1) CN109155106A (ja)
DE (1) DE112017002765T5 (ja)
WO (1) WO2017208529A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255780A (zh) * 2018-08-22 2019-01-22 海尔优家智能科技(北京)有限公司 一种自动提供烟灰缸的方法、系统及交通运输工具
WO2019124087A1 (ja) * 2017-12-22 2019-06-27 オムロン株式会社 生体状態推定装置、方法およびプログラム
WO2019181231A1 (ja) * 2018-03-19 2019-09-26 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体
WO2021111567A1 (ja) 2019-12-04 2021-06-10 日本電気株式会社 体調異常判定システム、体調異常判定方法、及びコンピュータプログラム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109803583A (zh) * 2017-08-10 2019-05-24 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
JP6879388B2 (ja) * 2018-01-29 2021-06-02 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びプログラム
JP6844568B2 (ja) * 2018-03-27 2021-03-17 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP6828713B2 (ja) * 2018-03-30 2021-02-10 ダイキン工業株式会社 心身状態認識システム
JP7099036B2 (ja) * 2018-05-07 2022-07-12 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6870660B2 (ja) * 2018-06-08 2021-05-12 トヨタ自動車株式会社 ドライバ監視装置
US10945651B2 (en) 2018-07-05 2021-03-16 Denso Corporation Arousal level determination device
JP7046748B2 (ja) * 2018-07-19 2022-04-04 本田技研工業株式会社 運転者状態判定装置および運転者状態判定方法
CN110956061B (zh) * 2018-09-27 2024-04-16 北京市商汤科技开发有限公司 动作识别方法及装置、驾驶员状态分析方法及装置
CN111079476B (zh) * 2018-10-19 2024-03-26 上海商汤智能科技有限公司 驾驶状态分析方法和装置、驾驶员监控系统、车辆
WO2020116181A1 (ja) * 2018-12-03 2020-06-11 パナソニックIpマネジメント株式会社 集中度計測装置及び集中度計測方法
US11200438B2 (en) 2018-12-07 2021-12-14 Dus Operating Inc. Sequential training method for heterogeneous convolutional neural network
US10775977B2 (en) * 2019-01-25 2020-09-15 Google Llc Image display with selective depiction of motion
US11087175B2 (en) * 2019-01-30 2021-08-10 StradVision, Inc. Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them
US11068069B2 (en) * 2019-02-04 2021-07-20 Dus Operating Inc. Vehicle control with facial and gesture recognition using a convolutional neural network
DE112020000867T5 (de) * 2019-02-18 2021-11-11 Mitsubishi Electric Corporation Reisekrankheits-abschätzungsvorrichtung, reisekrankheitsreduzierungsvorrichtungverfahren zum abschätzen einer reisekrankheit
JP7240910B2 (ja) * 2019-03-14 2023-03-16 本田技研工業株式会社 乗員観察装置
JP7245683B2 (ja) * 2019-03-15 2023-03-24 株式会社Subaru 乗員保護機能を有する車両
JP7281733B2 (ja) * 2019-04-15 2023-05-26 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
JP7326041B2 (ja) * 2019-06-25 2023-08-15 京セラ株式会社 画像処理装置、撮像装置、移動体、および画像処理方法
CN110598521A (zh) * 2019-07-16 2019-12-20 南京菲艾特智能科技有限公司 一种基于人脸图像智能分析的行为与生理状态识别方法
JP2021051564A (ja) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
JP7431546B2 (ja) 2019-09-25 2024-02-15 株式会社Subaru 車両制御装置
US20210253135A1 (en) * 2020-02-18 2021-08-19 Toyota Motor North America, Inc. Determining transport operation level for gesture control
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
JP7314084B2 (ja) * 2020-03-18 2023-07-25 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
JP2022018428A (ja) * 2020-07-15 2022-01-27 株式会社デンソー 露出制御装置、露出制御方法、および露出制御プログラム
JP7444730B2 (ja) * 2020-08-13 2024-03-06 株式会社日立製作所 作業支援装置及び作業支援方法
DE102021202123A1 (de) 2021-03-04 2022-09-08 Volkswagen Aktiengesellschaft Verfahren zur Erkennung eines Müdigkeitszustands eines Fahrers, sowie elektronisches Müdigkeitserkennungssystem und Kraftfahrzeug
JPWO2022219778A1 (ja) * 2021-04-15 2022-10-20
KR102634012B1 (ko) * 2021-10-12 2024-02-07 경북대학교 산학협력단 딥러닝 기반 객체 분류를 이용한 운전자 행동 검출 장치
JP7460867B2 (ja) 2021-12-24 2024-04-03 パナソニックオートモーティブシステムズ株式会社 推定装置、推定方法及びプログラム
WO2023243066A1 (ja) * 2022-06-17 2023-12-21 三菱電機株式会社 異常姿勢判定装置、異常姿勢判定方法、および、車両制御システム
WO2024069785A1 (ja) * 2022-09-28 2024-04-04 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法、プログラム及び車両制御システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005205943A (ja) * 2004-01-20 2005-08-04 Omron Corp 運転中における電話使用時の車輌制御装置及び電話使用検出方法
JP2007006427A (ja) * 2005-05-27 2007-01-11 Hitachi Ltd 映像監視装置
WO2014013985A1 (ja) * 2012-07-17 2014-01-23 日産自動車株式会社 運転支援システム及び運転支援方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4031122B2 (ja) * 1998-09-30 2008-01-09 本田技研工業株式会社 差分画像を用いた被写体の検出装置
CN101466305B (zh) * 2006-06-11 2012-05-30 沃尔沃技术公司 用于确定和分析视觉兴趣位置的方法
JP2008176510A (ja) * 2007-01-17 2008-07-31 Denso Corp 運転支援装置
JP2012230535A (ja) * 2011-04-26 2012-11-22 Nikon Corp 電子機器および電子機器の制御プログラム
EP2885151B1 (en) * 2012-08-14 2022-10-12 Volvo Lastvagnar AB Method for determining the operational state of a driver
JP2016045714A (ja) * 2014-08-22 2016-04-04 株式会社デンソー 車載制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005205943A (ja) * 2004-01-20 2005-08-04 Omron Corp 運転中における電話使用時の車輌制御装置及び電話使用検出方法
JP2007006427A (ja) * 2005-05-27 2007-01-11 Hitachi Ltd 映像監視装置
WO2014013985A1 (ja) * 2012-07-17 2014-01-23 日産自動車株式会社 運転支援システム及び運転支援方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124087A1 (ja) * 2017-12-22 2019-06-27 オムロン株式会社 生体状態推定装置、方法およびプログラム
JP2019111092A (ja) * 2017-12-22 2019-07-11 オムロン株式会社 生体状態推定装置、方法およびプログラム
WO2019181231A1 (ja) * 2018-03-19 2019-09-26 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体
JP2019164530A (ja) * 2018-03-19 2019-09-26 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP7020215B2 (ja) 2018-03-19 2022-02-16 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
CN109255780A (zh) * 2018-08-22 2019-01-22 海尔优家智能科技(北京)有限公司 一种自动提供烟灰缸的方法、系统及交通运输工具
WO2021111567A1 (ja) 2019-12-04 2021-06-10 日本電気株式会社 体調異常判定システム、体調異常判定方法、及びコンピュータプログラム
EP4070733A4 (en) * 2019-12-04 2022-11-30 NEC Corporation ABNORMAL PHYSICAL CONDITION DETERMINATION SYSTEM, ABNORMAL PHYSICAL CONDITION DETERMINATION METHOD AND COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP6245398B2 (ja) 2017-12-13
CN109155106A (zh) 2019-01-04
JP2017217472A (ja) 2017-12-14
US20200334477A1 (en) 2020-10-22
DE112017002765T5 (de) 2019-02-14

Similar Documents

Publication Publication Date Title
WO2017208529A1 (ja) 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体
US20210009150A1 (en) Method for recognizing dangerous action of personnel in vehicle, electronic device and storage medium
EP1589485B1 (en) Object tracking and eye state identification method
JP5127583B2 (ja) 対象物判定装置及びプログラム
CN104573623B (zh) 人脸检测装置、方法
JP4728432B2 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP5109922B2 (ja) ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
US9526448B2 (en) State estimation device and state estimation program
WO2017209225A1 (ja) 状態推定装置、状態推定方法、及び状態推定プログラム
KR20190083155A (ko) 운전자 상태 검출 장치 및 그 방법
JP2015102498A (ja) 視認領域推定装置
EP3440592A1 (en) Method and system of distinguishing between a glance event and an eye closure event
CN110378183B (zh) 图像解析装置、图像解析方法及记录介质
CN113536967B (zh) 基于驾驶员头部运动姿态与人眼开合度的驾驶员状态辨识方法、装置、电子设备
JP2009166783A (ja) 症状推定装置
JP2010003116A (ja) 対象物判定装置及びプログラム
JP4173083B2 (ja) 覚醒状態判定装置及び覚醒状態判定方法
US11161470B2 (en) Occupant observation device
JP4118773B2 (ja) 視線方向検出装置及び視線方向検出方法
US20220284718A1 (en) Driving analysis device and driving analysis method
CN113361441B (zh) 基于头部姿态和空间注意力的视线区域估计方法及系统
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
JP6689470B1 (ja) 情報処理装置、プログラム及び情報処理方法
Taghvaei et al. Comparative study of visual human state classication; An application for a walker robot
JP4622710B2 (ja) 顔向き検出装置及び顔向き検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17806091

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17806091

Country of ref document: EP

Kind code of ref document: A1