DE112021007211T5 - Fatigue inference device and fatigue inference system - Google Patents
Fatigue inference device and fatigue inference system Download PDFInfo
- Publication number
- DE112021007211T5 DE112021007211T5 DE112021007211.0T DE112021007211T DE112021007211T5 DE 112021007211 T5 DE112021007211 T5 DE 112021007211T5 DE 112021007211 T DE112021007211 T DE 112021007211T DE 112021007211 T5 DE112021007211 T5 DE 112021007211T5
- Authority
- DE
- Germany
- Prior art keywords
- fatigue
- facial
- detection processing
- detected
- face detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001815 facial effect Effects 0.000 claims abstract description 723
- 238000001514 detection method Methods 0.000 claims abstract description 345
- 238000003384 imaging method Methods 0.000 claims abstract description 41
- 206010016256 fatigue Diseases 0.000 claims description 512
- 230000008859 change Effects 0.000 claims description 88
- 230000003867 tiredness Effects 0.000 claims description 16
- 208000016255 tiredness Diseases 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 description 30
- 230000004397 blinking Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 206010041349 Somnolence Diseases 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 206010048232 Yawning Diseases 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 241001282135 Poromitra oscitans Species 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 208000032140 Sleepiness Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000037321 sleepiness Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Landscapes
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Bereitstellung einer Müdigkeit-Folgerungsvorrichtung, durch welche die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses eines Insassen sichergestellt wird.Müdigkeit-Folgerungsvorrichtung umfassend eine Bilderwerbssektion, die von einer Abbildungsvorrichtung zum Abbilden eines Insassen in einem Fahrzeug ein Abbildungsbild erwirbt, einen Gesichtsdetektor, der eine Gesicht-Detektionsverarbeitung durchführt, bei der eine Vielzahl von Gesichtselementen eines Insassen anhand des Abbildungsbildes detektiert werden, und eine Müdigkeit-Folgerungssektion zur Folgerung der Müdigkeit eines anhand des Abbildungsbildes detektierten Insassen, wobei durch den Gesichtsdetektor als Gesicht-Detektionsverarbeitung eine erste Gesicht-Detektionsverarbeitung und nach der ersten Gesicht-Detektionsverarbeitung eine zweite Gesicht-Detektionsverarbeitung erfolgt, und durch die Müdigkeit-Folgerungssektion für den Fall, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung von ersten Gesichtsdaten, die anhand eines durch die erste Gesicht-Detektionsverarbeitung detektierten Teils von Gesichtselementen erhalten wurden, und zweiten Gesichtsdaten, die anhand von durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselementen erhalten wurden, die sich von dem Teil der Gesichtselemente unterscheiden, die Müdigkeit des Insassen gefolgert wird, sodass selbst wenn ein Teil der Gesichtselemente des Insassen nicht detektiert wurde, die Zuverlässigkeit des Detektionsergebnisses der Müdigkeit des Insassen sichergestellt werden kann.Providing a fatigue inference device by which the reliability of the fatigue inference result of an occupant is ensured.Fatigue inference device comprising an image acquisition section that acquires an image image from an imaging device for imaging an occupant in a vehicle, a face detector that performs face detection processing , in which a plurality of facial elements of an occupant are detected based on the image image, and a fatigue inference section for inferring the fatigue of an occupant detected based on the image image, wherein a first face detection processing is carried out by the face detector as face detection processing and after the first face detection processing, a second face detection processing is carried out, and by the fatigue inference section in the case that a part of the facial elements of the plurality of facial elements of the occupant has not been detected by the second face detection processing, using first facial data based on a part of facial elements detected by the first face detection processing, and second facial data obtained from other facial elements different from the part of the facial elements detected by the second face detection processing, the fatigue of the occupant is inferred, so that even if a part of the occupant's facial elements was not detected, the reliability of the detection result of the occupant's fatigue can be ensured.
Description
[Technisches Gebiet][Technical area]
Die vorliegende Offenbarung betrifft eine Müdigkeit-Folgerungsvorrichtung und ein Müdigkeit-Folgerungssystem, durch welche die Müdigkeit eines Insassen in einem Fahrzeug gefolgert wird.The present disclosure relates to a fatigue inference device and a fatigue inference system through which the fatigue of an occupant in a vehicle is inferred.
[Hintergrundtechnologie][background technology]
Um ein Einschlafen am Steuer zu verhindern, werden Technologien zur Folgerung der Müdigkeit eines Insassen durch Detektion der Elemente des Gesichts des Insassen wie der Augen oder des Mundes des Insassen (im Folgenden als Gesichtselemente bezeichnet) und Berechnung des Augenöffnungsgrades oder Mundöffnungsgrades entwickelt. Beim Detektieren der Gesichtselemente eines Insassen können aus verschiedenen Gründen, z. B., weil der Insasse eine Sonnenbrille oder eine Maske trägt, die Gesichtselemente des Insassen nicht mehr detektiert werden. Herkömmlich wurde für den Fall, dass die Augen eines Insassen wegen des Tragens einer Sonnenbrille nicht mehr detektiert werden konnten, eine Schattierung der sich in den Linsen der Sonnenbrille spiegelnden Landschaft als Merkmalsgröße extrahiert, oder für den Fall, dass der Mund eines Insassen wegen des Tragens einer Maske nicht mehr detektiert werden konnte, die Form der Maske als Merkmalsgröße extrahiert, und ein Zustand wie die Richtung des Gesichts des Insassen gefolgert (vgl. z. B. Patentdokument 1).In order to prevent falling asleep at the wheel, technologies are being developed to infer the tiredness of an occupant by detecting the elements of the occupant's face such as the occupant's eyes or mouth (hereinafter referred to as facial elements) and calculating the degree of eye opening or mouth opening degree. When detecting the facial elements of an occupant, various reasons may occur, e.g. B. because the occupant is wearing sunglasses or a mask, the facial elements of the occupant are no longer detected. Traditionally, in the event that an occupant's eyes could no longer be detected because of wearing sunglasses, a shade of the landscape reflected in the lenses of the sunglasses was extracted as a feature size, or in the event that an occupant's mouth was extracted due to wearing them a mask could no longer be detected, the shape of the mask was extracted as a feature size, and a state such as the direction of the occupant's face was inferred (see, for example, Patent Document 1).
[Dokumente des Standes der Technik][Prior Art Documents]
[Patentdokumente][patent documents]
[Patentdokument 1] Patentveröffentlichung Nr.
[Überblick über die Erfindung][Overview of the Invention]
[Durch die Erfindung zu lösende Aufgabe][Problem to be solved by the invention]
Es kann jedoch vorkommen, dass wie vorstehend beschrieben, bei der Detektion einer Vielzahl von Gesichtselementen eines Insassen die Detektion eines Teils der Gesichtselemente schwierig wird. Daraus ergibt sich das Problem, dass die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit eines Insassen abnimmt, wenn ein Teil der Gesichtselemente nicht detektiert werden konnte.However, as described above, when a plurality of facial elements of an occupant are detected, detection of a part of the facial elements becomes difficult. This results in a problem that the reliability of the inference result of an occupant's fatigue decreases when a part of the facial elements could not be detected.
Die vorliegende Offenbarung erfolgte zur Lösung des beschriebenen Problems und beabsichtigt die Bereitstellung einer Müdigkeit-Folgerungsvorrichtung, bei der die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit des Insassen gesichert ist, selbst wenn ein Teil der Gesichtselemente des Insassen nicht detektiert wurde.The present disclosure has been made to solve the described problem and aims to provide a fatigue inference device in which the reliability of the inference result of the occupant's fatigue is ensured even if a part of the occupant's facial elements has not been detected.
[Mittel zum Lösen der Aufgabe][Means for solving the task]
Die Müdigkeit-Folgerungsvorrichtung gemäß der vorliegenden Offenbarung umfasst eine Bilderwerbssektion, die von einer Abbildungsvorrichtung zum Abbilden eines Insassen in einem Fahrzeug ein Abbildungsbild erwirbt, einen Gesichtsdetektor, der eine Gesicht-Detektionsverarbeitung durchführt, bei der eine Vielzahl von Gesichtselementen eines Insassen anhand des Abbildungsbildes detektiert werden, und eine Müdigkeit-Folgerungssektion zur Folgerung der Müdigkeit eines anhand des Abbildungsbildes detektierten Insassen, wobei durch den Gesichtsdetektor als Gesicht-Detektionsverarbeitung eine erste Gesicht-Detektionsverarbeitung und nach der ersten Gesicht-Detektionsverarbeitung eine zweite Gesicht-Detektionsverarbeitung erfolgt, und durch die Müdigkeit-Folgerungssektion für den Fall, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung von ersten Gesichtsdaten, die anhand eines durch die erste Gesicht-Detektionsverarbeitung detektierten Teils von Gesichtselementen erhalten wurden, und zweiten Gesichtsdaten, die anhand von durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselementen erhalten wurden, die sich von dem Teil der Gesichtselemente unterscheiden, die Müdigkeit des Insassen gefolgert wird.The fatigue inference device according to the present disclosure includes an image acquisition section that acquires an image image from an imaging device for imaging an occupant in a vehicle, a face detector that performs face detection processing in which a plurality of facial elements of an occupant are detected from the image image , and a fatigue inference section for inferring the fatigue of an occupant detected from the image image, wherein a first face detection processing is carried out by the face detector as face detection processing and a second face detection processing is carried out after the first face detection processing, and by the fatigue inference section in the case where a part of facial elements was not detected by the second face detection processing of the plurality of facial elements of the occupant, using first facial data obtained from a part of facial elements detected by the first face detection processing, and second Facial data obtained from other facial elements detected by the second face detection processing that are different from the part of the facial elements inferring the occupant's fatigue.
Ferner umfasst ein Müdigkeit-Folgerungssystem gemäß der vorliegenden Offenbarung eine in einem Fahrzeug eingebaute Abbildungsvorrichtung zum Abbilden eines Insassen in dem Fahrzeug, eine Bilderwerbssektion, die von der Abbildungsvorrichtung ein Abbildungsbild erwirbt, einen Gesichtsdetektor, der eine Gesicht-Detektionsverarbeitung durchführt, bei der eine Vielzahl von Gesichtselementen eines Insassen anhand des Abbildungsbildes detektiert werden, und eine Müdigkeit-Folgerungssektion zur Folgerung der Müdigkeit eines anhand des Abbildungsbildes detektierten Insassen, wobei durch den Gesichtsdetektor als Gesicht-Detektionsverarbeitung eine erste Gesicht-Detektionsverarbeitung und nach der ersten Gesicht-Detektionsverarbeitung eine zweite Gesicht-Detektionsverarbeitung erfolgt, und durch die Müdigkeit-Folgerungssektion für den Fall, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung von ersten Gesichtsdaten, die anhand eines durch die erste Gesicht-Detektionsverarbeitung detektierten Teils von Gesichtselementen erhalten wurden, und zweiter Gesichtsdaten, die anhand von durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselementen erhalten wurden, die sich von dem Teil der Gesichtselemente unterscheiden, die Müdigkeit des Insassen gefolgert wird.Further, a fatigue inference system according to the present disclosure includes a vehicle-mounted imaging device for imaging an occupant in the vehicle, an image acquisition section that acquires an image image from the imaging device, a face detector that performs face detection processing in which a plurality of Facial elements of an occupant are detected based on the image image, and a fatigue inference section for inferring the fatigue of an occupant detected based on the image image, wherein a first face detection processing is carried out by the face detector as face detection processing and a second face detection processing after the first face detection processing and by the fatigue inference section in the case that a part of the facial elements of the occupant is not detected by the second face detection processing of the plurality of facial elements, using first facial data based on one detected by the first face detection processing Partially obtained from face elements, and secondly face data based on by the second face detection processing detected other facial elements that are different from the part of the facial elements that the occupant's fatigue is inferred.
[Effekte der Erfindung][Effects of the invention]
Der vorliegenden Offenbarung zufolge kann die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit eines Insassen sichergestellt werden, selbst wenn ein Teil der Gesichtselemente des Insassen nicht detektiert werden konnte.According to the present disclosure, the reliability of the inference result of an occupant's fatigue can be ensured even if a part of the occupant's facial elements could not be detected.
[Kurze Erläuterung der Zeichnungen][Brief explanation of the drawings]
-
[
1 ]1 ist ein Blockbild, das ein Strukturbeispiel eines Müdigkeit-Folgerungssystems gemäß einer ersten Ausführungsform zeigt.[1 ]1 is a block diagram showing a structural example of a fatigue inference system according to a first embodiment. -
[
2 ]2 ist eine erläuternde Ansicht, die den Abbildungsbereich einer Abbildungsvorrichtung gemäß der ersten Ausführungsform zeigt.[2 ]2 is an explanatory view showing the imaging area of an imaging device according to the first embodiment. -
[
3 ]3 sind erläuternde Ansichten, welche Merkmalspunkt-Detektionsbeispiele der Müdigkeit-Folgerungsvorrichtung gemäß der ersten Ausführungsform zeigen.[3 ]3 are explanatory views showing feature point detection examples of the fatigue inference device according to the first embodiment. -
[
4 ]4 ist eine erläuternde Ansicht, welche ein Beispiel eines Bestimmungsergebnisses der Gesichtselemente bei der Müdigkeit-Folgerungsvorrichtung gemäß der ersten Ausführungsform zeigt.[4 ]4 is an explanatory view showing an example of a determination result of the facial elements in the fatigue inference device according to the first embodiment. -
[
5 ]5 ist ein Ablaufdiagramm, das ein Betriebsbeispiel der Müdigkeit-Folgerungsvorrichtung gemäß der ersten Ausführungsform zeigt.[5 ]5 is a flowchart showing an operation example of the fatigue inference device according to the first embodiment. -
[
6 ]6 zeigt Beispiele des Hardware-Aufbaus der Müdigkeit-Folgerungsvorrichtung gemäß der ersten Ausführungsform.[6 ]6 shows examples of the hardware structure of the fatigue inference device according to the first embodiment. -
[
7 ]7 ist ein Ablaufdiagramm, das ein Betriebsbeispiel der Müdigkeit-Folgerungsvorrichtung gemäß einer zweiten Ausführungsform zeigt.[7 ]7 is a flowchart showing an operation example of the fatigue inference device according to a second embodiment. -
[
8 ]8 ist ein Strukturdiagramm einer Lernvorrichtung bezüglich einer Müdigkeit-Folgerungsvorrichtung gemäß einer dritten Ausführungsform.[8th ]8th is a structural diagram of a learning device related to a fatigue inference device according to a third embodiment. -
[
9 ]9 ist eine erläuternde Ansicht, die ein Lernbeispiel eines neuronalen Netzwerks der Lernvorrichtung gemäß der dritten Ausführungsform zeigt.[9 ]9 is an explanatory view showing a learning example of a neural network of the learning apparatus according to the third embodiment. -
[
10 ]10 ist ein Ablaufdiagramm, das ein Verarbeitungsbeispiel zur Erzeugung eines gelernten Modells der Lernvorrichtung gemäß der dritten Ausführungsform zeigt.[10 ]10 is a flowchart showing an example of processing for generating a learned model of the learning apparatus according to the third embodiment. -
[
11 ]11 sind erläuternde Ansichten, die den Beitrag der Änderungsgröße der Gesichtsdaten gemäß der dritten Ausführungsform zur Schlussfolgerung zeigen.[11 ]11 are explanatory views showing the contribution of the change amount of the face data according to the third embodiment to the conclusion. -
[
12 ]12 ist ein Strukturdiagramm, das ein Strukturbeispiel eines Müdigkeit-Folgerungssystems gemäß der dritten Ausführungsform zeigt.[12 ]12 is a structural diagram showing a structural example of a fatigue inference system according to the third embodiment. -
[
13 ]13 sind Ablaufdiagramme, die Betriebsbeispiele der Müdigkeit-Folgerungsvorrichtung gemäß der dritten Ausführungsform zeigen.[13 ]13 are flowcharts showing operational examples of the fatigue inference device according to the third embodiment.
[Formen zur Ausführung der Erfindung][Forms for Carrying Out the Invention]
Im Folgenden werden Ausführungsformen basierend auf den Zeichnungen erläutert.Embodiments are explained below based on the drawings.
Erste AusführungsformFirst embodiment
Wie ferner in
Zurück zu
Die Bilderwerbssektion 1 der Müdigkeit-Folgerungsvorrichtung 10 ist mit der Abbildungsvorrichtung 20 verbunden und erwirbt von der Abbildungsvorrichtung 20 ein Abbildungsbild. Dann gibt die Bilderwerbssektion 1 das erworbene Abbildungsbild an den Gesichtsdetektor 11 aus. Wie in
Die Müdigkeit-Folgerungssektion 10 weist die Fahrzeuginformationen-Erwerbssektion 2 auf, die mit einer fahrzeugseitigen Steuerungsvorrichtung 200 verbunden ist. Die Fahrzeuginformationen-Erwerbssektion 2 erwirbt von der fahrzeugseitigen Steuerungsvorrichtung 200 ein Signal bezüglich des Startens oder Stoppens des Fahrzeugs. Dann gibt sie mittels des von der fahrzeugseitigen Steuerungsvorrichtung 200 erworbenen Signals an die Bilderwerbssektion 1 ein Signal für das Starten des Erwerbens von Abbildungsbildern oder ein Signal zum Beenden des Erwerbens von Abbildungsbildern aus.The
Hat die Fahrzeuginformationen-Erwerbssektion 2 beispielsweise von der fahrzeugseitigen Steuerungsvorrichtung 200 ein Signal von entweder einer Türentriegelung, eines Türöffnens, eines Einschaltens der Zündung, eines Einschaltens eines Bewegungsmelders, einer Bewegung des Schalthebels zur D-Position, eines Überschreitens der Fahrzeuggeschwindigkeit von 0 km/h, des Beginns der Führung durch eine Navigationsvorrichtung oder der Abfahrt des Fahrzeugs von Zuhause erworben, gibt sie an die Bilderwerbssektion 1 ein Signal für den Beginn des Erwerbs von Abbildungsbildern aus. Hat die Fahrzeuginformationen-Erwerbssektion 2 andererseits beispielsweise von der fahrzeugseitigen Steuerungsvorrichtung 200 ein Signal von entweder eines Ausschaltens der Zündung, eines Ausschaltens eines Bewegungsmelders, einer Bewegung des Schalthebels zur Parken-Position, eines Beendens der Führung durch eine Navigationsvorrichtung oder der Ankunft des Fahrzeugs Zuhause erworben, gibt sie an die Bilderwerbssektion 1 ein Signal für das Beenden des Erwerbs von Abbildungsbildern aus.For example, the vehicle
Als Nächstes wird der Gesichtsdetektor 11 der Müdigkeit-Folgerungsvorrichtung 10 erläutert. Der Gesichtsdetektor 11 umfasst eine Merkmalspunkt-Detektionssektion 3, durch die Merkmalspunkte der Gesichtselemente eines Insassen in einem Abbildungsbild detektiert werden, eine Merkmalsgrößen-Berechnungssektion 4, durch die Merkmalsgrößen bezüglich der Gesichtselemente eines Insassen berechnet werden, und eine Gesichtselement-Beurteilungssektion 5, durch die beurteilt wird, ob ein Teil der Gesichtselemente detektiert oder nicht detektiert wurde.Next, the
Zunächst wird die Merkmalspunkt-Detektionsverarbeitung durch die Merkmalspunkt-Detektionssektion 3 erläutert.
Dann wird bei der Merkmalspunkt-Detektionssektion 3 beispielsweise wie bei dem Beispiel in
Dann extrahiert die Merkmalspunkt-Detektionssektion 3 im Gesichtsbereich enthaltene Merkmalspunkte der Elemente des Gesichts eines Insassen (im Folgenden als Gesichtselemente bezeichnet). Gesichtselemente des Insassen sind z. B. ein linkes Auge 81, ein rechtes Auge 82, eine Nase 83 und ein Mund 84 des Insassen, die in
Die Merkmalspunkt-Detektionssektion 3 erwirbt beispielsweise Positionsdaten im Abbildungsbild von charakteristischen Stellen, d. h. Merkmalspunkten, welche ein Gesichtselement aufweist, wie bezüglich des linken Auges und des rechten Auges der Pupille, des äußeren Augenwinkels, des inneren Augenwinkels, des Oberlids und des Unterlids. Im Folgenden werden zur Erläuterung das rechte Auge und das linke Auge auch zusammengefasst als Auge angegeben.The feature
Ferner erwirbt die Merkmalspunkt-Detektionssektion 3 beispielsweise Positionsdaten im Abbildungsbild von Merkmalspunkten, welche das Gesichtselement aufweist, wie bezüglich der Nase der Nasenwurzel, der Nasenspitze, des Nasenrückens und der Nasenflügel. Außerdem erwirbt die Merkmalspunkt-Detektionssektion 3 beispielsweise Positionsdaten im Abbildungsbild von Merkmalspunkten, welche das Gesichtselement aufweist, wie bezüglich des Mundes der Oberlippe, der Unterlippe und der Mundwinkel. Dann gibt die Merkmalspunkt-Detektionssektion 3 die erworbenen Positionsdaten bezüglich der jeweiligen Gesichtselemente, d. h. die Positionsdaten der Merkmalspunkte an die Merkmalsgrößen-Berechnungssektion 4 und die Gesichtselement-Beurteilungssektion 5 aus.Further, the feature
Die durch die Merkmalspunkt-Detektionssektion 3 erworbenen Positionsdaten der Merkmalspunkte, welche die jeweiligen Gesichtselemente aufweisen, sind beispielsweise Daten, die Koordinaten mit der spezifischen Position O im in
Dann werden durch die Merkmalsgrößen-Berechnungssektion 4 des Gesichtsdetektors 11 anhand der detektierten Merkmalspunkte, Merkmalsgrößen bezüglich der Gesichtselemente des Insassen berechnet. Die Merkmalsgrößen stellen den Zustand des Insassen dar, beispielsweise den Augenöffnungsgrad oder Mundöffnungsgrad, und sind Daten, die für die im Folgenden beschriebene Müdigkeit-Folgerungsverarbeitung verwendet werden. Außerdem kann es sich bei den Merkmalsgrößen auch um Daten handeln, die sich über eine Vielzahl von Abbildungsbildern erstrecken, wie z. B. die Häufigkeit des Lidschlags, der Zeit des Lidschlags, das Vorliegen/Nichtvorliegen von Gähnen oder die Geschwindigkeit eines Nickens. Auch zur Berechnungsverarbeitung der Merkmalsgrößen durch die Merkmalsgrößen-Berechnungssektion 4 können allgemein bekannte verschiedene Algorithmen verwendet werden. Ferner können die durch die Merkmalsgrößen-Berechnungssektion 4 berechneten Merkmalsgrößen, auch in einer Speichersektion der Müdigkeit-Folgerungsvorrichtung 10 aufgezeichnet werden. Im Folgenden werden Daten bezüglich der Müdigkeit-Folgerungsverarbeitung eines Insassen, die durch die Gesicht-Detektionsverarbeitung detektiert wurden, d. h. Positionsdaten von Merkmalspunkten, die ein Gesichtselement aufweist, und Gesichtsmerkmalsgrößen, die mittels der Gesichtselemente berechnet wurden, zusammengefasst als Gesichtsdaten bezeichnet.Then, feature sizes relating to the facial elements of the occupant are calculated by the feature size calculation section 4 of the
Im Übrigen kann es bei einer Detektion von Gesichtselementen eines Insassen mittels eines Abbildungsbildes aufgrund verschiedener Ursachen schwierig sein, Gesichtselemente zu detektieren. Trägt der Insasse beispielsweise eine Sonnenbrille, werden die Augen als Gesichtselemente des Insassen durch die Sonnenbrille verdeckt, sodass eine Detektion durch den Gesichtsdetektor 11 erschwert wird. Trägt der Insasse ferner eine Maske, werden Nase und Mund als Gesichtselemente des Insassen durch die Maske verdeckt, sodass eine Detektion durch den Gesichtsdetektor 11 erschwert wird. Bedeckt der Insasse schließlich z. B. einen Teil des Gesichts mit einer Hand, wird die Detektion der durch die Hand bedeckten Gesichtselemente erschwert. Ferner kann das aufgenommene Abbildungsbild durch Gegenlicht dunkler oder heller werden, sodass das Kontrastverhältnis zwischen den Gesichtselementen und dem Hintergrund der Gesichtselemente sich verringert, wodurch die Detektion der Gesichtselemente durch den Gesichtsdetektor 11 erschwert werden kann.Incidentally, when detecting facial elements of an occupant using an image, it may be difficult to detect facial elements due to various reasons. For example, if the occupant is wearing sunglasses, the eyes as facial elements of the occupant are covered by the sunglasses, so that detection by the
Erfolgt wie vorstehend beschrieben für den Fall, dass durch die Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert werden konnte, eine Folgerung der Müdigkeit des Insassen ausschließlich mittels der detektierten Gesichtselemente, kann dies dazu führen, dass die Gesichtsdaten, die für die Müdigkeit-Folgerungsverarbeitung verwendet werden, unzureichend sind und der Zustand der Müdigkeit des Insassen unsicher ist, sodass die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses nicht sichergestellt ist, oder die Möglichkeit besteht, dass eine Müdigkeit-Folgerungsverarbeitung nicht mehr ausgeführt werden kann. Wurde von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert, folgert daher die Müdigkeit-Folgerungssektion 12 gemäß der vorliegenden Offenbarung die Müdigkeit des Insassen auch unter Verwendung von Gesichtsdaten, die in der Vergangenheit detektiert wurden.If, as described above, in the event that a part of the facial elements could not be detected by the face detection processing of the plurality of facial elements, an inference of the occupant's tiredness is made exclusively by means of the detected facial elements, this can lead to the facial data being used for drowsiness inference processing are insufficient and the state of the occupant's drowsiness is uncertain, so that the reliability of the drowsiness inference result is not ensured, or there is a possibility that drowsiness inference processing can no longer be carried out. Therefore, according to the present disclosure, if a part of the facial elements was not detected among the plurality of facial elements, the
Im Folgenden wird, nachdem die Verarbeitung durch die Gesichtselement-Beurteilungssektion 5 zur Beurteilung, ob bei der Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente detektiert oder nicht detektiert wurde, erläutert wurde, die Müdigkeit-Folgerungssektion 12 erläutert. Zunächst erwirbt die Gesichtselement-Beurteilungssektion 5 von der Merkmalspunkt-Detektionssektion 3 des Gesichtsdetektors 11 Positionsdaten der Merkmalspunkte, welche die Gesichtselemente aufweisen, und bestimmt die anhand des Abbildungsbildes detektierten Gesichtselemente.Next, after explaining the processing by the facial
Beispielsweise bestimmt die Gesichtselement-Beurteilungssektion 5, dass im Abbildungsbild das linke Auge des Insassen detektiert wurde, wenn anhand der Positionsdaten der Merkmalspunkte, die von der Merkmalspunkt-Detektionssektion 3 erworben wurden, das Vorliegen des linken Auges des Insassen im Abbildungsbild dargestellt wird. Andererseits bestimmt die Gesichtselement-Beurteilungssektion 5, dass das linke Auge durch den Gesichtsdetektor 11 nicht detektiert wurde, wenn anhand der Positionsdaten der Merkmalspunkte, die von der Merkmalspunkt-Detektionssektion 3 erworben wurden, kein Vorliegen des linken Auges des Insassen im Abbildungsbild dargestellt wird.For example, the facial
Hierbei genügt es, wenn die Gesichtselement-Beurteilungssektion 5 beispielsweise aufgrund dessen bestimmt, dass ein Gesichtselement des Insassen detektiert wurde, wenn an irgendeiner Stelle im Gesichtsbereich Merkmalspunkte vorliegen, die das Gesichtselement aufweist. In diesem Fall kann z. B. bezüglich des Auges bestimmt werden, dass ein Auge detektiert wurde, wenn Merkmalspunkte, die ein Auge aufweist, d. h. die Pupille, der äußere Augenwinkel, der innere Augenwinkel, das Oberlid und das Unterlid an einer Stelle detektiert werden, an der sie im Gesichtsbereich vorliegen können. Ebenso kann bei anderen Gesichtselementen wie der Nase, dem Mund und der Kontur des Insassen bestimmt werden, dass durch den Gesichtsdetektor 11 die Gesichtselemente detektiert wurden, wenn Merkmalspunkte, die diese Gesichtselemente aufweisen, an einer Stelle detektiert werden, an der sie im Gesichtsbereich vorliegen können.It is sufficient here if the facial
Außerdem kann die Gesichtselement-Beurteilungssektion 5 auch von der Merkmalsgrößen-Detektionssektion 4 des Gesichtsdetektors 11 das Berechnungsergebnis der Merkmalsgrößen erwerben und die anhand des Abbildungsbildes detektierten Gesichtselemente bestimmen. In diesem Fall kann die Gesichtselement-Beurteilungssektion 5 z. B. bestimmen, dass der Mund detektiert wurde, wenn von der Merkmalsgrößen-Berechnungssektion 4 der Mundöffnungsgrad erworben wurde, und bestimmen, dass der Mund nicht detektiert wurde, wenn der Mundöffnungsgrad nicht erworben werden konnte. Auf diese Weise kann die Gesichtselement-Beurteilungssektion 5 durch das Erwerben einer dem Gesichtselement entsprechenden Merkmalsgröße bestimmen, ob anhand eines Abbildungsbildes ein Gesichtselement detektiert wurde, und sie kann bestimmen, dass anhand eines Abbildungsbildes ein Gesichtselement nicht detektiert wurde, wenn eine dem Gesichtselement entsprechende Merkmalsgröße nicht erworben werden konnte. Die einem Gesichtsmerkmal entsprechende Merkmalsgröße ist beispielsweise bei einem Auge der Augenöffnungsgrad, bei einem Mund der Mundöffnungsgrad und bei der Kontur die Gesichtsrichtung.In addition, the facial
Die Verarbeitung der Bestimmung von Gesichtselementen durch die Gesichtselement-Beurteilungssektion 5 ist ferner nicht auf die vorstehenden Beispiele beschränkt. Beispielsweise kann die Gesichtselement-Beurteilungssektion 5 auch mittels eines Bildverarbeitungsverfahrens wie einem Vorlagenabgleich die anhand des Abbildungsbildes detektierten Gesichtselemente bestimmen. Bei einer Bestimmung der anhand des Abbildungsbildes detektierten Gesichtselemente mittels eines Vorlagenabgleichs können durch die Gesichtselement-Beurteilungssektion 5 beispielsweise durch einen Vergleich des Abbildungsbildes mit Bildern zur Ähnlichkeitsfeststellung, die vorab in einer Speichersektion gesammelt wurden, wie Bildern, auf denen Gesichtselemente abgebildet sind, die anhand des Abbildungsbildes detektierten Gesichtselemente bestimmt werden. Die Bestimmungsverarbeitung durch die Gesichtselement-Beurteilungssektion 5 ist auch mittels eines bekannten Bildverarbeitungsverfahrens wie einer Instanzsegmentierung möglich.Further, the facial element determination processing by the facial
Die Gesichtselement-Beurteilungssektion 5 kann auch bestimmen, dass ein Gesichtselement nicht detektiert wurde, bei dem die Möglichkeit besteht, dass es durch ein Accessoire bedeckt ist, wenn detektiert wurde, dass der Insasse ein Accessoire wie eine Maske oder eine Sonnenbrille trägt. Wurde beispielsweise detektiert, dass der Insasse eine Maske trägt, kann sie bestimmen, dass von den Gesichtselementen Nase oder Mund nicht detektiert wurden. Wurde ferner beispielsweise detektiert, dass der Insasse eine Sonnenbrille trägt, kann sie bestimmen, dass von den Gesichtselementen die Augen nicht detektiert wurden.The facial
Dann zeichnet die Gesichtselement-Beurteilungssektion 5 das Bestimmungsergebnis der Gesichtselemente in dem Abbildungsbild, das der vorstehenden Bestimmungsverarbeitung unterzogen wurde, in einer Speichersektion der Müdigkeit-Folgerungsvorrichtung 10 auf.
Daher wird durch die Gesichtselement-Beurteilungssektion 5 unter Verwendung des Ergebnisses der Verarbeitung zur Bestimmung der Gesichtselemente beurteilt, ob in einem bestimmten Frame von einer Vielzahl von Gesichtselementen eines Insassen ein Teil der Gesichtselemente nicht detektiert wurde. Die Gesichtselement-Beurteilungssektion 5 beurteilt beispielsweise, dass bei der Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, wenn von der Vielzahl von Gesichtselementen ein vorgegebenes Gesichtselement nicht detektiert wurde. Andererseits beurteilt die Gesichtselement-Beurteilungssektion 5, dass sämtliche Gesichtselemente detektiert wurden, wenn bei der Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen sämtliche der vorgegebenen Gesichtselemente detektiert wurden.Therefore, it is judged by the facial
Ferner kann die Gesichtselement-Beurteilungssektion 5 beispielsweise auch beurteilen, dass von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, wenn bei der Gesicht-Detektionsverarbeitung von einer Vielzahl von vorgegebenen Gesichtselementen sämtliche Gesichtselemente nicht detektiert wurden. In diesem Fall beurteilt die Gesichtselement-Beurteilungssektion 5, dass von einer Vielzahl von Gesichtselementen sämtliche der Gesichtselemente detektiert wurden, wenn bei der Gesicht-Detektionsverarbeitung sämtliche der Vielzahl von vorab eingestellten Gesichtselementen detektiert wurden.Further, for example, the facial
Bei den vorab eingestellten Gesichtselementen handelt es sich um eines oder eine Vielzahl von Gesichtselementen, die für die Müdigkeit-Folgerungsverarbeitung verwendet werden, wie z. B. das linke Auge, das rechte Auge oder den Mund. Ferner sind die vorstehend erwähnten sämtlichen Gesichtselemente nicht beschränkt auf sämtliche Gesichtselemente, die ein Insasse aufweist, sondern kann auch eine Vielzahl von Gesichtselementen einschließen, die aus den sämtlichen Gesichtselementen, die ein Insasse aufweist, ausgewählt wurden. Dann gibt die Gesichtselement-Beurteilungssektion 5 an die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis aus, das anzeigt, ob in einem bestimmten Frame von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente detektiert oder nicht detektiert wurde.The preset facial elements are one or a plurality of facial elements used for fatigue inference processing, such as: B. the left eye, the right eye or the mouth. Further, the above-mentioned all of the facial elements are not limited to all of the facial elements that an occupant has, but may also include a plurality of facial elements selected from all of the facial elements that an occupant has. Then, the facial
Als Nächstes wird im Hinblick auf die Müdigkeit-Folgerungssektion 12 als ein Beispiel der Müdigkeit-Folgerungsverarbeitung eines Insassen, der anhand eines Abbildungsbildes detektiert wurde, ein Beispiel angeführt und erläutert, bei dem die Müdigkeit eines Insassen durch eine Berechnung der Müdigkeitsstufe gefolgert wird. Hierbei handelt es sich bei der Müdigkeitsstufe um einen Indikatorwert, der den Indikator der Müdigkeit eines Insassen von einem Wachzustand bis zu einem Zustand, in dem eine starke Müdigkeit verspürt wird, stufenweise unterteilt. Beispielsweise handelt es sich um die Müdigkeitsstufe 1, wenn sich der Insasse in einem Wachzustand befindet, und um die Müdigkeitsstufe 9, wenn der Insasse sich in einem Zustand befindet, in dem er eine starke Müdigkeit verspürt. Mit zunehmender Müdigkeit, die ein Insasse verspürt, erfolgt ein Übergang von der Müdigkeitsstufe 1 zur Müdigkeitsstufe 9.Next, regarding the
Die Müdigkeit-Folgerungssektion 12 berechnet die Müdigkeitsstufe eines Insassen mittels der Gesichtsdaten, die von dem Gesichtsdetektor 11 erworben wurden. Beispielsweise berechnet die Müdigkeit-Folgerungssektion 12, wenn sie als Gesichtsdaten den Augenöffnungsgrad als Merkmalsgröße erworben hat, eine höhere Müdigkeitsstufe des Insassen, je kleiner der Augenöffnungsgrad ist. Es besteht nämlich die Tendenz, dass der Augenöffnungsgrad kleiner wird, je stärker die Müdigkeit ist. In diesem Fall sollte durch die Müdigkeit-Folgerungssektion 12 die Berechnung der Müdigkeitsstufe dadurch erfolgen, dass eine Vielzahl von Schwellenwerten für den Augenöffnungsgrad eingestellt wird, und beurteilt wird, ob der Augenöffnungsgrad unterhalb der jeweiligen Schwellenwerte liegt.The
Ferner berechnet die Müdigkeit-Folgerungssektion 12, beispielsweise wenn sie als Gesichtsdaten den Mundöffnungsgrad als Merkmalsgröße erworben hat, eine höhere Müdigkeitsstufe, je größer der Mundöffnungsgrad ist. Bei einem großen Mundöffnungswinkel besteht nämlich die Möglichkeit, dass der Insasse Müdigkeit verspürt und gähnt. In diesem Fall sollte die Berechnung der Müdigkeitsstufe dadurch erfolgen, dass eine Vielzahl von Schwellenwerten für den Mundöffnungsgrad vorgesehen wird, und durch die Müdigkeit-Folgerungssektion 12 beurteilt wird, ob der Mundöffnungsgrad unterhalb der jeweiligen Schwellenwerte liegt.Furthermore, the
Außerdem berechnet die Müdigkeit-Folgerungssektion 12, beispielsweise wenn sie als Gesichtsdaten die Häufigkeit des Lidschlags als Merkmalsgröße erworben hat, eine höhere Müdigkeitsstufe des Insassen, je geringer die Häufigkeit des Lidschlags ist. Es besteht nämlich die Tendenz, dass die Häufigkeit des Lidschlags geringer wird, je stärker die Müdigkeit ist. In diesem Fall sollte die Berechnung der Müdigkeitsstufe dadurch erfolgen, dass eine Vielzahl von Schwellenwerten für die Häufigkeit des Lidschlags vorgesehen wird, und durch die Müdigkeit-Folgerungssektion 12 beurteilt wird, ob die Häufigkeit des Lidschlags unterhalb der jeweiligen Schwellenwerte liegt.In addition, the
Dann berechnet die Müdigkeit-Folgerungssektion 12 für den Fall, dass von dem Gesichtsdetektor 11 eine Vielzahl von Gesichtsdaten erworben wurde, mittels der Vielzahl von Gesichtsdaten eine Gesamt-Müdigkeitsstufe. Wurden beispielsweise als Gesichtsdaten von dem Gesichtsdetektor 11 der Augenöffnungsgrad und der Mundöffnungsgrad als Merkmalsgrößen erworben, berechnet die Müdigkeit-Folgerungssektion 12 die Müdigkeitsstufe mittels des Augenöffnungsgrads und des Mundöffnungsgrads. In diesem Fall kann die Müdigkeit-Folgerungssektion 12 auch jeweils eine anhand des Augenöffnungsgrads berechnete Müdigkeitsstufe und eine anhand des Mundöffnungsgrad berechnete Müdigkeitsstufe berechnen und das Mittel der jeweiligen Müdigkeitsstufen als Gesamt-Müdigkeitsstufe vorgeben.Then, in the case where a plurality of facial data has been acquired from the
Ferner kann die Müdigkeit-Folgerungssektion 12 beispielsweise auch eine anhand des Augenöffnungsgrads berechnete Müdigkeitsstufe und eine anhand des Mundöffnungsgrad berechnete Müdigkeitsstufe vergleichen und die höhere Müdigkeitsstufe der jeweiligen Müdigkeitsstufen als Gesamt-Müdigkeitsstufe vorgeben. Andererseits kann die Müdigkeit-Folgerungssektion 12 beispielsweise auch eine anhand des Augenöffnungsgrads berechnete Müdigkeitsstufe und eine anhand des Mundöffnungsgrad berechnete Müdigkeitsstufe vergleichen und die niedrigere Müdigkeitsstufe der jeweiligen Müdigkeitsstufen als Gesamt-Müdigkeitsstufe vorgeben.Furthermore, the
Auf diese Weise gibt die Müdigkeit-Folgerungssektion 12 für den Fall, dass von dem Gesichtsdetektor 11 eine Vielzahl von Gesichtsdaten erworben wurde, eine berechnete Gesamt-Müdigkeitsstufe als Müdigkeit-Folgerungsergebnis z. B. an die fahrzeugseitige Steuerungsvorrichtung 200 aus. Die Müdigkeit-Folgerungsverarbeitung durch die Müdigkeit-Folgerungssektion 12 ist nicht auf die vorstehenden Beispiele beschränkt und es können allgemein bekannte verschiedene Algorithmen hierfür verwendet werden. Beispielsweise kann die Müdigkeit-Folgerungssektion 12 auch ohne Berechnung der Müdigkeitsstufe mittels der von dem Gesichtsdetektor 11 erworbenen Gesichtsdaten folgern, in welchem Müdigkeitszustand von stufenweise unterteilten Müdigkeitszuständen sich der Insasse befindet. Ferner kann die Müdigkeit-Folgerungssektion 12 auch, wenn sie von dem Gesichtsdetektor 11 Positionsdaten der Merkmalspunkte als Gesichtsdaten erworben hat, nachdem ebenso wie bei der Merkmalsgrößen-Berechnungssektion 4 eine Berechnungsverarbeitung der Merkmalsgrößen anhand der Positionsdaten der Merkmalspunkte durchgeführt wurde, mittels der Merkmalsgrößen die vorstehend beschriebene Müdigkeit-Folgerungsverarbeitung durchführen.In this way, in the case where a plurality of facial data has been acquired from the
Außerdem ist bei der Müdigkeit-Folgerungssektion 12 die Müdigkeit-Folgerungsverarbeitung aufgrund des Beurteilungsergebnisses, ob durch die Gesichtselement-Beurteilungssektion 5 bei der Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente detektiert oder nicht detektiert wurde, unterschiedlich. Wurde bei der Gesicht-Detektionsverarbeitung in einem bestimmten Frame von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert, führt die Müdigkeit-Folgerungssektion 12 bei der vorliegenden Ausführungsform eine Müdigkeitsfolgerung des Insassen unter Verwendung von Gesichtsdaten durch, die bei einer Gesicht-Detektionsverarbeitung erhalten wurden, welche vor dem bestimmten Frame erfolgt ist. Im Folgenden wird zur Erläuterung eine Gesicht-Detektionsverarbeitung, welche vor einem bestimmten Frame erfolgt ist, als erste Gesicht-Detektionsverarbeitung, und eine Gesicht-Detektionsverarbeitung in einem bestimmten Frame als zweite Gesicht-Detektionsverarbeitung bezeichnet. Das heißt, die zweite Gesicht-Detektionsverarbeitung ist eine Verarbeitung, die nach der ersten Gesicht-Detektionsverarbeitung erfolgt.Furthermore, in the
Ferner werden eine oder eine Vielzahl von Gesichtsdaten, die mittels der ersten Gesicht-Detektionsverarbeitung erhalten wurden, als erste Gesichtsdaten und eine oder eine Vielzahl von Gesichtsdaten, die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden, als zweite Gesichtsdaten bezeichnet. Wenn die zweite Gesicht-Detektionsverarbeitung eine nach der ersten Gesicht-Detektionsverarbeitung erfolgende Verarbeitung ist, ist der Abstand zwischen der ersten Gesicht-Detektionsverarbeitung und der zweiten Gesicht-Detektionsverarbeitung beliebig. Ferner werden die ersten Gesichtsdaten und die zweiten Gesichtsdaten auch jeweils als „Gesichtsdaten“ ausgedrückt.Further, one or a plurality of face data obtained by the first face detection processing is referred to as the first face data, and one or a plurality of face data obtained by the second face detection processing is referred to as the second face data. When the second face detection processing is a processing after the first face detection processing, the distance between the first face detection processing and the second face detection processing is arbitrary. Further, the first face data and the second face data are also each expressed as “face data”.
Es wird die Müdigkeit-Folgerungsverarbeitung für den Fall erläutert, dass durch die zweite Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde. Wurde mittels der zweiten Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert, berechnet die Müdigkeit-Folgerungssektion 12 die Müdigkeitsstufe des Insassen anhand der ersten Gesichtsdaten bezüglich einem Teil der Gesichtselemente, die mittels der ersten Gesicht-Detektionsverarbeitung erhalten wurden, und der zweiten Gesichtsdaten bezüglich anderen Gesichtselementen, die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden. Bei den anderen Gesichtselementen handelt es sich um eines oder eine Vielzahl von Gesichtselementen, das/die sich von einem Teil der Gesichtselemente von einer Vielzahl von Gesichtselementen unterscheidet/unterscheiden.The fatigue inference processing in the case where a part of the facial elements was not detected by the second face detection processing of a plurality of facial elements will be explained. If a part of the facial elements was not detected by the second face detection processing of the plurality of facial elements, the
Die Müdigkeit-Folgerungsverarbeitung durch die Müdigkeit-Folgerungssektion 12 wird unter Anführung eines Beispiels erläutert, bei dem beispielsweise ein Insasse eine Sonnenbrille trägt, und bei der zweiten Gesicht-Detektionsverarbeitung die Augen des Insassen nicht detektiert und der Mund des Insassen detektiert wurde.The fatigue inference processing by the
Wurden bei der zweiten Gesicht-Detektionsverarbeitung das linke Auge und das rechte Auge des Insassen nicht detektiert, gibt die Gesichtselement-Beurteilungssektion 5 an die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis aus, das anzeigt, dass mittels der zweiten Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde. Dann folgert die Müdigkeit-Folgerungssektion 12, die das Beurteilungsergebnis erworben hat, die Müdigkeit des Insassen anhand des Augenöffnungsgrades der ersten Gesichtsdaten bezüglich eines Teils der Gesichtselemente (Augen), die mittels der ersten Gesicht-Detektionsverarbeitung erhalten wurden, und des Mundöffnungsgrades der zweiten Gesichtsdaten bezüglich eines anderen Gesichtselements (Mund), die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden.If the occupant's left eye and right eye were not detected in the second face detection processing, the facial
Ferner wird unter Anführung eines Beispiels, bei dem beispielsweise ein Insasse eine Maske trägt, und bei der zweiten Gesicht-Detektionsverarbeitung der Mund des Insassen nicht detektiert wird, und die Augen des Insassen detektiert wurden, die Müdigkeit-Folgerungsverarbeitung durch die Müdigkeit-Folgerungssektion 12 für den Fall erläutert, dass von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde.Further, citing an example where, for example, an occupant wears a mask and in the second face detection processing, the occupant's mouth is not detected and the occupant's eyes have been detected, the fatigue inference processing by the
Wurde bei der zweiten Gesicht-Detektionsverarbeitung der Mund des Insassen nicht detektiert, gibt die Gesichtselement-Beurteilungssektion 5 an die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis aus, das anzeigt, dass mittels der zweiten Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde. Dann folgert die Müdigkeit-Folgerungssektion 12, die das Beurteilungsergebnis erworben hat, die Müdigkeit des Insassen anhand des Mundöffnungsgrades der ersten Gesichtsdaten bezüglich eines Teils der Gesichtselemente (Mund), die mittels der ersten Gesicht-Detektionsverarbeitung erhalten wurden, und des Augenöffnungsgrades der zweiten Gesichtsdaten bezüglich eines anderen Gesichtselements (Augen), die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden. Die Müdigkeit-Folgerungsverarbeitung ist gleich der vorstehend beschriebenen Verarbeitung, sodass eine detaillierte Erläuterung ausgelassen wird.If the occupant's mouth was not detected in the second face detection processing, the facial
Das Müdigkeit-Folgerungsergebnis durch die Müdigkeit-Folgerungssektion 12 kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden. Wenn das Müdigkeit-Folgerungsergebnis des Insassen durch die Müdigkeit-Folgerungssektion 12 anzeigt, dass der Insasse eine Müdigkeit verspürt, kann beispielsweise auch durch die fahrzeugseitige Steuerungsvorrichtung 200 eine Klimaanlage derart gesteuert werden, dass der Müdigkeit entgegengewirkt wird, oder eine Warnsektion derart gesteuert werden, dass ein Warnton an den Insassen ausgegeben wird.The fatigue inference result by the
Im Folgenden wird der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 erläutert.
Nach dem Beginn des Betriebs der Müdigkeit-Folgerungsvorrichtung 10 erwirbt zunächst die Bilderwerbssektion 1 der Müdigkeit-Folgerungsvorrichtung 10 von der Abbildungsvorrichtung 20 ein Abbildungsbild (ST1 01). Dann führt der Gesichtsdetektor 11 der Müdigkeit-Folgerungsvorrichtung 10 mittels des Abbildungsbildes eine erste Gesicht-Detektionsverarbeitung durch (ST102). Dabei handelt es sich bei der ersten Gesicht-Detektionsverarbeitung um eine Verarbeitung zur Detektion der Merkmalspunkte der Gesichtselemente des Insassen im Abbildungsbild und Berechnung von Merkmalsgrößen durch die Merkmalspunkt-Detektionssektion 3 und die Merkmalsgrößen-Berechnungssektion 4 des Gesichtsdetektors 11. Dann wird durch die Gesichtselement-Beurteilungssektion 5 durch die im Folgenden erläuterte Verarbeitung von ST103 und ST105 bestimmt, ob mittels der ersten Gesicht-Detektionsverarbeitung die Gesichtselemente des Insassen detektiert wurden.After the operation of the
Durch die Gesichtselement-Beurteilungssektion 5 wird bestimmt, ob durch die erste Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen eines Insassen ein Teil der Gesichtselemente detektiert wurde (ST103). Beispielsweise erwirbt die Gesichtselement-Beurteilungssektion 5 von der Merkmalspunkt-Detektionssektion 3 Positionsdaten von Merkmalspunkten, und bestimmt aufgrund dessen, ob Merkmalspunkte an einer Stelle detektiert wurden, an der ein Gesichtselement vorliegen kann, ob ein Gesichtselement detektiert wurde. Bei dem Beispiel in
Bestimmt die Gesichtselement-Beurteilungssektion 5 dann, dass mittels der ersten Gesicht-Detektionsverarbeitung die Gesichtselemente A1 detektiert wurden (ST103: JA), werden zusammen mit dem Bestimmungsergebnis, das anzeigt, dass mittels der ersten Gesicht-Detektionsverarbeitung die Gesichtselemente A1 detektiert wurden, erste Gesichtsdaten bezüglich der Gesichtselemente A1, die von dem Gesichtsdetektor 11 erworben wurden, in einer Speichersektion aufgezeichnet (ST104). Die ersten Gesichtsdaten der Gesichtselemente A1, die in der Speichersektion aufgezeichnet werden, sind dabei z. B. Positionsdaten der Merkmalspunkte, welche die Gesichtselemente A1 aufweisen oder Merkmalsgrößen bezüglich der Gesichtselemente A1. Wurde andererseits durch die Gesichtselement-Beurteilungssektion 5 bestimmt, dass mittels der ersten Gesicht-Detektionsverarbeitung die Gesichtselemente A1 nicht detektiert wurden (ST103: NEIN), geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST105 über.If the facial
Als Nächstes wird durch die Gesichtselement-Beurteilungssektion 5 bestimmt, ob durch die erste Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen des Insassen andere Gesichtselemente detektiert wurden (ST105). Bei anderen Gesichtselementen handelt es sich um eines oder eine Vielzahl von eingestellten Gesichtselementen, die sich von dem Teil der Gesichtselemente, d. h. den Gesichtselementen A1 unterscheiden. Bei dem Beispiel in
Bestimmt die Gesichtselement-Beurteilungssektion 5 dann, dass durch die erste Gesicht-Detektionsverarbeitung die Gesichtselemente B1 detektiert wurden (ST105: JA), werden zusammen mit dem Bestimmungsergebnis, das anzeigt, dass mittels der ersten Gesicht-Detektionsverarbeitung die Gesichtselemente B1 detektiert wurden, erste Gesichtsdaten bezüglich der Gesichtselemente B1, die von dem Gesichtsdetektor 11 erworben wurden, in einer Speichersektion aufgezeichnet (ST106). Die ersten Gesichtsdaten der Gesichtselemente B1, die in der Speichersektion aufgezeichnet werden, sind dabei z. B. Positionsdaten der Merkmalspunkte, welche die Gesichtselemente B1 aufweisen oder Merkmalsgrößen bezüglich der Gesichtselemente B1. Die Gesichtsdaten der Gesichtselemente A1 und B1 können auch zusammen mit Zeitreihendaten, bei denen es sich um Daten handelt, welche die Zeit anzeigen, in der die erste Gesicht-Detektionsverarbeitung erfolgte, in der Speichersektion aufgezeichnet werden. Außerdem kann die Müdigkeit-Folgerungssektion 12 der Müdigkeit-Folgerungsvorrichtung 10, selbst wenn hier eine Darstellung ausgelassen wurde, mittels der ersten Gesichtsdaten, die von den Gesichtselementen A1 und B1 erhalten wurden, eine Berechnungsverarbeitung der Müdigkeitsstufe durchführen.Then, when the facial
Wurde andererseits durch die Gesichtselement-Beurteilungssektion 5 bestimmt, dass durch die erste Gesicht-Detektionsverarbeitung die Gesichtselemente B1 nicht detektiert wurden (ST105: NEIN), geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST107 über.On the other hand, when it has been determined by the facial
Zunächst erwirbt die Bilderwerbssektion 1 von der Abbildungsvorrichtung 20 ein Abbildungsbild (ST107). Dann führt der Gesichtsdetektor 11 der Müdigkeit-Folgerungsvorrichtung 10 mittels des Abbildungsbildes eine zweite Gesicht-Detektionsverarbeitung durch (ST108). Dabei handelt es sich bei der zweiten Gesicht-Detektionsverarbeitung um eine nach der ersten Gesicht-Detektionsverarbeitung durchgeführte Verarbeitung, und zwar um eine Verarbeitung zur Detektion der Merkmalspunkte der Gesichtselemente des Insassen im Abbildungsbild und Berechnung von Merkmalsgrößen durch die Merkmalspunkt-Detektionssektion 3 und die Merkmalsgrößen-Berechnungssektion 4 des Gesichtsdetektors 11.First, the
Außerdem bestimmt die Gesichtselement-Beurteilungssektion 5 durch die im Folgenden erläuterten Verarbeitungen von ST109, ST110 und ST114, ob es sich bei den mittels der zweiten Gesicht-Detektionsverarbeitung detektierten Gesichtselementen des Insassen um alle Gesichtselemente handelt. Eine detaillierte Erläuterung der Verarbeitung, die gleich der vorstehend beschriebenen Verarbeitung von ST101 bis ST106 ist, wird ausgelassen.In addition, the facial
Zunächst wird durch die Gesichtselement-Beurteilungssektion 5 bestimmt, ob durch die zweite Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen eines Insassen ein Teil der Gesichtselemente detektiert oder nicht detektiert wurde (ST109). Bei dem Beispiel in
Wird dann durch die Gesichtselement-Beurteilungssektion 5 bestimmt, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente A2 detektiert wurden (ST109: JA), geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST110 über. Wenn durch die Gesichtselement-Beurteilungssektion 5 bestimmt wurde, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente A2 detektiert wurden, können ebenso wie bei der Verarbeitung von ST104 zusammen mit dem Bestimmungsergebnis, das anzeigt, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente A2 detektiert wurden, Gesichtsdaten bezüglich der Gesichtselemente A2 in einer Speichersektion aufgezeichnet werden.Then, when it is determined by the facial
Als Nächstes wird durch die Gesichtselement-Beurteilungssektion 5 bestimmt, ob durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen eingestellte andere Gesichtselemente detektiert worden sind (ST110). Bei dem Beispiel in
Durch die Gesichtselement-Beurteilungssektion 5 wird, wenn durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente B2 detektiert wurden (ST110: JA), beurteilt, dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente A2 und Gesichtselemente B2 detektiert wurden, d. h., dass von der Vielzahl von Gesichtselementen sämtliche der Gesichtselemente detektiert wurden. Dann gibt die Gesichtselement-Beurteilungssektion 5 das Beurteilungsergebnis an die Müdigkeit-Folgerungssektion 12 aus.Through the face
Erwirbt die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis, das anzeigt, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen sämtliche der Gesichtselemente detektiert wurden, wird die Müdigkeit-Folgerungsverarbeitung des Insassen unter Verwendung der zweiten Gesichtsdaten durchgeführt, die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden (ST111). Das heißt, die Müdigkeit-Folgerungssektion 12 berechnet die Müdigkeitsstufe des Insassen unter Verwendung der zweiten Gesichtsdaten, die anhand der Gesichtselemente A2 und der Gesichtselemente B2 erhalten wurden. Die durch die Müdigkeit-Folgerungssektion 12 berechnete Müdigkeitsstufe des Insassen kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über.When the
Andererseits beurteilt die Gesichtselement-Beurteilungssektion 5, wenn bestimmt wurde, dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente B2 nicht detektiert wurden (ST110: NEIN), dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente A2 detektiert und die Gesichtselemente B2 nicht detektiert wurden, d. h., von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde. Dann gibt die Gesichtselement-Beurteilungssektion 5 das Beurteilungsergebnis an die Müdigkeit-Folgerungssektion 12 aus.On the other hand, when it is determined that the facial elements B2 were not detected by the second face detection processing (ST110: NO), the facial
Erwirbt die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis, das anzeigt, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, wird festgestellt, ob durch die erste Gesicht-Detektionsverarbeitung erste Gesichtsdaten der Gesichtselemente erhalten wurden, die durch die zweite Gesicht-Detektionsverarbeitung nicht detektiert wurden. Bei der Verarbeitung von ST112 handelt es sich bei den Gesichtselementen, die durch die zweite Gesicht-Detektionsverarbeitung nicht detektiert wurden, um die Gesichtselemente B2. Das heißt, die Müdigkeit-Folgerungssektion 12 stellt fest, ob erste Gesichtsdaten der Gesichtselemente B1 durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, d. h. ob erste Gesichtsdaten der Gesichtselemente B1 in der Speichersektion aufgezeichnet sind (ST112).When the
Wurde durch die Müdigkeit-Folgerungssektion 12 festgestellt, dass erste Gesichtsdaten der Gesichtselemente B1 in der Speichersektion aufgezeichnet sind (ST112: JA), führt sie mittels der ersten Gesichtsdaten, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, und der zweiten Gesichtsdaten, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit-Folgerungsverarbeitung des Insassen durch. Das heißt, die Müdigkeit-Folgerungssektion 12 führt mittels der ersten Gesichtsdaten der Gesichtselemente B1, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, und der zweiten Gesichtsdaten der Gesichtselemente A2, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit-Folgerungsverarbeitung des Insassen durch (ST113).When the
Auf diese Weise folgert die Müdigkeit-Folgerungssektion 12, wenn mittels der zweiten Gesichtsdetektionsverarbeitung ein Teil der Gesichtselemente nicht detektiert wurde, die Müdigkeit des Insassen mittels Gesichtsdaten bezüglich eines Teils von Gesichtselementen, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, und Gesichtsdaten bezüglich anderer Gesichtselemente, die mittels der zweiten Gesichtsdetektionsverarbeitung erhalten wurden. Die bei der Verarbeitung von ST113 durch die Müdigkeit-Folgerungssektion 12 berechnete Müdigkeitsstufe des Insassen kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über.In this way, when a part of the facial elements is not detected by the second face detection processing, the
Wurde andererseits durch die Gesichtselement Vermutungsbereich 12 nicht bestätigt, dass erste Gesichtsdaten der Gesichtselemente B1 in der Speichersektion aufgezeichnet sind (ST112: NEIN), geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über. Ist hierbei die zweite Gesicht-Detektionsverarbeitung eine nach der ersten Gesicht-Detektionsverarbeitung erfolgende Verarbeitung, ist der Abstand zwischen der ersten Gesicht-Detektionsverarbeitung und der zweiten Gesicht-Detektionsverarbeitung beliebig. Das heißt, wenn erste Gesichtsdaten der Gesichtselemente B1 nicht in der Speichersektion aufgezeichnet sind, ist hiervon sowohl umfasst, dass die Gesichtselemente B1 bei der zweiten Gesicht-Detektionsverarbeitung oder einer vorherigen Gesicht-Detektionsverarbeitung kein Mal detektiert wurden, als auch, dass die Gesichtselemente B1 während eines eingestellten Zeitraums nicht detektiert wurden.On the other hand, if the first facial data of the facial elements B1 is recorded in the storage section is not confirmed by the facial element guessing section 12 (ST112: NO), the operation of the
Es wird der Fall erläutert, wenn mittels der Gesichtselement-Beurteilungssektion 5 bestimmt wurde, dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente A2 nicht detektiert wurden (ST109: NEIN). Wurde mittels der Gesichtselement-Beurteilungssektion 5 bestimmt, dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente A2 nicht detektiert wurden, geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST114 über.
Als Nächstes wird durch die Gesichtselement-Beurteilungssektion 5 bestimmt, ob durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen andere Gesichtselemente, d. h. die Gesichtselemente B2 detektiert wurden (ST114). Die Gesichtselement-Beurteilungssektion 5 gibt, wenn durch die zweite Gesicht-Detektionsverarbeitung bestimmt wurde, dass die Gesichtselemente B2 nicht detektiert wurden (ST114: NEIN), das Bestimmungsergebnis an die Müdigkeit-Folgerungssektion 12 aus. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über. Hat die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis erworben, das anzeigt, dass durch die zweite Gesicht-Detektionsverarbeitung weder die Gesichtselemente A2 noch die Gesichtselemente B2 detektiert wurden, kann die Müdigkeit-Folgerungsverarbeitung des Insassen auch unter Verwendung von zumindest entweder den ersten Gesichtsdaten der Gesichtselemente A1 oder den ersten Gesichtsdaten der Gesichtselemente B1 durchgeführt werden.Next, it is determined by the facial
Andererseits beurteilt die Gesichtselement-Beurteilungssektion 5, wenn bestimmt wurde, dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente B2 detektiert wurden (ST114: JA), dass durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente B2 detektiert und die Gesichtselemente A2 nicht detektiert wurden, d. h., von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde. Dann gibt die Gesichtselement-Beurteilungssektion 5 das Beurteilungsergebnis an die Müdigkeit-Folgerungssektion 12 aus.On the other hand, when it is determined that the facial elements B2 were detected by the second face detection processing (ST114: YES), the facial
Erwirbt die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis, das anzeigt, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, wird festgestellt, ob durch die erste Gesicht-Detektionsverarbeitung erste Gesichtsdaten der Gesichtselemente erhalten wurden, die durch die zweite Gesicht-Detektionsverarbeitung nicht detektiert wurden. Bei der Verarbeitung von ST115 handelt es sich bei den Gesichtselementen, die durch die zweite Gesicht-Detektionsverarbeitung nicht detektiert wurden, um die Gesichtselemente A2. Die Müdigkeit-Folgerungssektion 12 stellt also fest, ob erste Gesichtsdaten der Gesichtselemente A1 durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, d. h. ob erste Gesichtsdaten der Gesichtselemente A1 in der Speichersektion aufgezeichnet sind (ST115).When the
Wurde durch die Müdigkeit-Folgerungssektion 12 festgestellt, dass erste Gesichtsdaten der Gesichtselemente A1 in der Speichersektion aufgezeichnet sind (ST115: JA), führt sie unter Verwendung der ersten Gesichtsdaten, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, und der zweiten Gesichtsdaten, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit-Folgerungsverarbeitung des Insassen durch. Das heißt, die Müdigkeit-Folgerungssektion 12 führt unter Verwendung der ersten Gesichtsdaten der Gesichtselemente A1, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, und der zweiten Gesichtsdaten der Gesichtselemente B2, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit-Folgerungsverarbeitung des Insassen durch (ST116).When the
Auf diese Weise folgert die Müdigkeit-Folgerungssektion 12 selbst wenn mittels der zweiten Gesicht-Detektionsverarbeitung sich von dem Teil der Gesichtselemente unterscheidende andere Gesichtselemente nicht detektiert wurden, die Müdigkeit des Insassen unter Verwendung von Gesichtsdaten bezüglich der anderen Gesichtselemente, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, und Gesichtsdaten bezüglich des Teils der Gesichtselemente, die mittels der zweiten Gesichtsdetektionsverarbeitung erhalten wurden. Die bei der Verarbeitung von ST116 durch die Müdigkeit-Folgerungssektion 12 berechnete Müdigkeitsstufe des Insassen kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über.In this way, even if other facial elements other than the part of the facial elements are not detected by the second face detection processing, the
Wurde andererseits durch die Gesichtselement Vermutungsbereich 12 nicht bestätigt, dass erste Gesichtsdaten der Gesichtselemente A1 in der Speichersektion aufgezeichnet sind (ST115: NEIN), geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über. Ist hierbei die zweite Gesicht-Detektionsverarbeitung eine nach der ersten Gesicht-Detektionsverarbeitung erfolgende Verarbeitung, ist der Abstand zwischen der ersten Gesicht-Detektionsverarbeitung und der zweiten Gesicht-Detektionsverarbeitung beliebig. Das heißt, wenn das Detektionsergebnis der Gesichtselemente A1 nicht in der Speichersektion aufgezeichnet ist, ist hiervon sowohl umfasst, dass die Gesichtselemente A1 bei der zweiten Gesicht-Detektionsverarbeitung oder einer vorherigen Gesicht-Detektionsverarbeitung kein Mal detektiert wurden, als auch, dass die Gesichtselemente A1 während eines eingestellten Zeitraums nicht detektiert wurden.On the other hand, if the first facial data of the facial elements A1 is recorded in the storage section is not confirmed by the facial element guessing section 12 (ST115: NO), the operation of the
Erfolgt beim Betrieb der vorstehend beschriebenen Müdigkeit-Folgerungsvorrichtung 10 nach der zweiten Gesicht-Detektionsverarbeitung eine dritte Gesicht-Detektionsverarbeitung und sind die mittels der zweiten Gesicht-Detektionsverarbeitung detektierten Gesichtselemente und die mittels der dritten Gesicht-Detektionsverarbeitung detektierten Gesichtselemente gleich, kann durch die Müdigkeit-Folgerungsverarbeitung ab der dritten Gesicht-Detektionsverarbeitung auch unter Verwendung anderer Gesichtselemente die Müdigkeit gefolgert werden. Das heißt, wurde mittels der zweiten Gesicht-Detektionsverarbeitung und der dritten Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert, kann die Müdigkeit-Folgerungssektion 12 die Müdigkeit auch unter Verwendung von dritten Gesichtsdaten folgern, die anhand der mittels der dritten Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente erhaltenen wurden.When operating the
Es wird beispielsweise angenommen, dass ein Insasse kein Accessoire trägt und mittels der ersten Gesicht-Detektionsverarbeitung durch den Gesichtsdetektor 11 Augen, Mund und Nase detektiert werden, und dadurch, dass der Insasse eine Sonnenbrille trägt, mittels der zweiten Gesicht-Detektionsverarbeitung durch den Gesichtsdetektor 11 die Augen nicht detektiert werden, und Mund und Nase detektiert werden. In diesem Fall wird durch die Müdigkeit-Folgerungssektion 12 unter Verwendung der ersten Gesichtsdaten, die anhand der Augen, der Nase und des Mundes erhalten wurden, die Müdigkeit gefolgert, und anschließend wird unter Verwendung der zweiten Gesichtsdaten, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, und der ersten Gesichtsdaten, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit gefolgert. Trägt der Insasse unverändert die Sonnenbrille, wird dann durch die Müdigkeit-Folgerungssektion 12 mittels der dritten Gesichtsdaten, die anhand von Nase und Mund bei der dritten Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit gefolgert. Hierdurch erfolgt bei der Müdigkeit-Folgerungsverarbeitung ab dem Zeitpunkt, an dem ein Teil der Gesichtselemente nicht mehr detektiert wurde, unter Verwendung der durch die Gesicht-Detektionsverarbeitung detektierbaren Gesichtselemente eine Müdigkeitsfolgerung, sodass die Verarbeitungsbelastung der Müdigkeit-Folgerungsvorrichtung 10 reduziert werden kann. Der Abstand zwischen der zweiten Gesicht-Detektionsverarbeitung und der dritten Gesicht-Detektionsverarbeitung ist beliebig.For example, assume that an occupant is not wearing an accessory and eyes, mouth and nose are detected by the first face detection processing by the
Das heißt, durch die Müdigkeit-Folgerungssektion 12 wird, wenn durch die erste Gesicht-Detektionsverarbeitung oder die zweite Gesicht-Detektionsverarbeitung Gesichtselemente des Insassen detektiert werden, die Müdigkeit des Insassen unter Verwendung von Gesichtsdaten der detektierten Gesichtselemente gefolgert. Außerdem wird durch die Müdigkeit-Folgerungssektion 12, wenn durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung von Gesichtsdaten eines Teils der Gesichtselemente, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden, welche vor der zweiten Gesicht-Detektionsverarbeitung erfolgt ist, und Gesichtsdaten anderer Gesichtselemente, die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden, die Müdigkeit des Insassen gefolgert. Hierdurch kann auch wenn ein Teil der Gesichtselemente des Insassen nicht detektiert wurde, ohne dass das Folgerungsergebnis der Müdigkeit des Insassen unsicher wird, die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit des Insassen sichergestellt werden.That is, by the
Als Nächstes wird der Hardware-Aufbau erläutert, durch den die Funktionen der Müdigkeit-Folgerungsvorrichtung 10 realisiert werden.
Handelt es sich bei der Bilderwerbssektion 1, der Fahrzeuginformationen-Erwerbssektion 2, der Merkmalspunkt-Detektionssektion 3, der Merkmalsgrößen-Berechnungssektion 4, der Gesichtselement-Beurteilungssektion 5, dem Gesichtsdetektor 11, der Müdigkeit-Folgerungssektion 12 und der Speichersektion um eine spezielle Hardware, wie in
Handelt es sich bei der Bilderwerbssektion 1, der Fahrzeuginformationen-Erwerbssektion 2, der Merkmalspunkt-Detektionssektion 3, der Merkmalsgrößen-Berechnungssektion 4, der Gesichtselement-Beurteilungssektion 5, dem Gesichtsdetektor 11, der Müdigkeit-Folgerungssektion 12 und der Speichersektion um den Prozessor 10b, wie in
Der Prozessor 10b ist z. B. eine CPU (Central Processing Unit), eine Verarbeitungsvorrichtung, eine Rechenvorrichtung, ein Prozessor, ein Mikroprozessor, ein Mikrocomputer oder ein DSP (Digital Signal Processor). Der Speicher 10c kann ein nicht-flüchtiger oder flüchtiger Halbleiterspeicher wie z. B. ein RAM (Random Access Memory), ein ROM (Read Only Memory), ein Flash-Speicher, ein EPROM (Erasable Programmable ROM) oder EEPROM (Electrically EPROM), eine Magnetplatte wie eine Festplatte oder eine Floppy-Disk, oder eine optische Platte wie eine Minidisk, CD (Compact Disc) oder DVD (Digital Versatile Disc) sein.The
Die jeweiligen Funktionen der Bilderwerbssektion 1, der Fahrzeuginformationen-Erwerbssektion 2, der Merkmalspunkt-Detektionssektion 3, der Merkmalsgrößen-Berechnungssektion 4, der Gesichtselement-Beurteilungssektion 5, des Gesichtsdetektors 11, der Müdigkeit-Folgerungssektion 12 und der Speichersektion können auch zum Teil durch eine spezielle Hardware und zum Teil durch eine Software oder Firmware realisiert werden. Auf diese Weise kann die Verarbeitungsschaltung 10a bei der Müdigkeit-Folgerungsvorrichtung 10 diese Funktionen durch eine Hardware, Software, Firmware oder deren Kombination realisieren. Ferner kann zumindest ein Teil der Funktionen der Bilderwerbssektion 1, der Fahrzeuginformationen-Erwerbssektion 2, der Merkmalspunkt-Detektionssektion 3, der Merkmalsgrößen-Berechnungssektion 4, der Gesichtselement-Beurteilungssektion 5, des Gesichtsdetektors 11, der Müdigkeit-Folgerungssektion 12 und der Speichersektion auf einem externen Server ausgeführt werden.The respective functions of the
Auf diese Weise erfolgt bei der Müdigkeit-Folgerungsvorrichtung 10, umfassend eine Bilderwerbssektion 1, die von einer Abbildungsvorrichtung 20 zum Abbilden eines Insassen in einem Fahrzeug ein Abbildungsbild erwirbt, einen Gesichtsdetektor 11, der eine Gesicht-Detektionsverarbeitung durchführt, bei der anhand des Abbildungsbildes eine Vielzahl von Gesichtselementen eines Insassen detektiert werden, und eine Müdigkeit-Folgerungssektion 12 zur Folgerung der Müdigkeit eines anhand des Abbildungsbildes detektierten Insassen, mittels des Gesichtsdetektors 11 als Gesicht-Detektionsverarbeitung eine erste Gesicht-Detektionsverarbeitung und nach der ersten Gesicht-Detektionsverarbeitung eine zweite Gesicht-Detektionsverarbeitung, wobei durch die Müdigkeit-Folgerungssektion 12 für den Fall, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert wurde, mittels erster Gesichtsdaten, die anhand eines durch die erste Gesicht-Detektionsverarbeitung detektierten Teils von Gesichtselementen erhalten wurden, und zweiter Gesichtsdaten, die anhand von durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselementen erhalten wurden, die sich von dem Teil der Gesichtselemente unterscheiden, die Müdigkeit des Insassen gefolgert wird, sodass selbst wenn ein Teil der Gesichtselemente des Insassen nicht detektiert wurde, die Zuverlässigkeit des Detektionsergebnisses der Müdigkeit des Insassen sichergestellt werden kann.In this way, in the
Bei der vorliegenden Ausführungsformen erfolgte eine Erläuterung unter Anführung eines Beispiels, bei dem durch die Müdigkeit-Folgerungssektion 12, wenn durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung von ersten Gesichtsdaten eines Teils der Gesichtselemente, die durch die erste Gesicht-Detektionsverarbeitung detektiert wurden, und zweiten Gesichtsdaten anderer Gesichtselemente, die durch die zweite Gesicht-Detektionsverarbeitung detektiert wurden, die Müdigkeit des Insassen gefolgert wird. Die Müdigkeit-Folgerungssektion 12 kann aber auch, wenn durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, zusätzlich zu den ersten Gesichtsdaten eines Teils der Gesichtselementen, die durch die erste Gesicht-Detektionsverarbeitung detektiert wurden, und den zweiten Gesichtsdaten anderer Gesichtselemente, die durch die zweite Gesicht-Detektionsverarbeitung detektiert wurden, mittels erster Gesichtsdaten von anderen Gesichtselementen, die durch die erste Gesicht-Detektionsverarbeitung detektiert wurden, die Müdigkeit des Insassen folgern. Hierdurch wird die Anzahl von Gesichtsdaten, die für die Müdigkeitsfolgerung des Insassen verwendet wird, erhöht, sodass die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit des Insassen sichergestellt werden kann.In the present embodiment, an explanation has been made using an example in which, when a part of the facial elements is not detected by the second face detection processing of the plurality of facial elements, the
Zweite AusführungsformSecond embodiment
Die Müdigkeit-Folgerungsvorrichtung 10 gemäß der zweiten Ausführungsform umfasst ebenso wie bei der ersten Ausführungsform die Bilderwerbssektion 1, die ein Abbildungsbild erwirbt, den Gesichtsdetektor 11, der eine Gesicht-Detektionsverarbeitung durchführt, durch die anhand des Abbildungsbildes eine Vielzahl von Gesichtselementen des Insassen detektiert wird, und die Müdigkeit-Folgerungssektion 12, durch welche die Müdigkeit des anhand des Abbildungsbildes detektierten Insassen gefolgert wird. Der Unterschied zur ersten Ausführungsform besteht in dem Punkt, dass bei der vorliegenden Ausführungsform für den Fall, dass mittels der zweiten Gesichtsdetektionsverarbeitung ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung einer Müdigkeitsstufe, die anhand der durch die erste Gesicht-Detektionsverarbeitung erhaltenen ersten Gesichtsdaten gefolgert wurde, und mittels zweiten Gesichtsdaten, die anhand der durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente erhalten wurden, die Müdigkeit des Insassen gefolgert wird. Gleiche Bestandteile wie bei der ersten Ausführungsform sind mit den gleichen Bezugszeichen versehen, wobei deren Erläuterung ausgelassen wird.The
Wird bei der Müdigkeit-Folgerungsvorrichtung 10 unter Verwendung einer Vielzahl von Gesichtselementen wie dem linken Auge, dem rechten Auge und dem Mund die Müdigkeit des Insassen gefolgert, verbessert sich die Folgerungspräzision der Müdigkeit im Vergleich zu einer Folgerung der Müdigkeit des Insassen unter Verwendung von nur einem Gesichtselement. Wird andererseits keine Müdigkeit-Folgerungsverarbeitung durchgeführt, wenn in einem bestimmten Frame von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, wird der Zustand der Müdigkeit des Insassen unsicher und es ist zu befürchten, dass die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses sinkt.In the
Daher wird bei der Müdigkeit-Folgerungsvorrichtung 10 gemäß der vorliegenden Ausführungsform, wenn bei der Gesicht-Detektionsverarbeitung in einem bestimmten Frame von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, eine Müdigkeitsstufe, die berechnet wurde, bevor ein Teil der Gesichtselemente nicht mehr detektiert werden konnte, übernommen und unter Verwendung von Gesichtsdaten, die durch die Gesicht-Detektionsverarbeitung in dem bestimmten Frame erhalten wurden, die Müdigkeit des Insassen gefolgert.Therefore, in the
Die Müdigkeit-Folgerungsverarbeitung durch die Müdigkeit-Folgerungssektion 12 der vorliegenden Ausführungsform wird erläutert. Bei der zweiten Gesicht-Detektionsverarbeitung mittels der Gesichtselement-Beurteilungssektion 5 ist die Müdigkeit-Folgerungsverarbeitung für den Fall, dass durch die zweite Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen sämtliche Gesichtselemente detektiert wurden, gleich der bei der ersten Ausführungsform, sodass eine detaillierte Erläuterung ausgelassen wird. Wurde mittels der zweiten Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert, berechnet die Müdigkeit-Folgerungssektion 12 eine Gesamt-Müdigkeitsstufe unter Verwendung einer Müdigkeitsstufe, die anhand der mittels der ersten Gesicht-Detektionsverarbeitung erhaltenen ersten Gesichtsdaten berechnet wurde, und zweiten Gesichtsdaten bezüglich anderer Gesichtselemente, die mittels der zweiten Gesicht-Detektionsverarbeitung erhalten wurden.The fatigue inference processing by the
Zunächst berechnet die Müdigkeit-Folgerungssektion 12 die Müdigkeitsstufe des Insassen anhand von ersten Gesichtsdaten, die durch die erste Gesicht-Detektionsverarbeitung erhalten wurden. Im Folgenden wird zum Zweck der Erläuterung die Müdigkeitsstufe, die anhand der durch die erste Gesicht-Detektionsverarbeitung erhaltenen ersten Gesichtsdaten berechnet wurde, als erste Müdigkeitsstufe bezeichnet. Dann wird durch die Müdigkeit-Folgerungssektion 12 anhand zweiter Gesichtsdaten bezüglich anderer Gesichtselemente, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, die Änderungsgröße der Müdigkeitsstufe bezogen auf die erste Müdigkeitsstufe berechnet. Außerdem wird durch die Müdigkeit-Folgerungssektion 12 anhand der ersten Müdigkeitsstufe und einer Änderungsgröße der Müdigkeitsstufe bezogen auf die erste Müdigkeitsstufe eine Gesamt-Müdigkeitsstufe berechnet. Dabei handelt es sich bei der Änderungsgröße der Müdigkeitsstufe bezogen auf die erste Müdigkeitsstufe um einen Indikatorwert, der mit der ersten Müdigkeitsstufe als Referenz anzeigt, inwiefern sich die Müdigkeitsstufe geändert hat. Im Folgenden wird die Änderungsgröße der Müdigkeitsstufe bezogen auf die erste Müdigkeitsstufe einfach als Änderungsgröße bezeichnet.First, the
Die Änderungsgröße wird unter Anführung eines Beispiels erläutert, bei dem mittels der ersten Gesicht-Detektionsverarbeitung durch den Gesichtsdetektor 11 das linke Auge, das rechte Auge und der Mund detektiert werden, und dadurch, dass der Insasse eine Maske trägt, durch die zweite Gesicht-Detektionsverarbeitung das linke Auge und das rechte Auge des Insassen detektiert werden, und der Mund nicht detektiert wird. Wurden mittels der ersten Gesicht-Detektionsverarbeitung durch den Gesichtsdetektor 11 das linke Auge, das rechte Auge und der Mund des Insassen detektiert, erwirbt die Müdigkeit-Folgerungssektion 12 als erste Gesichtsdaten den Augenöffnungsgrad und den Mundöffnungsgrad von dem Gesichtsdetektor 11. Dann wird durch die Müdigkeit-Folgerungssektion 12 unter Verwendung des Augenöffnungsgrads und des Mundöffnungsgrads die erste Müdigkeitsstufe berechnet und die erste Müdigkeitsstufe in der Speichersektion der Müdigkeit-Folgerungsvorrichtung 10 aufgezeichnet.The change amount will be explained using an example in which the left eye, the right eye and the mouth are detected by the first face detection processing by the
Wenn durch die zweite Gesicht-Detektionsverarbeitung das linke Auge und das rechte Auge des Insassen detektiert wurden, aber der Mund nicht detektiert wurde, d. h. von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, erwirbt die Müdigkeit-Folgerungssektion 12 außerdem zunächst die erste Müdigkeitsstufe von dem Gesichtsdetektor 11 oder der Speichersektion. Dann erwirbt die Müdigkeit-Folgerungssektion 12 von dem Gesichtsdetektor 11 die zweiten Gesichtsdaten bezüglich der Gesichtselemente, die durch die zweite Gesicht-Detektionsverarbeitung detektiert wurden, als zweite Gesichtsdaten. Bei dem vorstehend beschriebenen Beispiel handelt es sich bei den Gesichtselementen, die durch die zweite Gesicht-Detektionsverarbeitung detektiert wurden, um den Mund, sodass es sich bei den als zweite Gesichtsdaten von der Müdigkeit-Detektionssektion 12 erworbenen Daten um den Mundöffnungsgrad handelt.If the occupant's left eye and right eye were detected by the second face detection processing, but the mouth was not detected, that is, H. of a plurality of facial elements, a part of the facial elements was not detected, the
Als Nächstes wird durch die Müdigkeit-Folgerungssektion 12 die Änderungsgröße berechnet. Wurde beispielsweise als erste Müdigkeitsstufe die Müdigkeitsstufe 5 berechnet, und angezeigt, dass anhand des als zweite Gesichtsdaten erworbenen Mundöffnungsgrads eine Handlung wie ein Gähnen vorstellbar ist, bei dem der Insasse Müdigkeit verspürt, erfolgt z. B. eine Berechnung als Änderungsgröße +1. Ist andererseits angezeigt, dass anhand des als zweite Gesichtsdaten erworbenen Mundöffnungsgrads keine Handlung wie ein Gähnen vorstellbar ist, bei dem der Insasse Müdigkeit verspürt, berechnet die Müdigkeit-Folgerungssektion 12 z. B. als Änderungsgröße -1.Next, the change amount is calculated by the
Dann wird durch die Müdigkeit-Folgerungssektion 12 anhand der ersten Müdigkeitsstufe und der Änderungsgröße bezogen auf die erste Müdigkeitsstufe eine Gesamt-Müdigkeitsstufe berechnet. Handelt es sich beispielsweise bei dem vorstehend beschriebenen Beispiel bei der ersten Müdigkeitsstufe um 5 und bei der Änderungsgröße um +1, ergibt die Gesamt-Müdigkeitsstufe des Insassen 6. Wurde durch die Müdigkeit-Folgerungssektion 12 eine Änderungsgröße von Null berechnet, ist die Gesamt-Müdigkeitsstufe des Insassen gleich der ersten Müdigkeitsstufe.Then, an overall fatigue level is calculated by the
Die Berechnung der Änderungsgröße durch die Müdigkeit-Folgerungssektion 12 kann dadurch erfolgen, dass ebenso wie bei der Berechnungsverarbeitung der Müdigkeitsstufe z. B. ein Schwellenwert für eine Merkmalsgröße als Gesichtsdaten eingestellt wird, und der eingestellte Schwellenwert und die Merkmalsgröße verglichen werden. Hierbei können z. B. bezüglich der Augen eine Vielzahl von Schwellenwerten für den Augenöffnungsgrad eingestellt werden, und wenn der Augenöffnungsgrad kleiner als ein Schwellenwert ist, durch die Müdigkeit-Folgerungssektion 12 die Änderungsgröße derart berechnet werden, dass die Gesamt-Müdigkeitsstufe größer wird. Ferner kann, wenn der Augenöffnungsgrad größer als ein Schwellenwert ist, durch die Müdigkeit-Folgerungssektion 12 die Änderungsgröße derart berechnet werden, dass die Gesamt-Müdigkeitsstufe kleiner wird.The calculation of the change amount by the
Ist bei einem Vergleich der ersten Gesichtsdaten und der zweiten Gesichtsdaten der Zustand des Gesichts des Insassen, der durch die zweiten Gesichtsdaten erhalten wurde, eher ein Zustand eines Gesichts, bei dem Müdigkeit verspürt wird, als der Zustand des Gesichts des Insassen, der durch die ersten Gesichtsdaten erhalten wurde, kann durch die Müdigkeit-Folgerungssektion 12 auch die Änderungsgröße derart berechnet werden, dass die Müdigkeitsstufe erhöht wird. Ist andererseits bei einem Vergleich der ersten Gesichtsdaten und der zweiten Gesichtsdaten der Zustand des Gesichts des Insassen, der durch die zweiten Gesichtsdaten erhalten wurde, eher ein Zustand eines Gesichts, bei dem sich die Müdigkeit aufgelöst hat, als der Zustand des Gesichts des Insassen, der durch die ersten Gesichtsdaten erhalten wurde, kann durch die Müdigkeit-Folgerungssektion 12 auch die Änderungsgröße derart berechnet werden, dass die Müdigkeitsstufe gesenkt wird.When comparing the first facial data and the second facial data, the state of the occupant's face obtained by the second facial data is more of a state of a face in which fatigue is felt than the state of the occupant's face obtained by the first Face data has been obtained, the change amount can also be calculated by the
Somit kann durch die Müdigkeit-Folgerungssektion 12, wenn von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, durch die Übernahme der Müdigkeitsstufe bevor ein Teil der Gesichtselemente des Insassen nicht mehr detektiert werden konnte, die Müdigkeit des Insassen folgern, sodass der Müdigkeitszustand des Insassen nicht unsicher wird und die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit sichergestellt werden kann.Thus, if a part of the facial elements was not detected among a plurality of facial elements, the
Im Folgenden wird der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 erläutert.
Nach dem Beginn des Betriebs der Müdigkeit-Folgerungsvorrichtung 10 erwirbt zunächst die Bilderwerbssektion 1 von der Müdigkeit-Folgerungsvorrichtung 20 ein Abbildungsbild (ST101). Dann führt der Gesichtsdetektor 11 mittels des Abbildungsbildes eine erste Gesicht-Detektionsverarbeitung durch (ST102).After the operation of the
Als Nächstes werden durch die Gesichtselement-Beurteilungssektion 5 die mittels der ersten Gesicht-Detektionsverarbeitung detektierten Gesichtselemente des Insassen bestimmt. Dabei wird durch die Gesichtselement-Beurteilungssektion 5 bestimmt, ob mittels der ersten Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen des Insassen sämtliche Gesichtselemente detektiert wurden. Bei dem Beispiel von
Die Gesichtselement-Beurteilungssektion 5 gibt, wenn durch die erste Gesicht-Detektionsverarbeitung die Gesichtselemente A1 und die Gesichtselemente B2 beide detektiert wurden, d. h., wenn beurteilt wurde, dass zumindest entweder die Gesichtselemente A1 oder die Gesichtselemente B1 nicht detektiert wurden (ST201: NEIN), das Beurteilungsergebnis an die Müdigkeit-Folgerungssektion 12 aus. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über. Andererseits gibt die Gesichtselement-Beurteilungssektion 5, wenn durch die erste Gesicht-Detektionsverarbeitung die Gesichtselemente A1 und die Gesichtselemente B1 beide detektiert wurden, d. h., wenn beurteilt wurde, dass von der Vielzahl von Gesichtselementen sämtliche Gesichtselemente detektiert wurden (ST201: JA), das Beurteilungsergebnis an die Müdigkeit-Folgerungssektion 12 aus.The facial
Dann wird durch die Müdigkeit-Folgerungssektion 12, wenn sie ein Beurteilungsergebnis erworben hat, das anzeigt, dass die Gesichtselemente A1 und die Gesichtselemente B1 beide detektiert wurden, unter Verwendung der durch die erste Gesichts-Detektionsverarbeitung erhaltenen ersten Gesichtsdaten die erste Müdigkeitsstufe berechnet (ST202). Dann wird die durch die Müdigkeit-Folgerungssektion 12 berechnete erste Müdigkeitsstufe in der Speichersektion aufgezeichnet. Die durch die Müdigkeit-Folgerungssektion 12 berechnete erste Müdigkeitsstufe kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST107 über.Then, the
Zunächst erwirbt die Bilderwerbssektion 1 von der Abbildungsvorrichtung 20 ein Abbildungsbild (ST107). Dann führt der Gesichtsdetektor 11 mittels des Abbildungsbildes eine zweite Gesicht-Detektionsverarbeitung durch (ST108), bei der es sich um eine nach der ersten Gesicht-Detektionsverarbeitung erfolgende Verarbeitung handelt.First, the
Als Nächstes werden durch die Gesichtselement-Beurteilungssektion 5 ebenso wie bei der Verarbeitung von ST201 die durch die zweite Gesicht-Detektionsverarbeitung detektierten Gesichtselemente des Insassen bestimmt und beurteilt, ob die Gesichtselemente A2 und die Gesichtselemente B2 beide detektiert wurden (ST203). Das heißt, bei dem Beispiel von
Wurden mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente A2 und die Gesichtselemente B2 beide detektiert, d. h. wurde beurteilt, dass von der Vielzahl von Gesichtselementen sämtliche Gesichtselemente detektiert wurden (ST203: JA), gibt die Gesichtselement-Beurteilungssektion 5 das Beurteilungsergebnis an die Müdigkeit-Folgerungssektion 12 aus. Hat die Müdigkeit-Folgerungssektion 12 ein Beurteilungsergebnis erworben, das anzeigt, dass die Gesichtselemente A2 und die Gesichtselemente B2 beide detektiert wurden, berechnet sie dann unter Verwendung der mittels der zweiten Gesichtsverarbeitung erhaltenen zweiten Gesichtsdaten die Müdigkeitsstufe (ST204). Als Nächstes wird die durch die Müdigkeit-Folgerungssektion 12 berechnete Müdigkeitsstufe in der Speichersektion aufgezeichnet. Im Folgenden wird die unter Verwendung der zweiten Gesichtsdaten berechnete Müdigkeitsstufe als zweite Müdigkeitsstufe bezeichnet. Die durch die Müdigkeit-Folgerungssektion 12 berechnete zweite Müdigkeitsstufe kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über.By means of the second face detection processing, the facial elements A2 and the facial elements B2 were both detected, i.e. H. When it is judged that all of the facial elements among the plurality of facial elements have been detected (ST203: YES), the facial
Wurde andererseits bestimmt, dass zumindest entweder die Gesichtselemente A2 oder die Gesichtselemente B2 nicht detektiert wurden (ST203: NEIN), beurteilt die Gesichtselement-Beurteilungssektion 5, dass von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde. Dann geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST205 über.On the other hand, when it is determined that at least one of the facial elements A2 and the facial elements B2 has not been detected (ST203: NO), the facial
Dann gibt die Gesichtselement-Beurteilungssektion 5 durch die Verarbeitungen von ST205 und ST206 an die Müdigkeit-Folgerungssektion 12 ein Bestimmungsergebnis aus, das anzeigt, um welche Gesichtselemente es sich bei den Gesichtselementen handelt, die mittels der zweiten Gesicht-Detektionsverarbeitung detektiert wurden. Zunächst wird durch die Gesichtselement-Beurteilungssektion 5 festgestellt, ob durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente A2 detektiert wurden (ST205). Dabei kann durch die Gesichtselement-Beurteilungssektion 5 z. B. bei der Verarbeitung von ST203 unter Verwendung des Bestimmungsergebnisses der Gesichtselemente, die mittels der zweiten Gesicht-Detektionsverarbeitung detektiert wurden, festgestellt werden, ob die zweiten Gesichtselemente A2 detektiert wurden.Then, through the processing of ST205 and ST206, the facial
Dann gibt die Gesichtselement-Beurteilungssektion 5, wenn festgestellt wurde, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente A2 detektiert wurden (ST205: JA), ein Beurteilungsergebnis, das anzeigt, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, und ein Bestimmungsergebnis, das anzeigt, dass von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente, d. h. die Gesichtselemente A2 detektiert wurden, an die Müdigkeit-Folgerungssektion 12 aus.Then, when it is determined that the facial elements A2 have been detected by the second face detection processing (ST205: YES), the facial
Dann wird durch die Müdigkeit-Folgerungssektion 12, die bei der Verarbeitung von ST205 das Beurteilungsergebnis und das Bestimmungsergebnis erworben hat, unter Verwendung der ersten Müdigkeitsstufe und der zweiten Gesichtsdaten die zweite Müdigkeitsstufe des Insassen berechnet (ST207). Wurde beispielsweise als zweite Gesichtsdaten der Mundöffnungsgrad erworben, berechnet die Müdigkeit-Folgerungssektion 12 unter Verwendung des Mundöffnungsgrads die Änderungsgröße. Dann wird durch die Müdigkeit-Folgerungssektion 12 anhand der ersten Müdigkeitsstufe und der Änderungsgröße die zweite Müdigkeitsstufe berechnet. Die durch die Müdigkeit-Folgerungssektion 12 berechnete zweite Müdigkeitsstufe kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden.Then, by the
Wurde andererseits durch die Gesichtselement-Beurteilungssektion 5 festgestellt, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente A2 nicht detektiert wurden (ST205: NEIN), geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 über zur Verarbeitung von ST205. Durch die Gesichtselement-Beurteilungssektion 5 wird festgestellt, ob durch die zweite Gesicht-Detektionsverarbeitung die Gesichtselemente B2 detektiert wurden (ST206). Dabei kann durch die Gesichtselement-Beurteilungssektion 5, ebenso wie bei der Verarbeitung von ST205, z. B. bei der Verarbeitung von ST203 unter Verwendung des Bestimmungsergebnisses der Gesichtselemente, die mittels der zweiten Gesicht-Detektionsverarbeitung detektiert wurden, festgestellt werden, ob die zweiten Gesichtselemente B2 detektiert wurden.On the other hand, when it has been determined by the facial
Dann gibt die Gesichtselement-Beurteilungssektion 5, wenn festgestellt wurde, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente B2 detektiert wurden (ST206: JA), ein Beurteilungsergebnis, das anzeigt, dass durch die zweite Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, und ein Bestimmungsergebnis, das anzeigt, dass von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente, d. h. die Gesichtselemente B2 detektiert wurden, an die Müdigkeit-Folgerungssektion 12 aus.Then, when it is determined that the facial elements B2 have been detected by the second face detection processing (ST206: YES), the facial
Dann wird durch die Müdigkeit-Folgerungssektion 12, die bei der Verarbeitung von ST205 das Beurteilungsergebnis und das Bestimmungsergebnis erworben hat, unter Verwendung der ersten Müdigkeitsstufe und der zweiten Gesichtsdaten die zweite Müdigkeitsstufe des Insassen berechnet (ST208). Wurde beispielsweise als zweite Gesichtsdaten der Augenöffnungsgrad erworben, berechnet die Müdigkeit-Folgerungssektion 12 zunächst unter Verwendung des Augenöffnungsgrads die Änderungsgröße. Dann wird durch die Müdigkeit-Folgerungssektion 12 anhand der ersten Müdigkeitsstufe und der Änderungsgröße die zweite Müdigkeitsstufe berechnet. Die durch die Müdigkeit-Folgerungssektion 12 berechnete zweite Müdigkeitsstufe kann auch an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden.Then, by the
Wurde andererseits durch die Gesichtselement-Beurteilungssektion 5 festgestellt, dass mittels der zweiten Gesicht-Detektionsverarbeitung die Gesichtselemente B2 nicht detektiert wurden (ST206: NEIN), d. h., wenn festgestellt wurde, dass durch die zweite Gesicht-Detektionsverarbeitung weder die Gesichtselemente A2 noch die Gesichtselemente B2 detektiert wurden, geht der Betrieb der Müdigkeit-Folgerungsvorrichtung 10 zur Verarbeitung von ST101 über. Wurde festgestellt, dass durch die zweite Gesicht-Detektionsverarbeitung weder die Gesichtselemente A2 noch die Gesichtselemente B2 detektiert wurden, kann durch die Müdigkeit-Folgerungssektion 12 auch die erste Müdigkeitsstufe erworben werden und die erworbene erste Müdigkeitsstufe als zweite Müdigkeitsstufe an die fahrzeugseitige Steuerungsvorrichtung 200 ausgegeben werden.On the other hand, if it has been determined by the facial
Erfolgt beim Betrieb der vorstehend beschriebenen Müdigkeit-Folgerungsvorrichtung 10 nach der zweiten Gesicht-Detektionsverarbeitung eine dritte Gesicht-Detektionsverarbeitung und sind die mittels der zweiten Gesicht-Detektionsverarbeitung detektierten Gesichtselemente und die mittels der dritten Gesicht-Detektionsverarbeitung detektierten Gesichtselemente gleich, kann durch die Müdigkeit-Folgerungsverarbeitung ab der dritten Gesicht-Detektionsverarbeitung auch unter Verwendung anderer Gesichtselemente die Müdigkeit gefolgert werden. Das heißt, wurde mittels der zweiten Gesicht-Detektionsverarbeitung und der dritten Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert, kann die Müdigkeit-Folgerungssektion 12 die Müdigkeit auch unter Verwendung von dritten Gesichtsdaten folgern, die anhand der mittels der dritten Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente erhaltenen wurden.When operating the
Es wird beispielsweise angenommen, dass ein Insasse kein Accessoire trägt und durch die erste Gesicht-Detektionsverarbeitung des Gesichtsdetektors 11 Augen, Mund und Nase detektiert werden, und dadurch, dass der Insasse eine Sonnenbrille trägt, durch die zweite Gesicht-Detektionsverarbeitung des Gesichtsdetektors 11 die Augen nicht detektiert werden, und Mund und Nase detektiert werden. In diesem Fall wird durch die Müdigkeit-Folgerungssektion 12 unter Verwendung der ersten Gesichtsdaten, die anhand der Augen, der Nase und des Mundes erhalten wurden, die Müdigkeitsstufe berechnet, und anschließend wird unter Verwendung der zweiten Gesichtsdaten, die durch die zweite Gesicht-Detektionsverarbeitung erworben wurden, die Änderungsgröße berechnet und die zweite Müdigkeitsstufe berechnet. Trägt der Insasse unverändert die Sonnenbrille, wird dann durch die Müdigkeit-Folgerungssektion 12 mittels dritter Gesichtsdaten, die anhand von Nase und Mund bei einer dritten Gesicht-Detektionsverarbeitung erhalten wurden, die dritte Müdigkeitsstufe berechnet. Hierdurch erfolgt bei der Müdigkeit-Folgerungsverarbeitung ab dem Zeitpunkt, an dem ein Teil der Gesichtselemente nicht mehr detektiert wurde, unter Verwendung von durch die Gesicht-Detektionsverarbeitung detektierbaren Gesichtselementen eine Müdigkeitsfolgerung, sodass die Verarbeitungsbelastung der Müdigkeit-Folgerungsvorrichtung 10 reduziert werden kann.For example, assume that an occupant is not wearing an accessory and the eyes, mouth and nose are detected by the first face detection processing of the
Das heißt, wurde ein Teil der Gesichtselemente des Insassen nicht detektiert, wird durch die Müdigkeit-Folgerungssektion 12 die erste Müdigkeitsstufe zum Zeitpunkt bevor ein Teil der Gesichtselemente nicht mehr detektiert werden konnte, übernommen und anhand der übernommenen ersten Müdigkeitsstufe und der Änderungsgröße der Müdigkeitsstufe gegenüber der ersten Müdigkeitsstufe die Müdigkeit des Insassen gefolgert. Hierdurch wird auch wenn ein Teil der Gesichtselemente nicht detektiert wurde, das Folgerungsergebnis der Müdigkeit des Insassen nicht unsicher und die Zuverlässigkeit des Folgerungsergebnisses der Müdigkeit kann sichergestellt werden.That is, if part of the facial elements of the occupant were not detected, the first tiredness level at the time before part of the facial elements could no longer be detected is adopted by the
Dritte AusführungsformThird embodiment
Die Müdigkeit-Folgerungsvorrichtung 10 gemäß der dritten Ausführungsform umfasst ebenso wie bei der ersten Ausführungsform die Bilderwerbssektion 1, die ein Abbildungsbild erwirbt, den Gesichtsdetektor 11, der eine Gesicht-Detektionsverarbeitung durchführt, durch die anhand des Abbildungsbildes eine Vielzahl von Gesichtselementen des Insassen detektiert wird, und die Müdigkeit-Folgerungssektion 12, durch welche die Müdigkeit des anhand des Abbildungsbildes detektierten Insassen gefolgert wird. Der Unterschied zur ersten Ausführungsform besteht in dem Punkt, dass bei der vorliegenden Ausführungsform für den Fall, dass mittels der zweiten Gesichtsdetektionsverarbeitung ein Teil der Gesichtselemente nicht detektiert wurde, unter Verwendung einer Müdigkeitsstufe, die anhand der durch die erste Gesicht-Detektionsverarbeitung erhaltenen Gesichtsdaten gefolgert wurde, und mittels Gesichtsdaten, die anhand der durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente erhalten wurden, die Müdigkeit des Insassen gefolgert wird. Gleiche Bestandteile wie bei der ersten Ausführungsform sind mit den gleichen Bezugszeichen versehen und deren Erläuterung wird ausgelassen.The
Durch die Müdigkeit-Folgerungssektion 12 der vorliegenden Ausführungsform wird ebenso wie bei der zweiten Ausführungsform, wenn von der Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, die erste Müdigkeitsstufe zum Zeitpunkt bevor ein Teil der Gesichtselemente des Insassen nicht mehr detektiert werden konnte, übernommen Dann wird durch die Müdigkeit-Folgerungssektion 12 anhand der übernommenen ersten Müdigkeitsstufe und der Änderungsgröße bezogen auf die erste Müdigkeitsstufe die Müdigkeit des Insassen gefolgert.By the
Außerdem erwirbt die Müdigkeit-Folgerungsvorrichtung 10 der vorliegenden Ausführungsform die Änderungsgröße bezogen auf die erste Müdigkeitsstufe anhand eines gelernten Modells zum Schlussfolgern der Änderungsgröße der Müdigkeitsstufe. Im Folgenden werden jeweils eine Lernvorrichtung 300 bezüglich der Müdigkeit-Folgerungsvorrichtung 10 und die Müdigkeit-Folgerungsvorrichtung 10 erläutert.Further, the
Die Datenerwerbssektion 31 erwirbt von dem Gesichtsdetektor 11 Gesichtsdaten und Änderungsgrößen als Lerndaten.The
Die Modellerzeugungssektion 32 lernt die Änderungsgrößen basierend auf Lerndaten, die auf der Basis von Kombinationen aus von der Daten-Erwerbssektion 31 ausgegebenen Gesichtsdaten und Änderungsgrößen erstellt werden. Das heißt, es wird ein gelerntes Modell zum Schlussfolgern der optimalen Änderungsgröße anhand der Gesichtsdaten der Müdigkeit-Folgerungsvorrichtung 10 und der Änderungsgrößen erstellt. Bei den Lerndaten handelt es sich dabei um Daten, bei denen Gesichtsdaten und Änderungsgrößen miteinander in Beziehung gesetzt sind.The
Die Lernvorrichtung 300 wird zum Lernen der Änderungsgrößen der Müdigkeit-Folgerungsvorrichtung 10 verwendet, wobei es sich z. B. um eine mit der Müdigkeit-Folgerungsvorrichtung 10 über ein Netzwerk verbundene Vorrichtung oder um eine von der Müdigkeit-Folgerungsvorrichtung 10 separate Vorrichtung handeln kann. Ferner kann die Lernvorrichtung 300 auch in die Müdigkeit-Folgerungsvorrichtung 10 eingebaut sein. Außerdem kann die Lernvorrichtung 300 auch auf einem Cloud-Server vorliegen.The
Als von der Modellerzeugungssektion 32 verwendeter Lernalgorithmus können verschiedene bekannte Algorithmen wie überwachtes Lernen, unüberwachtes Lernen oder bestärkendes Lernen verwendet werden. Im Folgenden wird als ein Beispiel der Fall einer Anwendung eines neuronalen Netzwerks erläutert.As the learning algorithm used by the
Die Modellerzeugungssektion 32 lernt die Änderungsgrößen z. B. einem neuronalen Netzwerkmodell folgend durch ein so genanntes überwachtes Lernen. Beim überwachten Lernen handelt es sich um ein Verfahren, bei dem Gruppen von Daten der Eingabe und des Ergebnisses (Label) in der Lernvorrichtung 300 aufgestellt werden, wodurch Merkmale dieser Lerndaten gelernt und anhand der Eingabe das Ergebnis geschlussfolgert wird.The
Bei einem neuronalen Netzwerk aus drei Schichten wie beispielsweise in
Bei der vorliegenden Offenbarung erfolgt ein Lernen der Änderungsgrößen durch ein so genanntes überwachtes Lernen dadurch, dass das neuronale Netzwerk Lerndaten folgt, die auf der Basis von Kombinationen aus mittels der Daten-Erwerbssektion 31 erworbenen Gesichtsdaten und Änderungsgrößen erstellt werden.In the present disclosure, learning of the change quantities is performed by a so-called supervised learning by having the neural network follow learning data based on combinations of facial data and change quantities acquired by the
Bei der vorliegenden Offenbarung erfolgt das Lernen dadurch, dass bei dem neuronalen Netzwerk die Gewichtungen W1 und W2 derart eingestellt sind, dass sich das nach der Eingabe von Gesichtsdaten in die Eingabeschicht aus der Ausgabeschicht ausgegebene Ergebnis den als Lerndaten eingegebenen Änderungsgrößen annähert. Die Modellerzeugungssektion 32 erzeugt durch das Ausführen des vorstehend beschriebenen Lernens ein gelerntes Modell und gibt es aus. Ferner speichert die Gelerntes-Modell-Speichersektion 40 das von der Modellerzeugungssektion 32 ausgegebene gelernte Modell. Im Folgenden wird zum Zweck der Erläuterung die Verarbeitung zum Erzeugen eines gelernten Modells als Gelerntes-Modell-Erzeugungsverarbeitung bezeichnet.In the present disclosure, learning is carried out by setting the weights W1 and W2 in the neural network such that the result output from the output layer after facial data has been input into the input layer approaches the change quantities input as learning data. The
Als Nächstes erfolgt bei der Modellerzeugungssektion 32 durch ein Lernen der Änderungsgrößen mittels eines so genannten überwachten Lernens, das Lerndaten folgt, die auf der Basis von Kombinationen aus mittels der Daten-Erwerbssektion 31 erworbenen Gesichtsdaten und Änderungsgrößen erstellt wurde, die Erzeugung eines gelernten Modells (ST302). Dann zeichnet die Gelerntes-Modell-Speichersektion 40 das von der Modellerzeugungssektion 32 gelernte Modell auf (ST303).Next, at the
Außerdem werden durch die Modellerzeugungssektion 32 mittels des vorstehend beschriebenen Gelerntes-Modell-Erzeugungsverfahrens eine Vielzahl von gelernten Modellen erzeugt und in der Gelerntes-Modell-Speichersektion 40 aufgezeichnet. Die Vielzahl von gelernten Modellen in der vorliegenden Ausführungsform leisten entsprechend der Art der jeweils eingegebenen Gesichtsdaten einen unterschiedlichen Beitrag zur Schlussfolgerung der Änderungsgröße der Gesichtsdaten. Der Beitrag zur Schlussfolgerung der Änderungsgröße ist dabei ein Indikatorwert, der die Größe des Einflusses auf die Schlussfolgerung der Änderungsgröße anzeigt, wenn bestimmte Gesichtsdaten in das gelernte Modell eingegeben werden.In addition, a plurality of learned models are generated by the
Wird beispielsweise durch den Gesichtsdetektor 11 mittels der Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert, können die Gesichtsdaten bezüglich eines Teils der Gesichtselemente nicht für die Müdigkeit-Folgerungsverarbeitung verwendet werden. Wird beispielsweise die Änderungsgröße dadurch geschlussfolgert, dass eine Vielzahl von Gesichtsdaten wie der Augenöffnungsgrad, der Mundöffnungsgrad oder die Bewegung (Gesichtsrichtung) des Kopfs eingegeben wird, ist es erforderlich, dass die Gesichtsdaten in das gelernte Modell eingegeben und anhand des gelernten Modells die Änderungsgröße erhalten wird, wobei die genaue Erläuterung des Verfahrens der Schlussfolgerung der Änderungsgröße im Folgenden beschrieben wird.For example, if a part of the facial elements is not detected by the
Leisten jedoch bei dem gelernten Modell, in das die Gesichtsdaten eingegeben werden, die Gesichtsdaten, die mittels der Gesicht-Detektionsverarbeitung nicht detektiert werden konnten, einen hohen Beitrag zur Schlussfolgerung der Änderungsgröße, ist zu befürchten, dass die Zuverlässigkeit der Änderungsgröße, die anhand des gelernten Modells erworben wird, gering ist. Dadurch besteht die Möglichkeit, dass auch die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses des Insassen, das unter Verwendung der von dem gelernten Modell erworbenen Änderungsgröße gefolgert wurde, nicht sichergestellt werden kann.However, in the learned model into which the face data is input, the face data that could not be detected by the face detection processing makes a large contribution to the inference of the change amount, it is feared that the reliability of the Change size acquired based on the learned model is small. As a result, there is a possibility that the reliability of the occupant's fatigue inference result inferred using the change amount acquired by the learned model cannot be ensured either.
Bevorzugt werden daher bei der vorliegenden Ausführungsform durch die Gelerntes-Modell-Speichersektion 40 entsprechend der Klassifizierung der Gesichtsdaten eine Vielzahl von gelernten Modellen mit einem unterschiedlichen Beitrag zur Schlussfolgerung der Änderungsgröße aufgezeichnet. Im Folgenden werden Beispiele einer Vielzahl von gelernten Modellen dargestellt.Therefore, in the present embodiment, a plurality of learned models with a different contribution to the inference of the change amount are preferably recorded by the learned
Beispielsweise ist bei dem Beispiel in
Andererseits ist bei dem Beispiel in
Das heißt, wenn mittels der Gesicht-Detektionsverarbeitung von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, kann die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses sichergestellt werden, wenn entsprechend der Klassifikation der detektierten anderen Gesichtselemente aus einer Vielzahl von gelernten Modellen ein gelerntes Modell ausgewählt wird, das die Änderungsgröße der Müdigkeitsstufe erwirbt. Im Folgenden wird zusammen mit dem Aufbau der Müdigkeit-Folgerungsvorrichtung 10 die Müdigkeit-Folgerungsverarbeitung erläutert.That is, when a part of the facial elements has not been detected by the face detection processing of a plurality of facial elements, the reliability of the fatigue inference result can be ensured if a learned model is selected from a plurality of learned models according to the classification of the detected other facial elements which acquires the change magnitude of the fatigue level. The following explains the fatigue inference processing along with the structure of the
Die Müdigkeit-Folgerungssektion 12 schlussfolgert unter Nutzung eines gelernten Modells die Änderungsgröße. Das heißt, dadurch, dass von dem Gesichtsdetektor 11 Gesichtsdaten erworben werden und die von dem Gesichtsdetektor 11 erworbenen Gesichtsdaten in das gelernte Modell eingegeben werden, erhalten die Müdigkeit-Folgerungssektion 12 eine anhand der Gesichtsdaten schlussgefolgerte Änderungsgröße.The
Bei der vorliegenden Ausführungsform wurde erläutert, dass die Änderungsgröße unter Verwendung eines durch die Modellerzeugungssektion 32 der Lernvorrichtung 300 bezüglich der Müdigkeit-Folgerungsvorrichtung 10 gelernten Modells ausgegeben wird, es kann aber auch von außen ein gelerntes Modell einer Lernvorrichtung bezüglich einer anderen Müdigkeit-Folgerungsvorrichtung erworben und basierend auf diesem gelernten Modell die Änderungsgröße ausgegeben werden.In the present embodiment, it was explained that the change amount is output using a model learned by the
Als Nächstes wird unter Verwendung von
Das heißt, in
Zunächst wird die in
Dann werden die zweiten Gesichtsdaten durch die Müdigkeit-Folgerungssektion 12 in das in der Gelerntes-Modell-Speichersektion 40 aufgezeichnete gelernte Modell eingegeben (ST305). Dabei gibt die Müdigkeit-Folgerungssektion 12 die zweiten Gesichtsdaten in ein gelerntes Modell ein, bei dem die durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente (Gesichtselemente A2) verglichen mit anderen Gesichtselementen als den Gesichtselementen A2 (z. B. Gesichtsdaten B2), einen höheren Beitrag zur Schlussfolgerung der Änderungsgröße leisten. Bei dem Beispiel in
Als Nächstes wird durch die Müdigkeit-Folgerungssektion 12 die Änderungsgröße für die mittels des gelernten Modells erhaltene erste Müdigkeitsstufe erworben (ST306). Dann wird durch die Müdigkeit-Folgerungssektion 12 aus der Speichersektion die erste Müdigkeitsstufe erworben, und anhand der ersten Müdigkeitsstufe und der mittels des gelernten Modells erhaltenen Änderungsgröße die zweite Müdigkeitsstufe berechnet (ST307).Next, the change amount for the first level of fatigue obtained by the learned model is acquired by the fatigue inference section 12 (ST306). Then, the first fatigue level is acquired from the storage section by the
Andererseits wird die in
Dann werden die zweiten Gesichtsdaten durch die Müdigkeit-Folgerungssektion 12 in das in der Gelerntes-Modell-Speichersektion 40 aufgezeichnete gelernte Modell eingegeben (ST309). Dabei gibt die Müdigkeit-Folgerungssektion 12 die zweiten Gesichtsdaten in ein gelerntes Modell ein, bei dem die durch die zweite Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente (Gesichtselemente B2) verglichen mit anderen Gesichtselementen als den Gesichtselementen B2 (z. B. Gesichtsdaten A2), einen höheren Beitrag zur Schlussfolgerung der Änderungsgröße leisten. Bei dem Beispiel in
Als Nächstes wird durch die Müdigkeit-Folgerungssektion 12 die Änderungsgröße für die mittels des gelernten Modells erhaltene erste Müdigkeitsstufe erworben (ST310). Dann wird durch die Müdigkeit-Folgerungssektion 12 aus der Speichersektion die erste Müdigkeitsstufe erworben, und anhand der ersten Müdigkeitsstufe und der mittels des gelernten Modells erhaltenen Änderungsgröße die zweite Müdigkeitsstufe berechnet (ST311). Hierdurch wird auch wenn von einer Vielzahl von Gesichtselementen ein Teil der Gesichtselemente nicht detektiert wurde, der Müdigkeitszustand des Insassen nicht unsicher, sodass dadurch, dass die Müdigkeit des Insassen unter Verwendung eines gelernten Modells gefolgert werden kann, bei dem mittels des Gesicht-Detektionsverfahrens detektierbare Gesichtselemente einen großen Einfluss auf die Folgerung der Müdigkeit haben, die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses verbessert werden kann.Next, the change amount for the first level of fatigue obtained by the learned model is acquired by the fatigue inference section 12 (ST310). Then, the first level of fatigue is acquired from the storage section by the
Erfolgt beim Betrieb der vorstehend beschriebenen Müdigkeit-Folgerungsvorrichtung 10 nach der zweiten Gesicht-Detektionsverarbeitung eine dritte Gesicht-Detektionsverarbeitung und sind die mittels der zweiten GesichtDetektionsverarbeitung detektierten Gesichtselemente und die mittels der dritten Gesicht-Detektionsverarbeitung detektierten Gesichtselemente gleich, kann durch die Müdigkeit-Folgerungsverarbeitung ab der dritten Gesicht-Detektionsverarbeitung auch unter Verwendung anderer Gesichtselemente die Müdigkeit gefolgert werden. Das heißt, wurde mittels der zweiten Gesicht-Detektionsverarbeitung und der dritten Gesicht-Detektionsverarbeitung von der Vielzahl von Gesichtselementen des Insassen ein Teil der Gesichtselemente nicht detektiert, kann die Müdigkeit-Folgerungssektion 12 die Müdigkeit auch unter Verwendung von dritten Gesichtsdaten folgern, die anhand der mittels der dritten Gesicht-Detektionsverarbeitung detektierten anderen Gesichtselemente erhaltenen wurden.When operating the
Es wird beispielsweise angenommen, dass ein Insasse kein Accessoire trägt und durch die erste Gesicht-Detektionsverarbeitung des Gesichtsdetektors 11 Augen, Mund und Nase detektiert werden, und dadurch, dass der Insasse eine Sonnenbrille trägt, durch die zweite Gesicht-Detektionsverarbeitung des Gesichtsdetektors 11 die Augen nicht detektiert werden, und Mund und Nase detektiert werden. In diesem Fall wird durch die Müdigkeit-Folgerungssektion 12 unter Verwendung der ersten Gesichtsdaten, die anhand der Augen, der Nase und des Mundes erhalten wurden, die Müdigkeitsstufe berechnet, und anschließend wird unter Verwendung der zweiten Gesichtsdaten, die durch die zweite Gesicht-Detektionsverarbeitung erhalten wurden, die Änderungsgröße berechnet und die zweite Müdigkeitsstufe berechnet. Trägt der Insasse unverändert die Sonnenbrille, wird dann durch die Müdigkeit-Folgerungssektion 12 mittels der dritten Gesichtsdaten, die anhand von Nase und Mund bei der dritten Gesicht-Detektionsverarbeitung erhalten wurden, die dritte Müdigkeitsstufe berechnet. Hierdurch erfolgt bei der Müdigkeit-Folgerungsverarbeitung ab dem Zeitpunkt, an dem ein Teil der Gesichtselemente nicht mehr detektiert wurde, unter Verwendung der durch die Gesicht-Detektionsverarbeitung detektierbaren Gesichtselemente eine Müdigkeitsfolgerung, sodass die Verarbeitungsbelastung der Müdigkeit-Folgerungsvorrichtung 10 reduziert werden kann.For example, assume that an occupant is not wearing an accessory and the eyes, mouth and nose are detected by the first face detection processing of the
Außerdem können gelernte Modelle zum Schlussfolgern der Müdigkeitsstufe anhand von Gesichtsdaten erzeugt und die gelernten Modelle in der Gelerntes-Modell-Speichersektion 40 gespeichert werden, und die Müdigkeit-Folgerungssektion 12 durch die Eingabe von dritten Gesichtsdaten in die Gelerntes-Modell-Speichersektion 40 die dritte Müdigkeitsstufe erwerben. Dabei ist es bevorzugt, wenn es sich bei dem gelernten Modell zum Schlussfolgern der dritten Müdigkeitsstufe um ein gelerntes Modell handelt, das einen großen Einfluss auf die Berechnung der Müdigkeitsstufe der dritten Gesichtsdaten hat. Hierdurch kann auch wenn ein Teil der Gesichtselemente nicht mehr detektiert werden kann, unter Verwendung eines gelernten Modells, bei dem mittels des Gesicht-Detektionsverfahrens detektierbare Gesichtselemente einen großen Einfluss auf die Folgerung der Müdigkeit haben, eine Müdigkeitsfolgerung durchgeführt werden, sodass die Zuverlässigkeit des Müdigkeit-Folgerungsergebnisses der Müdigkeit-Folgerungsvorrichtung 10 verbessert werden kann.In addition, learned models for inferring the level of fatigue can be generated from facial data, and the learned models can be stored in the learned
Bei der vorliegenden Ausführungsform wurde die Anwendung eines überwachten Lernens bei einem Lernalgorithmus erläutert, der die Modellerzeugungssektion 32 verwendet, wobei hierauf keine Beschränkung besteht. Bei einem Lernalgorithmus ist abgesehen von einem überwachten Lernen auch ein bestärkendes Lernen, ein unüberwachtes Lernen oder ein halb-überwachtes Lernen anwendbar.In the present embodiment, the application of supervised learning to a learning algorithm using the
Ferner ist es auch möglich, dass die Modellerzeugungssektion 32 für eine Vielzahl von Müdigkeit-Folgerungsvorrichtungen 10 erzeugten Lerndaten folgend Änderungsgrößen lernt. Die Modellerzeugungsvorrichtung 32 kann auch Lerndaten von einer Vielzahl von Müdigkeit-Folgerungsvorrichtungen 10, die für den gleichen Bereich verwendet werden, erwerben, oder unter Nutzung von Lerndaten, die von einer Vielzahl von Müdigkeit-Folgerungsvorrichtungen 10 gesammelt werden, die in unterschiedlichen Bereichen unabhängig betrieben werden, Änderungsgrößen lernen. Ferner ist es auch möglich, zwischendurch eine Lerndaten sammelnde Müdigkeit-Folgerungsvorrichtung 10 einem Zielobjekt zuzusetzen oder von einem Zielobjekt zu entfernen. Außerdem kann eine Lernvorrichtung 300, die bezüglich einer bestimmten Müdigkeit-Folgerungsvorrichtung Änderungsgrößen gelernt hat, bei einer anderen Müdigkeit-Folgerungsvorrichtung verwendet werden, und bezüglich der anderen Müdigkeit-Folgerungsvorrichtung 10 Änderungsgrößen neu lernen und aktualisieren.Furthermore, it is also possible for the
Als Lernalgorithmus, bei dem die Modellerzeugungssektion 32 verwendet wird, kann ferner auch ein einem anderen bekannten Verfahren, z. B. Gradient-Boosting, genetisches Programmieren, funktionallogisches Programmieren oder Support Vector Machine folgendes maschinelles Lernen ausgeführt werden, bei dem auch ein tiefgehendes Lernen (Deep Learning) verwendet wird, bei dem die Extraktion der Merkmalsgrößen selbst gelernt wird.As a learning algorithm in which the
Bei den verschiedenen Ausführungsformen, die in der vorliegenden Beschreibung offenbart sind, ist innerhalb dieses Bereichs eine beliebige Kombination der jeweiligen Ausführungsformen möglich, und die jeweiligen Ausführungsformen können auch in geeigneter Weise abgewandelt oder abgekürzt werden.Among the various embodiments disclosed in the present specification, any combination of the respective embodiments is possible within this range, and the respective embodiments may also be appropriately modified or abbreviated.
[Erläuterung der Bezugszeichen][Explanation of reference numerals]
- 11
- BilderwerbssektionImage acquisition section
- 22
- Fahrzeuginformationen-ErwerbssektionVehicle Information Acquisition Section
- 33
- Merkmalspunkt-DetektionssektionFeature point detection section
- 44
- Merkmalsgrößen-BerechnungssektionFeature size calculation section
- 55
- Gesichtselement-BeurteilungssektionFacial element judgment section
- 1010
- Müdigkeit-FolgerungsvorrichtungFatigue inference device
- 1111
- GesichtsdetektorFace detector
- 1212
- Müdigkeit-FolgerungssektionFatigue Inference Section
- 2020
- AbbildungsvorrichtungImaging device
- 3131
- DatenerwerbssektionData acquisition section
- 3232
- ModellerzeugungssektionModel creation section
- 4040
- Gelerntes-Modell-SpeichersektionLearned model storage section
- 6161
- AbbildungsbildIllustration image
- 7171
- Gesichtsbereichfacial area
- 8181
- Linkes AugeLeft eye
- 8282
- Rechtes AugeRight eye
- 8383
- NaseNose
- 8484
- Mundmouth
- 100100
- Müdigkeit-FolgerungssystemFatigue inference system
- 200200
- Fahrzeugseitige SteuerungsvorrichtungVehicle-side control device
- 300300
- LernvorrichtungLearning device
- 501501
- FahrersitzDriver's seat
- 502502
- BeifahrersitzPassenger seat
- 503503
- Fahrerdriver
- 504504
- Beifahrerpassenger
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- JP 2003296712 A [0003]JP 2003296712 A [0003]
Claims (10)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/017544 WO2022234662A1 (en) | 2021-05-07 | 2021-05-07 | Drowsiness estimation device and drowsiness estimation system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112021007211T5 true DE112021007211T5 (en) | 2024-01-04 |
Family
ID=83932702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112021007211.0T Pending DE112021007211T5 (en) | 2021-05-07 | 2021-05-07 | Fatigue inference device and fatigue inference system |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7325687B2 (en) |
DE (1) | DE112021007211T5 (en) |
WO (1) | WO2022234662A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296712A (en) | 2002-04-02 | 2003-10-17 | Nissan Motor Co Ltd | Device and method for detecting facial state |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257043A (en) * | 2006-03-20 | 2007-10-04 | Nissan Motor Co Ltd | Occupant state estimating device and occupant state estimating method |
JP5167027B2 (en) * | 2008-08-19 | 2013-03-21 | トヨタ自動車株式会社 | Blink state detection device |
JP5109922B2 (en) * | 2008-10-16 | 2012-12-26 | 株式会社デンソー | Driver monitoring device and program for driver monitoring device |
JP2014095987A (en) * | 2012-11-08 | 2014-05-22 | Denso Corp | In-vehicle unit and vehicle safety control system |
JP6662352B2 (en) * | 2017-07-07 | 2020-03-11 | マツダ株式会社 | Drowsy driving alarm |
JP2020194224A (en) * | 2019-05-24 | 2020-12-03 | 日本電産モビリティ株式会社 | Driver determination device, driver determination method, and driver determination program |
-
2021
- 2021-05-07 DE DE112021007211.0T patent/DE112021007211T5/en active Pending
- 2021-05-07 WO PCT/JP2021/017544 patent/WO2022234662A1/en active Application Filing
- 2021-05-07 JP JP2023518590A patent/JP7325687B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296712A (en) | 2002-04-02 | 2003-10-17 | Nissan Motor Co Ltd | Device and method for detecting facial state |
Also Published As
Publication number | Publication date |
---|---|
WO2022234662A1 (en) | 2022-11-10 |
JP7325687B2 (en) | 2023-08-14 |
JPWO2022234662A1 (en) | 2022-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19720626B4 (en) | Driving condition monitoring device for motor vehicles | |
DE19614975C2 (en) | Facial image processing system | |
EP2086785A1 (en) | Method and device for driver state detection | |
DE112011105439T5 (en) | Red-eye detection device | |
DE102018128289A1 (en) | METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION | |
DE102018208763A1 (en) | Method, apparatus and computer program for operating a machine learning system | |
DE112018007454T5 (en) | Occupant condition determination device, warning output control device, and occupant condition determination method | |
DE102020125989A1 (en) | System for controlling autonomous vehicles to reduce motion sickness | |
DE102020117555A1 (en) | METHOD AND DEVICE FOR INTRIBUTOR CLASSIFICATION | |
DE102019204892A1 (en) | Method and control device for detecting drowsiness of a driver for a driver assistance system for a vehicle | |
DE102006053328B4 (en) | A method of authenticating a driver of a vehicle and associated apparatus | |
DE102018222294A1 (en) | Process, computer program, machine-readable storage medium and device for data prediction | |
DE112021007211T5 (en) | Fatigue inference device and fatigue inference system | |
DE112020006670T5 (en) | Direction of attention judging apparatus and direction of attention judging method | |
DE112020007803T5 (en) | Sleep detection device and sleep detection method | |
EP4180281B1 (en) | Feature model-based control of a washing system | |
DE102015225109A1 (en) | A method and apparatus for classifying eye opening data of at least one eye of an occupant of a vehicle and method and apparatus for detecting drowsiness and / or instantaneous sleep of an occupant of a vehicle | |
DE102018206237A1 (en) | Method and device for detecting fatigue of a person | |
DE102018207220A1 (en) | A method, apparatus and computer program for detecting a calculation error or a malfunction | |
DE102020212921A1 (en) | Method, computer program and device for evaluating a usability of simulation data | |
DE102020213685A1 (en) | DEVICE AND METHOD FOR CONTROLLING AN ALCOHOL INTERLOCKING DEVICE OF A VEHICLE | |
DE102020004853A1 (en) | Method for generating a computer model for a control device for controlling at least one vehicle component with the aid of artificial data sets | |
DE112019007052T5 (en) | Alertness degree estimating device, automatic driving assisting device and alertness estimating method | |
DE112019007788T5 (en) | Driver availability detection device and driver availability detection method | |
WO2022157039A1 (en) | Identifying the degree of attentiveness of a vehicle occupant on the basis of the frequency distribution of the eye opening width |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |