DE102020110417A1 - Method and system for assisting a driver - Google Patents

Method and system for assisting a driver Download PDF

Info

Publication number
DE102020110417A1
DE102020110417A1 DE102020110417.0A DE102020110417A DE102020110417A1 DE 102020110417 A1 DE102020110417 A1 DE 102020110417A1 DE 102020110417 A DE102020110417 A DE 102020110417A DE 102020110417 A1 DE102020110417 A1 DE 102020110417A1
Authority
DE
Germany
Prior art keywords
driver
map
computing unit
degree
distraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020110417.0A
Other languages
German (de)
Inventor
Antonyo Musabini
Mousnif Chetitah
Kevin Nguyen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102020110417.0A priority Critical patent/DE102020110417A1/en
Priority to PCT/EP2021/059512 priority patent/WO2021209426A1/en
Publication of DE102020110417A1 publication Critical patent/DE102020110417A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

Gemäß einem Verfahren zur Assistenz eines Fahrers (5) eines Fahrzeugs (1) wird ein Blickverfolgungssystem (3) dazu benutzt, eine Blickrichtung (6) des Fahrers (5) zu bestimmen. Eine Recheneinheit (4) wird dazu benutzt, einen Schnittpunkt (7) der Blickrichtung (6) mit einer virtuellen Ebene (8) zu bestimmen und den Schnittpunkt (7) während einer vordefinierten Zeitspanne zu verfolgen, eine Karte (9a, 9b, 9c, 9d), die eine Verteilung der Position des Schnittpunktes (7) während der Zeitspanne darstellt, zu bestimmen. Die Recheneinheit (4) wird auch dazu benutzt, einen Grad an kognitiver Ablenkung des Fahrers (5) basierend auf der Karte (9a, 9b, 9c, 9d) zu bestimmen und ein Ausgangssignal zu erzeugen oder zu verursachen, um den Fahrer (5) abhängig von dem bestimmten Grad an kognitiver Ablenkung zu unterstützen.According to a method for assisting a driver (5) of a vehicle (1), a gaze tracking system (3) is used to determine a gaze direction (6) of the driver (5). A computing unit (4) is used to determine an intersection (7) of the viewing direction (6) with a virtual plane (8) and to track the intersection (7) during a predefined period of time, a map (9a, 9b, 9c, 9d), which represents a distribution of the position of the intersection point (7) during the period of time. The computing unit (4) is also used to determine a degree of cognitive distraction of the driver (5) based on the map (9a, 9b, 9c, 9d) and to generate or cause an output signal to inform the driver (5) depending on the particular level of cognitive distraction.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Assistenz eines Fahrers eines Fahrzeugs, wobei ein Blickverfolgungssystem dazu benutzt wird, eine Blickrichtung des Fahrers zu bestimmen. Des Weiteren betrifft die Erfindung ein entsprechendes Fahrerassistenzsystem für ein Fahrzeug sowie ein Computerprogrammprodukt.The present invention relates to a method for assisting a driver of a vehicle, a gaze tracking system being used to determine a direction of gaze of the driver. The invention also relates to a corresponding driver assistance system for a vehicle and a computer program product.

Ablenkung eines Fahrers eines Kraftfahrzeugs kann zu schweren Unfällen führen. Dabei kann die Ablenkung verschiedene Formen annehmen. Wenn zum Beispiel der Fahrer die Augen von der Fahrbahn abwendet, kann dies als visuelle Ablenkung betrachtet werden, und wenn der Fahrer die Hände vom Lenkrad nimmt, kann dies als eine manuelle Ablenkung des Fahrers betrachtet werden. Zusätzlich kann es zu kognitiver Ablenkung kommen, wobei der Fahrer seine gedankliche Aufmerksamkeit von der Fahraufgabe weg richtet.Distraction of a driver of a motor vehicle can lead to serious accidents. The distraction can take various forms. For example, if the driver takes their eyes off the road it can be considered a visual distraction and if the driver takes their hands off the steering wheel it can be considered a manual distraction of the driver. In addition, there can be cognitive distraction, whereby the driver directs his mental attention away from the driving task.

Bestehende Ansätze zur Ablenkungsdetektion beinhalten Sensoren, die erkennen, wenn der Fahrer die Hände vom Steuer nimmt, oder verwenden einen Augenverfolger, um zu erkennen, wenn der Fahrer den Blick von der Fahrbahn nimmt.Existing approaches to distraction detection include sensors that detect when the driver takes their hands off the wheel or use an eye tracker to detect when the driver is looking away from the road.

Zum Beispiel beschreibt Dokument US 6,496,117 B2 ein System zum Überwachen der Aufmerksamkeit eines Fahrers auf das Steuern eines Fahrzeugs. Der Blick und eine Gesichtspose des Fahrers werden mittels einer Kamera bestimmt. Falls der Blick oder die Gesichtspose des Fahrers nicht in Fahrtrichtung nach vorne gerichtet sind, kann das System ein Warnsignal ausgeben.For example describes document US 6,496,117 B2 a system for monitoring a driver's attention to controlling a vehicle. The driver's gaze and facial pose are determined by means of a camera. If the driver's gaze or facial pose is not facing forward in the direction of travel, the system can issue a warning signal.

Bekannte Ansätze sind jedoch nicht dazu imstande, kognitive Ablenkung in zuverlässiger Weise zu berücksichtigen, da kognitive Ablenkung nicht notwendigerweise damit korreliert ist, dass der Fahrer seinen Blick auf die Fahrbahn richtet oder von dieser abwendet, oder damit, dass der Fahrer die Hände am Lenkrad hat oder nicht.However, known approaches are unable to reliably take into account cognitive distraction, since cognitive distraction is not necessarily correlated with the fact that the driver directs his gaze to or from the roadway, or with the fact that the driver has his hands on the steering wheel or not.

Es ist daher Aufgabe der vorliegenden Erfindung, ein verbessertes Konzept zur Assistenz eines Fahrers eines Fahrzeugs bereitzustellen, welches ein Unfallrisiko aufgrund von kognitiver Ablenkung des Fahrers reduziert.It is therefore the object of the present invention to provide an improved concept for assisting a driver of a vehicle which reduces the risk of an accident due to cognitive distraction of the driver.

Diese Aufgabe wird gelöst durch den Gegenstand der unabhängigen Ansprüche. Weitere Ausführungen und bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.This problem is solved by the subject matter of the independent claims. Further designs and preferred embodiments are the subject of the dependent claims.

Das verbesserte Konzept basiert auf der Idee, den Blick des Fahrers über eine Zeitspanne zu verfolgen und den Grad an kognitiver Ablenkung basierend auf einer Karte zu bestimmen, die die Verteilung eines Schnittpunkts der Blickrichtung mit einer virtuellen Ebene vor dem Fahrer während der Zeitspanne darstellt.The improved concept is based on the idea of tracking the driver's gaze over a period of time and determining the degree of cognitive distraction based on a map that shows the distribution of an intersection of the line of sight with a virtual plane in front of the driver during the period of time.

Gemäß dem verbesserten Konzept wird ein Verfahren zur Assistenz eines Fahrers eines Fahrzeugs bereitgestellt. Ein Blickverfolgungssystem wird dazu benutzt, eine Blickrichtung des Fahrers zu bestimmen, und eine Recheneinheit, insbesondere des Fahrzeugs, wird dazu benutzt, einen Schnittpunkt der Blickrichtung mit einer virtuellen Ebene zu bestimmen und die Blickrichtung und dadurch den Schnittpunkt während einer vordefinierten Zeitspanne, insbesondere einer Messzeitspanne oder Erfassungszeitspanne, zu verfolgen. Die Recheneinheit wird dazu benutzt, eine Karte zu bestimmen, die eine Verteilung der Position des Schnittpunkts auf der virtuellen Ebene während der Zeitspanne darstellt. Die Recheneinheit wird dazu benutzt, einen Grad an kognitiver Ablenkung des Fahrers basierend auf der Karte zu bestimmen und ein Ausgangssignal zu erzeugen oder zu verursachen, um den Fahrer abhängig von dem bestimmten Grad an kognitiver Ablenkung zu unterstützen.According to the improved concept, a method for assisting a driver of a vehicle is provided. A gaze tracking system is used to determine the driver's gaze direction, and a computing unit, in particular the vehicle, is used to determine an intersection of the direction of gaze with a virtual plane and the direction of gaze and thereby the intersection point during a predefined period of time, in particular a measurement period or acquisition time span. The arithmetic unit is used to determine a map which represents a distribution of the position of the intersection point on the virtual plane during the period of time. The computing unit is used to determine a degree of cognitive distraction of the driver based on the map and to generate or cause an output signal in order to support the driver depending on the determined degree of cognitive distraction.

Das Blickverfolgungssystem kann zum Beispiel einen Infrarotsensor oder eine Infrarotkamera beinhalten, wobei eine potenzielle Position des Kopfes oder der Augen des Fahrers sich in einem Sichtfeld der Kamera oder des Sensor befinden. Infrarotstrahlung, die von einem Infrarotemitter des Blickverfolgungssystems ausgesendet wird, wird von den Augen des Fahrers abhängig von der Blickrichtung teilweise reflektiert. Auf diese Weise kann das Blickverfolgungssystem die Blickrichtung bestimmen.The gaze tracking system can include, for example, an infrared sensor or an infrared camera, with a potential position of the head or the eyes of the driver being in a field of view of the camera or the sensor. Infrared radiation, which is emitted by an infrared emitter of the gaze tracking system, is partially reflected by the driver's eyes depending on the direction of gaze. In this way, the gaze tracking system can determine the direction of gaze.

Jedoch können auch alternative Ansätze zur Verfolgung oder Bestimmung der Blickrichtung ebenfalls anwendbar sein.However, alternative approaches to tracking or determining the line of sight may also be applicable.

Die Blickrichtung kann zum Beispiel als eine gerade Linie verstanden werden, die durch einen Blickrichtungsvektor definiert ist.The viewing direction can be understood, for example, as a straight line that is defined by a viewing direction vector.

Um den Schnittpunkt während der Zeitspanne zu verfolgen, wird die Blickrichtung zum Beispiel wiederholt mit einer vordefinierten Frequenz bestimmt, zum Beispiel in der Größenordnung von mehreren zehn Millisekunden, beispielsweise etwa 50 ms, und der Schnittpunkt wird für jede Wiederholung bestimmt. Die Positionen des Schnittpunktes können während der Zeitspanne gespeichert oder zwischengespeichert werden, um die Karte zu bestimmen.In order to track the point of intersection during the period of time, for example, the viewing direction is determined repeatedly at a predefined frequency, for example on the order of several tens of milliseconds, for example about 50 ms, and the point of intersection is determined for each repetition. The positions of the intersection point can be saved or cached during the period in order to determine the map.

Die Karte kann als eine Darstellung, insbesondere als eine Bilddarstellung, des Schnittpunktes in zwei Dimensionen, insbesondere auf der virtuellen Ebene, verstanden werden. Die Karte kann zum Beispiel die Form einer Matrix mit Einträgen haben, wobei Werte der Einträge von der Dauer oder Wahrscheinlichkeit abhängen, dass die Blickrichtung während der Zeitspanne den entsprechenden Schnittpunkt mit der virtuellen Ebene hat. Mit anderen Worten stellt die Karte eine lokale Verteilung der Blickintensität dar.The map can be understood as a representation, in particular as an image representation, of the point of intersection in two dimensions, in particular on the virtual plane. The card can, for example, have the form of a matrix with entries, with values of the entries of duration or Depend on the probability that the viewing direction has the corresponding point of intersection with the virtual plane during the period of time. In other words, the map shows a local distribution of gaze intensity.

Die Karte kann zum Beispiel visuell als eine zweidimensionale Heatmap oder Farbstufenkarte oder Graustufenkarte dargestellt werden. Mit anderen Worten kann die Karte als ein zweidimensionales Bild dargestellt werden.For example, the map can be displayed visually as a two-dimensional heat map or color level map or grayscale map. In other words, the map can be displayed as a two-dimensional image.

Das Verursachen des Ausgangssignals kann zum Beispiel das Veranlassen einer weiteren Einheit, zum Beispiel eines Betätigungselements, einer Anzeige, oder einer weiteren Recheneinheit, zur Erzeugung des Ausgangssignals beinhalten.Causing the output signal can include, for example, causing a further unit, for example an actuating element, a display, or a further computing unit, to generate the output signal.

Die virtuelle Ebene kann als eine geometrische Konstruktion einer ebenen Fläche vordefinierter Größe verstanden werden. Die virtuelle Ebene kann auch als eine virtuelle Wand oder eine imaginäre Fläche bezeichnet werden.The virtual plane can be understood as a geometric construction of a flat surface of predefined size. The virtual plane can also be referred to as a virtual wall or an imaginary surface.

Insbesondere befindet sich die virtuelle Ebene virtuell in einer vordefinierten Entfernung zu dem Blickverfolgungssystem, zum Beispiel der Kamera oder dem Sensor, oder einer potenziellen Referenzposition für den Kopf oder die Augen des Fahrers.In particular, the virtual plane is virtually at a predefined distance from the eye tracking system, for example the camera or the sensor, or a potential reference position for the head or the eyes of the driver.

Gemäß einigen Ausführungen ist eine Position und Ausrichtung der virtuellen Ebene fest mit einem Fahrzeugkoordinatensystem des Fahrzeugs oder einem Sensorkoordinatensystem des Blickverfolgungssystems verbunden. Insbesondere verändert sich die Position und Ausrichtung der virtuellen Ebene hinsichtlich des Blickverfolgungssystems oder des Fahrzeugs nicht, wenn sich die Blickrichtung des Fahrers tatsächlich geändert hat.According to some embodiments, a position and orientation of the virtual plane is permanently linked to a vehicle coordinate system of the vehicle or a sensor coordinate system of the gaze tracking system. In particular, the position and orientation of the virtual plane with regard to the gaze tracking system or the vehicle does not change if the direction of the driver's gaze has actually changed.

Zum Beispiel kann die virtuelle Ebene parallel zu einer Querachse des Fahrzeugkoordinatensystems oder des Sensorkoordinatensystems positioniert sein und kann in einem festen Winkel oder vordefinierten Winkel hinsichtlich einer Normalachse des Fahrzeugkoordinatensystems oder des Sensorkoordinatensystems positioniert sein. Der Winkel kann zum Beispiel ungefähr null Grad sein, so dass die virtuelle Ebene rechtwinklig zu einer Längsachse des Fahrzeugkoordinatensystems oder des Sensorkoordinatensystems ausgerichtet ist. Die virtuelle Ebene kann zum Beispiel in einer vordefinierten Entfernung von einem Ursprung des Fahrzeugkoordinatensystems oder des Sensorkoordinatensystems in einer Längsrichtung positioniert sein.For example, the virtual plane can be positioned parallel to a transverse axis of the vehicle coordinate system or the sensor coordinate system and can be positioned at a fixed angle or predefined angle with respect to a normal axis of the vehicle coordinate system or the sensor coordinate system. The angle can be approximately zero degrees, for example, so that the virtual plane is oriented at right angles to a longitudinal axis of the vehicle coordinate system or the sensor coordinate system. The virtual plane can, for example, be positioned at a predefined distance from an origin of the vehicle coordinate system or the sensor coordinate system in a longitudinal direction.

Mittels eines Verfahrens gemäß dem verbesserten Konzept wird die Blickdynamik direkt analysiert, um die kognitive Ablenkung des Fahrers zu identifizieren, zum Beispiel in sogenannten Tagtraumsituationen, in denen der Blick des Fahrers zwar auf die Fahrbahn gerichtet ist, jedoch die Blickdynamik nicht der gegenwärtigen Verkehrssituation oder Fahrsituation angemessen ist.Using a method according to the improved concept, the gaze dynamics is analyzed directly in order to identify the driver's cognitive distraction, for example in so-called daydream situations in which the driver's gaze is directed towards the road, but the gaze dynamics are not the current traffic situation or driving situation is appropriate.

Durch Berücksichtigung des Grades an kognitiver Ablenkung können Risikosituationen und Unfälle verhindert werden.By taking into account the degree of cognitive distraction, risky situations and accidents can be prevented.

Da eine bildbasierte Darstellung der Blickdynamik in Form der Karte benutzt wird, kann der Grad an Ablenkung oder der jeweilige kognitive Zustand des Fahrers in besonders zuverlässiger Weise bestimmt werden, zum Beispiel im Vergleich zu einer bloßen Analyse der Blickrichtung. Des Weiteren kann durch die bildbasierte Darstellung ein Algorithmus zum Analysieren der Karte zur Bestimmung des Grades an kognitiver Ablenkung weniger Daten zum Trainieren benötigen und/oder genauere Ergebnisse erzeugen.Since an image-based representation of the gaze dynamics in the form of the map is used, the degree of distraction or the respective cognitive state of the driver can be determined in a particularly reliable manner, for example in comparison to a mere analysis of the viewing direction. Furthermore, due to the image-based representation, an algorithm for analyzing the map to determine the degree of cognitive distraction can require less data for training and / or generate more precise results.

Durch Analysieren des Schnittpunktes der Blickrichtung mit einer virtuellen Ebene, kann die Bewegung der Augen des Fahrers als durch die Entfernung zwischen den Augen des Fahrers und der virtuellen Ebene vergrößert betrachtet werden. Daher können genauere Ergebnisse erzielt werden, zum Beispiel im Vergleich zu einem bloßen Verfolgen der Pupillen des Fahrers.By analyzing the intersection of the line of sight with a virtual plane, the movement of the driver's eyes can be regarded as being enlarged by the distance between the driver's eyes and the virtual plane. Therefore, more accurate results can be obtained, for example compared to merely tracking the driver's pupils.

Gemäß einigen Ausführungen des Verfahrens gemäß dem verbesserten Konzept beinhaltet das Ausgangssignal ein Warnsignal an den Fahrer.According to some implementations of the method according to the improved concept, the output signal includes a warning signal to the driver.

Gemäß einigen Ausführungen beinhaltet das Warnsignal ein visuelles Signal und/oder ein akustisches Signal und/oder ein haptisches Signal ein.According to some embodiments, the warning signal includes a visual signal and / or an acoustic signal and / or a haptic signal.

Gemäß einigen Ausführungen kann das Ausgangssignal dazu benutzt werden, zum Beispiel von einem Fahrerassistenzsystem, das die Recheneinheit beinhalten kann, um eine Maßnahme zur Risikoverringerung einzuleiten, wie etwa Begrenzen einer Höchstgeschwindigkeit des Fahrzeugs oder Steigerung eines Grades an Assistenz des Fahrers.According to some embodiments, the output signal can be used, for example by a driver assistance system, which can contain the computing unit, in order to initiate a risk reduction measure, such as for example limiting a maximum speed of the vehicle or increasing a degree of driver assistance.

Gemäß einigen Ausführungen wird die Recheneinheit dazu benutzt, einen Klassifizierungsalgorithmus, insbesondere einen trainierten Klassifizierungsalgorithmus, auf die Karte anzuwenden oder auf Daten, die basierend auf der Karte abgeleitet werden, um den Grad an kognitiver Ablenkung zu bestimmen.According to some embodiments, the computing unit is used to apply a classification algorithm, in particular a trained classification algorithm, to the map or to data derived based on the map in order to determine the degree of cognitive distraction.

Der Klassifizierungsalgorithmus kann zum Beispiel eine binäre Klassifizierung verwenden, um die kognitive Ablenkung in zwei Klassen einzuordnen, eine entsprechend einem abgelenkten Fahren und eine entsprechend einem neutralen oder nicht abgelenkten Fahren.For example, the classification algorithm can use binary classification to classify the cognitive distraction into two classes, one corresponding to distracted driving and one corresponding to neutral or undistracted driving.

Jedoch können auch mehr als zwei Klassen verwendet werden, um eine feinere Reaktion zu erlauben.However, more than two classes can be used to allow a finer response.

Gemäß einigen Ausführungen wird die Recheneinheit dazu benutzt, einen vordefinierten Satz eines oder mehrerer charakteristischer Merkmale aus der Karte zu extrahieren und einen Klassifizierungsalgorithmus, insbesondere einen trainierten Klassifizierungsalgorithmus, auf den Satz von charakteristischen Merkmalen anzuwenden.According to some embodiments, the computing unit is used to extract a predefined set of one or more characteristic features from the map and to apply a classification algorithm, in particular a trained classification algorithm, to the set of characteristic features.

Die charakteristischen Merkmale können zum Bespiel statistische Eigenschaften der Karte oder der Verteilung beinhalten, wie etwa eine Standardabweichung oder einen Maximalwert der Verteilung in einer gegebenen Richtung auf der virtuellen Ebene und so weiter.The characteristic features can include, for example, statistical properties of the map or the distribution, such as a standard deviation or a maximum value of the distribution in a given direction on the virtual plane and so on.

Der Klassifizierungsalgorithmus kann auch die Umwandlung des vordefinierten Satzes von charakteristischen Merkmalen in eine für die Klassifizierung durch den Klassifizierungsalgorithmus geeignete Form beinhalten.The classification algorithm can also include the conversion of the predefined set of characteristic features into a form suitable for classification by the classification algorithm.

Gemäß einigen Ausführungen beinhaltet der Klassifizierungsalgorithmus eine Support-Vektor-Maschine oder ein künstliches neuronales Netzwerk, zum Beispiel ein faltendes neuronales Netzwerk, CNN.According to some implementations, the classification algorithm includes a support vector machine or an artificial neural network, for example a convolutional neural network, CNN.

Diese Algorithmen haben sich als leistungsfähige Werkzeuge für die bildbasierte Klassifizierung erwiesen.These algorithms have proven to be powerful tools for image-based classification.

Gemäß einigen Ausführungen wird die Recheneinheit dazu benutzt, einen räumlichen Bereich auf der virtuellen Ebene zu bestimmen, wobei alle dem räumlichen Bereich entsprechenden Einträge der Karte Werte aufweisen, die gleich einem oder größer als ein vordefinierter Schwellwert sind. Die Recheneinheit wird dazu benutzt, den Grad an Ablenkung basierend auf dem räumlichen Bereich zu bestimmen.According to some embodiments, the processing unit is used to determine a spatial area on the virtual plane, all entries of the map corresponding to the spatial area having values that are equal to or greater than a predefined threshold value. The computing unit is used to determine the degree of distraction based on the spatial area.

Die charakteristischen Merkmale können zum Beispiel eines oder mehrere geometrische Merkmale des räumlichen Bereichs und/oder eines oder mehrere Merkmale betreffend die Form des räumlichen Bereichs betreffen. Zum Beispiel kann ein Flächeninhalt oder eine Größe in einer vordefinierten Richtung auf der virtuellen Ebene als solche Merkmale benutzt werden.The characteristic features can relate, for example, to one or more geometric features of the spatial area and / or one or more features relating to the shape of the spatial area. For example, an area or a size in a predefined direction on the virtual plane can be used as such features.

Gemäß einigen Ausführungen werden einer oder mehrere weitere räumliche Bereiche unter Verwendung der Recheneinheit bestimmt, wobei alle dem jeweiligen weiteren räumlichen Bereich entsprechenden Einträge der Karte jeweilige Werte aufweisen, die gleich einem oder größer als ein vordefinierter jeweiliger weiterer Schwellwert sind. Die Recheneinheit wird dazu benutzt, den Grad an kognitiver Ablenkung basierend auf den weiteren räumlichen Bereichen zu bestimmen.According to some embodiments, one or more further spatial areas are determined using the computing unit, all entries of the map corresponding to the respective further spatial area having respective values that are equal to or greater than a predefined respective further threshold value. The computing unit is used to determine the degree of cognitive distraction based on the further spatial areas.

Die weiteren Schwellwerte können von dem Schwellwert verschieden sein.The further threshold values can be different from the threshold value.

Gemäß einigen Ausführungen wird die Recheneinheit dazu benutzt, ein Bildmoment und/oder ein Hu-Moment basierend auf der Karte zu bestimmen. Die Recheneinheit wird dazu benutzt, den Grad an kognitiver Ablenkung basierend auf dem Bildmoment und/oder basierend auf dem Hu-Moment zu bestimmen.According to some embodiments, the computing unit is used to determine an image moment and / or a Hu moment based on the map. The computing unit is used to determine the degree of cognitive distraction based on the image moment and / or based on the Hu moment.

Das Bildmoment und/oder das Hu-Moment können als Merkmale des vordefinierten Satzes von charakteristischen Merkmalen betrachtet werden.The image moment and / or the Hu moment can be viewed as features of the predefined set of characteristic features.

Gemäß einigen Ausführungen wird die Recheneinheit dazu benutzt, den Grad an kognitiver Ablenkung mit einem vordefinierten maximalen Ablenkungswert zu vergleichen und das Ausgangssignal als ein Warnsignal zu erzeugen, wenn der Grad an kognitiver Ablenkung größer ist als der maximale Ablenkungswert.According to some embodiments, the computing unit is used to compare the degree of cognitive distraction with a predefined maximum distraction value and to generate the output signal as a warning signal if the degree of cognitive distraction is greater than the maximum distraction value.

Gemäß einigen Ausführungen wird die Recheneinheit dazu benutzt, die Blickrichtung und dadurch den Schnittpunkt während einer vordefinierten weiteren Zeitspanne zu verfolgen, wobei eine Dauer der weiteren Zeitspanne verschieden von einer Dauer der Zeitspanne ist. Die Recheneinheit wird dazu benutzt, eine weitere Karte zu bestimmen, die eine weitere Verteilung der Position des Schnittpunktes während der weiteren Zeitspanne darstellt. Die Recheneinheit wird dazu benutzt, einen weiteren Grad an kognitiver Ablenkung des Fahrers basierend auf der Karte zu bestimmen und das Ausgangssignal abhängig von dem bestimmten weiteren Grad an kognitiver Ablenkung zu erzeugen.According to some embodiments, the computing unit is used to track the viewing direction and thereby the point of intersection during a predefined further time span, a duration of the further time span being different from a duration of the time span. The arithmetic unit is used to determine a further map which represents a further distribution of the position of the intersection point during the further period of time. The computing unit is used to determine a further degree of cognitive distraction of the driver based on the map and to generate the output signal as a function of the determined further degree of cognitive distraction.

Im Allgemeinen kann die Dauer der Zeitspanne oder der weiteren Zeitspanne gemäß einer Abwägung zwischen Reaktivität und Zuverlässigkeit gewählt werden. Je kürzer die Dauer, desto höher ist die Reaktivität, aber je länger die Dauer, desto höher ist die Zuverlässigkeit.In general, the duration of the time period or the further time period can be selected according to a trade-off between reactivity and reliability. The shorter the duration, the higher the reactivity, but the longer the duration, the higher the reliability.

Durch Verfolgung der Blickrichtung und des Schnittpunktes während verschiedener Zeitspannen unterschiedlicher Dauer, und die jeweilige parallele Erzeugung der Karten und der weiteren Karten, können beide Vorteile miteinander kombiniert werden und eine hohe Reaktivität bei hoher Zuverlässigkeit erreicht werden.By following the direction of view and the point of intersection for different periods of time of different duration, and the respective parallel generation of the maps and the other maps, both advantages can be combined with one another and a high reactivity with high reliability can be achieved.

Insbesondere können sich die weitere Zeitspanne und die Zeitspanne überlappen.In particular, the further time span and the time span can overlap.

Gemäß einigen Ausführungen liegt die Dauer der Zeitspanne in dem Intervall [1 s, 30 s], vorzugsweise in dem Intervall [10 s, 20 s].According to some embodiments, the duration of the time span is in the interval [1 s, 30 s], preferably in the interval [10 s, 20 s].

Gemäß einigen Ausführungen liegt die Dauer der weiteren Zeitspanne in dem Intervall [15 s, 120 s], vorzugsweise in dem Intervall [30 s, 90 s].According to some embodiments, the duration of the further time span is in the interval [15 s, 120 s], preferably in the interval [30 s, 90 s].

Insbesondere kann die Dauer der Zeitspanne in dem Intervall [10 s, 20 s] liegen, während die Dauer der weiteren Zeitspanne in dem Intervall [30 s, 90 s] liegt. Zum Beispiel kann die Zeitspanne ungefähr 15 s sein und die weitere Zeitspanne kann ungefähr 60 s sein. In particular, the duration of the time span can lie in the interval [10 s, 20 s], while the duration of the further time span lies in the interval [30 s, 90 s]. For example, the period of time can be approximately 15 seconds and the further period of time can be approximately 60 seconds.

Gemäß einigen Ausführungen ist die weitere Zeitspanne mindestens zweimal so lang wie die Zeitspanne, vorzugsweise ist die weitere Zeitspanne mindestens viermal so lang wie die Zeitspanne.According to some embodiments, the further time span is at least twice as long as the time span, preferably the further time span is at least four times as long as the time span.

Gemäß einigen Ausführungen wird ein Umgebungssensorsystem des Fahrzeugs dazu benutzt, ein Objekt zu identifizieren, das sich in einer Umgebung des Fahrzeugs befindet, insbesondere während der Zeitspanne. Die Recheneinheit wird dazu benutzt, die Karte mit Informationen betreffend eine Position des Objekts hinsichtlich virtuellen Ebene zu ergänzen und die Recheneinheit wird dazu benutzt, den Grad an kognitiver Ablenkung basierend auf der ergänzten Karte zu bestimmen.According to some embodiments, an environment sensor system of the vehicle is used to identify an object that is located in an environment of the vehicle, in particular during the time period. The computing unit is used to supplement the map with information relating to a position of the object with regard to the virtual plane, and the computing unit is used to determine the degree of cognitive distraction based on the supplemented map.

Zum Beispiel kann die Recheneinheit ein Symbol einfügen, welches das Objekt darstellt, wie etwa eine Begrenzungsbox oder ähnliches.For example, the computing unit can insert a symbol that represents the object, such as a bounding box or the like.

Das Umgebungssensorsystem kann zum Beispiel ein weiteres Kamerasystem, ein Lidar-System, ein Radar-System und/oder ein Ultraschallsensorsystem beinhalten.The environment sensor system can include, for example, a further camera system, a lidar system, a radar system and / or an ultrasonic sensor system.

Insbesondere kann das Umgebungssensorsystem Umgebungssensordaten erzeugen, die das Objekt darstellen, und die Recheneinheit kann die Karte basierend auf den Umgebungssensordaten ergänzen.In particular, the environment sensor system can generate environment sensor data that represent the object, and the computing unit can supplement the map based on the environment sensor data.

Die Interpretation der Blickverteilung kann von weiteren Objekten in der Szene, wie anderen Fahrzeugen, Fußgängern, Verkehrszeichen und so weiter, abhängen. Dabei kann die Interpretation von der Anzahl von Objekten, ihren jeweiligen Positionen und/oder ihrer Art abhängen.The interpretation of the gaze distribution can depend on other objects in the scene, such as other vehicles, pedestrians, traffic signs and so on. The interpretation can depend on the number of objects, their respective positions and / or their type.

Folglich erlauben derartige Ausführungen eine Berücksichtigung derartiger Auswirkungen bei der Bestimmung des Grades an kognitiver Ablenkung. Insbesondere kann die Verteilung der Blickrichtung, falls es weitere Objekte in der Szene gibt, verschieden sein im Vergleich zu einer leeren Fahrbahn vor dem Fahrer. In der Folge kann eine größere Zuverlässigkeit des Verfahrens und ein verbessertes Sicherheitsniveau erreicht werden.Thus, such implementations allow such effects to be taken into account in determining the degree of cognitive distraction. In particular, the distribution of the viewing direction, if there are further objects in the scene, can be different compared to an empty lane in front of the driver. As a result, greater reliability of the method and an improved level of security can be achieved.

Gemäß dem verbesserten Konzept wird auch ein Fahrerassistenzsystem für ein Fahrzeug, insbesondere ein fortgeschrittenes Fahrerassistenzsystem ADAS, bereitgestellt. Das Fahrerassistenzsystem beinhaltet ein Blickverfolgungssystem, das dazu eingerichtet ist, eine Blickrichtung eines Fahrers eines Fahrzeugs zu bestimmen. Das Fahrerassistenzsystem beinhaltet eine Recheneinheit, die dazu eingerichtet ist, einen Schnittpunkt der Blickrichtung mit einer virtuellen Ebene zu bestimmen und den Schnittpunkt während einer vordefinierten Zeitspanne zu verfolgen. Die Recheneinheit ist dazu eingerichtet, eine Karte zu bestimmen, die eine Verteilung der Position des Schnittpunktes während der Zeitspanne darstellt, einen Grad an kognitiver Ablenkung des Fahrers basierend auf der Karte zu bestimmen und ein Ausgangssignal zu erzeugen oder zu verursachen, um den Fahrer abhängig von dem bestimmten Grad an kognitiver Ablenkung zu unterstützen.According to the improved concept, a driver assistance system for a vehicle, in particular an advanced driver assistance system ADAS, is also provided. The driver assistance system includes a gaze tracking system which is configured to determine a direction of gaze of a driver of a vehicle. The driver assistance system contains a computing unit which is set up to determine an intersection of the viewing direction with a virtual plane and to track the intersection during a predefined period of time. The arithmetic unit is set up to determine a map that represents a distribution of the position of the intersection point during the period of time, to determine a degree of cognitive distraction of the driver based on the map and to generate or cause an output signal to make the driver dependent on to support the particular level of cognitive distraction.

Das Fahrerassistenzsystem kann in manchen Ausführungen das oben hinsichtlich des Verfahrens beschriebene Umgebungssensorsystem beinhalten.In some embodiments, the driver assistance system can include the environment sensor system described above with regard to the method.

Gemäß einigen Ausführungen des Fahrerassistenzsystems beinhaltet das Blickverfolgungssystem einen Emitter, der dazu eingerichtet ist, Infrarotstrahlung in Richtung eines Auges des Fahrers auszusenden, und einen Infrarotsensor, der dazu eingerichtet ist, einen Anteil der Infrarotstrahlung zu detektieren, der von dem Auge des Fahrers reflektiert wird, und ein Sensorsignal abhängig von dem detektierten Anteil der Infrarotstrahlung zu erzeugen. Das Blickverfolgungssystem beinhaltet eine Steuereinheit, die dazu eingerichtet ist, die Blickrichtung basierend auf dem Sensorsignal zu bestimmen.According to some embodiments of the driver assistance system, the gaze tracking system includes an emitter which is set up to emit infrared radiation in the direction of an eye of the driver, and an infrared sensor which is set up to detect a portion of the infrared radiation that is reflected from the driver's eye, and to generate a sensor signal as a function of the detected portion of the infrared radiation. The gaze tracking system includes a control unit which is configured to determine the gaze direction based on the sensor signal.

Die Steuereinheit kann teilweise oder vollständig von der Recheneinheit beinhaltet sein oder kann separat implementiert sein.The control unit can be partially or completely contained by the computing unit or can be implemented separately.

Weitere Ausführungen des Fahrerassistenzsystems gemäß dem verbesserten Konzept ergeben sich aus den verschiedenen Ausführungen des Verfahrens gemäß dem verbesserten Konzept und umgekehrt. Insbesondere kann ein Fahrerassistenzsystem gemäß dem verbesserten Konzept dazu programmiert oder dazu eingerichtet sein, ein Verfahren gemäß dem verbesserten Konzept durchzuführen, oder das System führt ein derartiges Verfahren durch.Further versions of the driver assistance system in accordance with the improved concept result from the various versions of the method in accordance with the improved concept and vice versa. In particular, a driver assistance system according to the improved concept can be programmed or set up to carry out a method according to the improved concept, or the system carries out such a method.

Gemäß dem verbesserten Konzept wird auch ein Computerprogramm, das Befehle beinhaltet, bereitgestellt. Wenn die Befehle oder das Computerprogramm durch ein Fahrerassistenzsystem gemäß dem verbesserten Konzept ausgeführt werden, veranlassen die Befehle das Fahrerassistenzsystem dazu, ein Verfahren gemäß dem verbesserten Konzept durchzuführen.According to the improved concept, a computer program that includes instructions is also provided. If the commands or the computer program by a driver assistance system according to are executed according to the improved concept, the commands cause the driver assistance system to carry out a method according to the improved concept.

Gemäß dem verbesserten Konzept wird auch ein computerlesbares Speichermedium, das ein Computerprogramm gemäß dem verbesserten Konzept speichert, bereitgestellt. According to the improved concept, a computer-readable storage medium that stores a computer program according to the improved concept is also provided.

Sowohl das Computerprogramm als auch das computerlesbare Speichermedium können daher als jeweilige Computerprogrammprodukte betrachtet werden, die die Befehle beinhalten.Both the computer program and the computer-readable storage medium can therefore be viewed as respective computer program products that contain the commands.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder von diesen abweichen.Further features of the invention emerge from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the specified combination, but also in other combinations without departing from the scope of the invention . There are thus also embodiments of the invention to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, but emerge and can be generated from the explained embodiments by means of separate combinations of features. Designs and combinations of features are also to be regarded as disclosed, which therefore do not have all the features of an originally formulated independent claim. In addition, designs and combinations of features, in particular through the statements set out above, are to be regarded as disclosed which go beyond the combinations of features set forth in the back-references of the claims or differ from them.

In den Figuren zeigen:

  • 1 schematisch ein Fahrzeug mit einer beispielhaften Ausführung eines Fahrerassistenzsystems gemäß dem verbesserten Konzept,
  • 2 ein Flussdiagramm einer beispielhaften Ausführung eines Verfahrens gemäß dem verbesserten Konzept,
  • 3 schematisch eine virtuelle Ebene zur Verwendung in beispielhaften Ausführungen gemäß dem verbesserten Konzept,
  • 4 schematisch ein Bespiel einer Karte zur Verwendung in beispielhaften Ausführungen gemäß dem verbesserten Konzept,
  • 5 schematisch weitere Beispiele von Karten zur Verwendung in weiteren beispielhaften Ausführungen gemäß dem verbesserten Konzept,
  • 6 schematisch Schritte zur Erzeugung einer Karte zur Verwendung gemäß dem verbesserten Konzept,
  • 7 schematisch Verteilungen zur Verwendung gemäß dem verbesserten Konzept,
  • 8 schematisch weitere Beispiele von Karten zur Verwendung in weiteren beispielhaften Ausführungen gemäß dem verbesserten Konzept, und
  • 9 weitere Beispiele von Karten zur Verwendung in weiteren beispielhaften Ausführungen gemäß dem verbesserten Konzept.
In the figures show:
  • 1 schematically a vehicle with an exemplary embodiment of a driver assistance system according to the improved concept,
  • 2 a flowchart of an exemplary embodiment of a method according to the improved concept,
  • 3 schematically a virtual plane for use in exemplary embodiments according to the improved concept,
  • 4th schematically an example of a card for use in exemplary embodiments according to the improved concept,
  • 5 schematically further examples of cards for use in further exemplary embodiments according to the improved concept,
  • 6th schematically steps for generating a map for use according to the improved concept,
  • 7th schematic distributions for use according to the improved concept,
  • 8th schematically further examples of cards for use in further exemplary embodiments according to the improved concept, and
  • 9 further examples of cards for use in further exemplary embodiments according to the improved concept.

In 1 ist ein Fahrzeug 1 schematisch gezeigt, welches eine beispielhafte Ausführung eines Fahrerassistenzsystems 2 gemäß dem verbesserten Konzept beinhaltet.In 1 is a vehicle 1 shown schematically, which is an exemplary embodiment of a driver assistance system 2 according to the improved concept.

Das Fahrerassistenzsystem 2 beinhaltet ein Blickverfolgungssystem 3, welches dazu eingerichtet ist, eine Blickrichtung 6 eines Fahrers 5 (siehe 3) des Fahrzeugs 1 zu bestimmen. Des Weiteren beinhaltet das Fahrerassistenzsystem 2 eine Recheneinheit 4, die insbesondere in Kombination mit dem Blickverfolgungssystem 3 ein Verfahren gemäß dem verbesserten Konzept ausführen kann.The driver assistance system 2 includes a gaze tracking system 3 , which is set up for this, a viewing direction 6th of a driver 5 (please refer 3 ) of the vehicle 1 to determine. It also includes the driver assistance system 2 an arithmetic unit 4th especially in combination with the eye tracking system 3 can carry out a method according to the improved concept.

Optional beinhaltet das Fahrerassistenzsystem 2 außerdem ein Umgebungssensorsystem 10, wie etwa ein Kamerasystem, ein Lidar-System, ein Radar-System und/oder ein Ultraschallsensorsystem.Optional includes the driver assistance system 2 also an environmental sensor system 10 such as a camera system, a lidar system, a radar system and / or an ultrasonic sensor system.

Die Funktion des Fahrerassistenzsystems 2 gemäß dem verbesserten Konzept wird im Folgenden genauer hinsichtlich beispielhafter Ausführungen von Verfahren gemäß dem verbesserten Konzept und insbesondere hinsichtlich 2 bis 9 dargelegt.The function of the driver assistance system 2 In accordance with the improved concept, the following is more precise with regard to exemplary embodiments of methods in accordance with the improved concept, and in particular with regard to 2 until 9 set out.

2 zeigt ein Flussdiagramm einer beispielhaften Ausführung eines Verfahrens gemäß dem verbesserten Konzept. 2 FIG. 3 shows a flow diagram of an exemplary embodiment of a method according to the improved concept.

Schritt S0 bezeichnet den Beginn des Verfahrens. In Schritt S1 bestimmt das Blickverfolgungssystem 3 eine Blickrichtung 6 des Fahrers 5 (siehe 3). Des Weiteren wird von der Recheneinheit 4 in Schritt S1 bestimmt, ob die Blickrichtung eine virtuelle Ebene 8 schneidet, die sich vor dem Fahrer 5 befindet, wie in 3 schematisch dargestellt.step S0 denotes the beginning of the procedure. In step S1 determines the eye tracking system 3 a line of sight 6th of the driver 5 (please refer 3 ). Furthermore, the processing unit 4th in step S1 determines whether the line of sight is a virtual plane 8th cuts that is in front of the driver 5 located, as in 3 shown schematically.

In dem Beispiel von 3 schneidet die Blickrichtung 6 die virtuelle Ebene 8 an einem Schnittpunkt 7. In dem Fall, dass die Blickrichtung 6 die vordefinierte virtuelle Ebene 8 nicht schneidet, beginnt das Verfahren mit Schritt S0 von vorne.In the example of 3 intersects the line of sight 6th the virtual plane 8th at an intersection 7th . In the event that the line of sight 6th the predefined virtual plane 8th does not cut, the procedure begins with step S0 from the front.

Wenn andererseits die Blickrichtung 6 die virtuelle Ebene 8 schneidet, können die Koordinaten des Schnittpunktes 7 auf der virtuellen Ebene 8 zum Beispiel auf einem Speicherelement der Recheneinheit 4 gespeichert werden. Die beschriebenen Schritte des Detektierens der Blickrichtung 6, des Prüfens, ob diese sich mit der virtuellen Ebene 8 schneidet, und, optional, des Speicherns der Position des jeweiligen Schnittpunktes 7, werden periodisch während eines vordefinierten Zeitfensters oder einer vordefinierten Zeitspanne wiederholt.If on the other hand the line of sight 6th the virtual plane 8th intersects, the coordinates of the intersection point 7th on the virtual level 8th for example on a storage element of the computing unit 4th get saved. The described steps of detecting the line of sight 6th , of checking whether this corresponds to the virtual plane 8th intersects, and, optionally, saving the position of the respective intersection point 7th , are repeated periodically during a predefined time window or period.

In Schritt S2 erzeugt die Recheneinheit 4 eine Karte basierend auf der verfolgten Blickrichtung und der entsprechend verfolgten Position des Schnittpunktes 7.In step S2 generates the arithmetic unit 4th a map based on the tracked line of sight and the corresponding tracked position of the intersection point 7th .

Es wird darauf hingewiesen, dass die Verfahrensschritte S1 und S2 auch teilweise parallel zueinander ausgeführt werden können. Insbesondere kann die Zeitspanne ein gleitendes Zeitfenster sein.It should be noted that the procedural steps S1 and S2 can also be carried out partially parallel to each other. In particular, the time span can be a sliding time window.

Um die Karte zu bestimmen, bestimmt die Recheneinheit 4 eine Verteilung oder eine Dichteverteilung der Blickrichtung oder des Schnittpunktes 7 während des Zeitintervalls. Das Ergebnis ist eine Verteilungskarte 9a, die als Heatmap, wie in 4 dargestellt, betrachtet werden kann.To determine the map, the computing unit determines 4th a distribution or a density distribution of the viewing direction or the point of intersection 7th during the time interval. The result is a distribution map 9a that can be used as a heat map, as in 4th shown, can be viewed.

Insbesondere kann die Karte 9a verschiedene Farben oder verschiedene Grauwerte für unterschiedliche Werte der Dichten von Schnittpunkten 7 auf der virtuellen Ebene 8 während des Zeitintervalls haben.In particular, the card can 9a different colors or different gray values for different values of the densities of intersections 7th on the virtual level 8th have during the time interval.

In den Schritten S3 und S4 bestimmt die Recheneinheit 4 einen Grad an kognitiver Ablenkung des Fahrers 5 basierend auf der Karte 9a.In the steps S3 and S4 determines the arithmetic unit 4th a degree of cognitive distraction for the driver 5 based on the map 9a .

Zum Beispiel kann während S3 die Recheneinheit 4 einen vordefinierten Satz an charakteristischen Merkmalen extrahieren. In Schritt S4 kann die Recheneinheit 4 einen trainierten Klassifizierungsalgorithmus auf den Satz charakteristischer Merkmale anwenden.For example, during S3 the arithmetic unit 4th extract a predefined set of characteristic features. In step S4 can the arithmetic unit 4th apply a trained classification algorithm to the set of characteristic features.

Als ein Ergebnis des Klassifizierungsalgorithmus, wird der Grad an kognitiver Ablenkung erhalten.As a result of the classification algorithm, the degree of cognitive distraction is obtained.

Alternativ kann die Recheneinheit 4 einen Klassifizierungsalgorithmus direkt auf die Karte 9a anwenden, um den Grad an kognitiver Ablenkung zu bestimmen.Alternatively, the computing unit 4th a classification algorithm directly on the card 9a use to determine the level of cognitive distraction.

Um die charakteristischen Merkmale zu extrahieren, kann ein Merkmalsextraktionsmodul der Recheneinheit 4, insbesondere ein Softwaremodul, den Satz an Merkmalen berechnen und diese an den Klassifizierungsalgorithmus senden, der den Grad an kognitiver Ablenkung des Fahrers vorhersagt. Das Ergebnis kann ein Satz von Informationen einschließlich des Status des Fahrers, insbesondere dessen Grad an kognitiver Ablenkung, mit anderen Worten kognitive Belastung, sein. Möglicherweise können auch andere nützliche Informationen aus der Karte 9a extrahiert werden, zum Beispiel die Bereitschaft oder Absicht des Fahrers die Fahrspur zu wechseln.In order to extract the characteristic features, a feature extraction module of the computing unit 4th , in particular a software module, calculate the set of features and send them to the classification algorithm, which predicts the degree of cognitive distraction of the driver. The result can be a set of information including the status of the driver, in particular his degree of cognitive distraction, in other words cognitive load. Possibly other useful information can be obtained from the map 9a can be extracted, for example the willingness or intention of the driver to change lanes.

Durch Vergleichen statistischer oder geometrischer Charakteristika der Karte 9a, wie Flächeninhalt und Standardabweichung der geometrischen Merkmale auf der Karte 9a, kann der Klassifizierungsalgorithmus bestimmen, ob ein hoher Grad an kognitiver Ablenkung vorliegt, wie zum Beispiel in der Karte 9b, die beispielhaft im Feld a) oder durch die Karte 9c wie in Feld b) von 5 gezeigt, oder ob der Grad an kognitiver Ablenkung gering ist, wie zum Beispiel gezeigt in der Karte 9d in Feld c) von 5.By comparing statistical or geometric characteristics of the map 9a such as the area and standard deviation of the geometric features on the map 9a , the classification algorithm can determine if there is a high degree of cognitive distraction, such as in the map 9b exemplified in field a) or by the card 9c as in field b) of 5 shown, or whether the degree of cognitive distraction is low, as shown for example in the map 9d in field c) by 5 .

In Schritt S5 kann die Recheneinheit 4 den bestimmten Grad an kognitiver Ablenkung mit einem vorbestimmten Schwellwert oder maximalen Ablenkung vergleichen. Wenn der kognitive Grad an Ablenkung geringer ist als die maximale Ablenkung, beginnt das Verfahren von vorne mit S0. Ansonsten wird ein Ausgangssignal in Schritt S6 erzeugt, um den Fahrer 5 zu warnen oder zu unterstützen, indem er auf die kognitive Ablenkung aufmerksam gemacht wird.In step S5 can the arithmetic unit 4th compare the determined degree of cognitive distraction to a predetermined threshold or maximum distraction. If the cognitive level of distraction is less than the maximum distraction, the procedure starts over with S0. Otherwise an output signal in step S6 generated to the driver 5 to warn or assist by drawing attention to the cognitive distraction.

Optional kann das Umgebungssensorsystem 10 Sensordaten erzeugen, die eine Umgebung des Fahrzeugs 1 darstellen. Die Sensordaten können zum Beispiel anzeigen, dass sich ein weiteres Fahrzeug in der Umgebung befindet. Dann kann die Recheneinheit 4 die Karte ergänzen, indem eine Darstellung 11 des weiteren Fahrzeugs in eine ergänzte Karte 9e aufgenommen wird, wie in Feld b) von 5 angezeigt.Optionally, the environmental sensor system 10 Generate sensor data that is an area around the vehicle 1 represent. The sensor data can, for example, indicate that there is another vehicle in the vicinity. Then the arithmetic unit can 4th complete the map by adding a representation 11 of the other vehicle in a supplemented map 9e is included, as in field b) of 5 displayed.

Das Wissen um das Vorhandensein des weiteren Fahrzeugs lässt den Klassifizierungsalgorithmus eine breitere Heatmap erwarten, die beispielsweise zumindest einen Teil des weiteren Fahrzeugs abdecken sollte. Daher kann die Darstellung des weiteren Fahrzeugs in Schritt S4 verwendet werden, um den Grad an kognitiver Ablenkung abzuschätzen.The knowledge of the presence of the further vehicle allows the classification algorithm to expect a broader heat map which, for example, should cover at least part of the further vehicle. Therefore, the representation of the further vehicle in step S4 can be used to estimate the degree of cognitive distraction.

Auch die Anzahl von weiteren Fahrzeugen und deren Positionen kann die erwartete Dynamik der Blickrichtung beeinflussen und kann so berücksichtigt werden.The number of other vehicles and their positions can also influence the expected dynamics of the viewing direction and can thus be taken into account.

Im Folgenden wird eine detaillierte Erklärung eines Versuchsaufbaus zur Verifizierung der Vorteile des verbesserten Konzepts mit Bezug auf 6 bis 9 beschrieben. Die Erklärungen können so verstanden werden, dass sie die Grundlage für das verbesserte Konzept darstellen, wie es von den Erfindern ausgearbeitet wurde. Folglich können sich die folgenden Erklärungen auf besonders spezifische und nicht einschränkende Ausführungen beziehen. Jedoch können im Folgenden beschriebene individuelle Merkmale oder Merkmalskombinationen auch mit verschiedenen Ausführungen des Verfahrens und/oder des Systems zur Assistenz eines Fahrers gemäß dem verbesserten Konzept kombiniert werden.The following is a detailed explanation of an experimental setup for verifying the advantages of the improved concept with reference to FIG 6th until 9 described. The explanations can be understood as forming the basis of the improved concept as worked out by the inventors. Consequently, you can the following explanations relate to particularly specific and non-restrictive versions. However, individual features or combinations of features described below can also be combined with different versions of the method and / or the system for assisting a driver in accordance with the improved concept.

Spezifische Messungen, die die Augen betreffen, wie Blinzeln, Sakkaden, Pupillen und Fixationen, sind für die Beurteilung der kognitiven Belastung relevant. Das visuelle Abtastverhalten eines Beobachters tendiert dazu, sich während Zeiten erhöhter kognitiver Beanspruchung einzuschränken, was eine Parallele zu der Tatsache darstellt, dass geistige Aufgaben zu einer räumlichen Blickkonzentration und Beeinträchtigung der visuellen Detektion führen. Basierend auf diesem Wissen wird anstatt einem individuellen Detektieren und Analysieren aller die Augen betreffenden Bewegungen ein Ansatz beschrieben, der alle Blickaktivitäten zusammenfasst. Daher wird der Blickvektor der Augen des Fahrers auf eine imaginäre entfernte Fläche projiziert, die auch als virtuelle Ebene bezeichnet wird. Indem der zeitlichen Veränderung dieser Projektion gefolgt wird, wird eine bildbasierte Darstellung, auch als Karte bezeichnet, geschaffen. Diese Formen lassen die kognitive Belastung des Fahrers erkennen.Specific measurements that affect the eyes, such as blinking, saccades, pupils, and fixations, are relevant for assessing cognitive load. The visual scanning behavior of an observer tends to be limited during times of increased cognitive stress, which is parallel to the fact that mental tasks lead to spatial concentration and impairment of visual detection. Based on this knowledge, instead of individually detecting and analyzing all movements affecting the eyes, an approach is described which summarizes all gaze activities. Therefore, the gaze vector of the driver's eyes is projected onto an imaginary distant surface, which is also referred to as a virtual plane. By following the change in time of this projection, an image-based representation, also referred to as a map, is created. These shapes reveal the driver's cognitive load.

Insbesondere wird eine Verbindung zwischen Kurzzeitgedächtnis und Ablenkung während des Fahrens untersucht. Die Konzepte kognitive Belastung, Unaufmerksamkeit, und Ablenkung sind drei unterschiedliche Konzepte. Kognitive Belastung bezieht sich auf den Prozentsatz an benutzten Ressourcen im Arbeitsspeicher. Unaufmerksamkeit ist die Tatsache, dass der Fahrer seine Aufmerksamkeit von seiner Fahraufgabe weg auf andere sekundäre Aufgaben richtet, und Ablenkung bezieht sich auf die Beschäftigung des Fahrers mit anderen Aufgaben. Ablenkung führt zu Unaufmerksamkeit für eine bestimmte Aufgabe und dies führt zu einer hohen kognitiven Belastung. Daher wird die von der folgenden Annahme ausgegangen: Während neutralen Fahrens hat der Fahrer genügend kognitive Ressourcen, um die Umgebung zu untersuchen und führt normale Aufgaben aus, die das Fahren betreffen, wie etwa regelmäßiges Überprüfen der Spiegel, anderer Fahrzeuge, Verkehrszeichen etc. Dabei sollten vestibulookuläre Augenbewegungen (Fixationen), Sakkaden (schnelle, ballistische Bewegungen) und reibungslose Übergänge (langsamere Verfolgungsbewegungen) beobachtet werden. Wird der Fahrer jedoch während des Fahrens abgelenkt, hat der Fahrer weniger kognitive Ressourcen für die Fahraufgabe übrig. Somit hat das Blickverhalten eine geringere Reichweite. Als Ergebnis wird eine Veränderung der Augenbewegungen erwartet.In particular, a connection between short-term memory and distraction while driving is being investigated. The concepts of cognitive stress, inattention, and distraction are three different concepts. Cognitive load refers to the percentage of resources used in memory. Inattention is the fact that the driver turns his attention away from his driving task to other secondary tasks, and distraction refers to the driver being preoccupied with other tasks. Distraction leads to inattention to a certain task and this leads to a high cognitive load. Therefore, the following assumption is made: During neutral driving, the driver has enough cognitive resources to examine the environment and performs normal tasks related to driving, such as regularly checking mirrors, other vehicles, traffic signs, etc. vestibulo-ocular movements (fixations), saccades (fast, ballistic movements) and smooth transitions (slower tracking movements) can be observed. However, if the driver is distracted while driving, the driver has fewer cognitive resources left for the driving task. Thus, the gaze behavior has a shorter range. As a result, a change in eye movements is expected.

Das Versuchsprotokoll wird im Folgenden erklärt.The test protocol is explained below.

Die Versuchssitzung war aus zwei Fahrrunden auf derselben Strecke zusammengesetzt. Die erste Runde stellt die Ausgangslage dar, bei der der Fahrer die Fahraufgabe natürlich ausführte. Ihm (alle Teilnehmer waren männlich im Durchschnittsalter von 29,4 Jahren) wird gesagt, er solle sich entspannen und vorsichtig fahren. Diese Runde wird neutrales Fahren genannt und ist wichtig, um die Ausgangslage der Blickvariationen der Augen der Teilnehmer zu erlernen. Die zweite Runde wurde unmittelbar nach der ersten auf demselben Streckenabschnitt durchgeführt. Während der zweiten Runde musste der Fahrer vier sekundäre Aufgaben erfüllen, die darauf abzielten, den Fahrer kognitiv zu überlasten. Diese Runde wird abgelenktes Fahren genannt.The test session consisted of two driving laps on the same route. The first lap represents the starting position in which the driver naturally performed the driving task. He (all participants were male, mean age 29.4 years) is told to relax and drive carefully. This lap is called neutral driving and is important in order to learn the starting position of the gaze variations of the participants' eyes. The second lap was carried out immediately after the first on the same section of the route. During the second lap, the driver had to perform four secondary tasks aimed at cognitively overloading the driver. This lap is called distracted driving.

Ein wichtiger Aspekt des Versuchsprotokolls bestand darin, die Fahrbedingungen (Fahrbahn, Wetter, Verkehrsstau) zwischen den Sitzungen so ähnlich wie möglich nachzubilden, aber auch für beide Runden, die von einem einzigen Teilnehmer ausgeführt wurden. Daher wurde eine Autobahnstrecke in Frankreich als Teststrecke für jeden Teilnehmer definiert. Die Geschwindigkeitsbegrenzung auf dieser Autobahn war konstant (90 km/h) und es dauerte 22 Minuten, eine einzelne Runde auszuführen. Es wurde tagsüber zwischen 10 Uhr vormittags und 17 Uhr nachmittags gefahren, um Schwankungen hinsichtlich des Wetters und der Verkehrsbedingungen zu minimieren.An important aspect of the test protocol was to simulate the driving conditions (road surface, weather, traffic jam) as similarly as possible between sessions, but also for both laps, which were carried out by a single participant. Therefore, a motorway route in France was defined as a test route for each participant. The speed limit on this freeway was constant (90 km / h) and it took 22 minutes to complete a single lap. It was driven between 10 a.m. and 5 p.m. during the day to minimize fluctuations in weather and traffic conditions.

Ein Fachmann ist zuständig für das Versuchsprotokoll, zum Starten der sekundären Aufgaben, zum Kommentieren der Ereignisse und zum Führen des Fahrers auf der Fahrstrecke. Dieser Fachmann wird in den folgenden Abschnitten Begleiter genannt.A specialist is responsible for the test protocol, for starting the secondary tasks, for commenting on the events and for guiding the driver along the route. This specialist is referred to as a companion in the following sections.

Fünf Fahrer nahmen an dem Datensammelprotokoll teil. Alle von ihnen waren Freiwillige, die in der Autoindustrie arbeiten. Der Zweck der Fahrsitzung war ihnen jedoch nicht bewusst.Five drivers participated in the data collection protocol. All of them were volunteers working in the auto industry. However, they were unaware of the purpose of the driving session.

Das zentrale Ziel der sekundären Aufgaben war es, die geistige Arbeitsbelastung für den Fahrer zu erhöhen. In der Literatur werden die verschiedenen sekundären Aufgaben angeführt, wie etwa Klopfen mit dem Fuß (sekundäre Aufgabe) während des Lernens (primäre Aufgabe) und Aufgaben zum Messen der rhythmischen Position oder Messen der Detektionsreaktion während des Fahrens. Bei einem auf einem Fahrsimulator basierenden Experiment hatten Fahrer visuelle, manuelle, auditive, verbale und haptische sekundäre Aufgaben zu erfüllen. Ergebnisse einer Blickanalyse der Augen zeigten, dass die visuellen ORTs (Detection Response Tasks) effizienter waren als andere. In der vorliegenden Studie wurde die visuelle sekundäre Aufgabe jedoch beiseitegelassen, um die Blickmuster der Augen so neutral wie möglich zu halten. Zur Annäherung an eine natürlichere Versuchsdurchführung wurde die Aufmerksamkeit auf immersive und unterhaltsame sekundäre Aufgaben gerichtet. Die folgenden vier Spiele sind alle basierend auf der N-Back-Task-Strategie gestaltet. N-Back-Tasks sind kognitiv ablenkende Aufgaben, bei denen die Teilnehmer sich an aufeinanderfolgende Anweisungen in Erinnerung rufen müssen. Sich an diese aufeinanderfolgenden Anweisungen zu erinnern führt zu einer Zunahme der geistigen Arbeitsbelastung. Jedes Spiel wurde so gestaltet, dass es vier Minuten dauert. Nach einer Pause von einer Minute, begann das darauffolgende Spiel.The central goal of the secondary tasks was to increase the mental workload on the driver. The literature lists the various secondary tasks such as tapping the foot (secondary task) while learning (primary task) and tasks for measuring rhythmic position or measuring detection response while driving. In an experiment based on a driving simulator, drivers had visual, manual, auditory, verbal and haptic secondary tasks to perform. Results of a gaze analysis of the eyes showed that the visual ORTs (Detection Response Tasks) were more efficient than others. In the present study However, the visual secondary task was left aside in order to keep the gaze patterns of the eyes as neutral as possible. In order to approach a more natural way of performing the experiment, attention has been directed to immersive and entertaining secondary tasks. The following four games are all designed based on the N-back task strategy. N-back tasks are cognitively distracting tasks that require participants to recall consecutive instructions. Remembering these sequential instructions leads to an increase in mental workload. Each game was designed to last four minutes. After a pause of one minute, the next game began.

Das erste Spiel heißt „weder ja noch nein“. Dieses Spiel basiert auf einer Abschaffung der Wörter „ja“, „nein“ und deren Alternativen wie „yeah“ oder „oui“. Der Begleiter fragt aufeinanderfolgende Fragen, um die Teilnehmer dazu zu zwingen, diese Wörter auszusprechen.The first game is called “neither yes nor no”. This game is based on the abolition of the words “yes”, “no” and their alternatives such as “yeah” or “oui”. The companion asks successive questions to force the participants to pronounce these words.

Das zweite Spiel heißt „in meiner Truhe ist“. Es besteht darin, die Worte „in meiner Truhe ist“ zu zitieren, gefolgt von dem Namen eines Objekts. Der Teilnehmer und der Begleiter sollen abwechselnd alle vorherigen Objekte aus der Erinnerung erneut nennen und ein neues zu der Liste hinzufügen.The second game is called “is in my chest”. It consists in quoting the words “is in my chest” followed by the name of an object. The participant and the companion should take turns naming all previous objects from the memory again and adding a new one to the list.

Das dritte Spiel heißt „rate mal wer“. Der Teilnehmer denkt an eine reale oder imaginäre Figur und der Begleiter versucht, die Identität der Figur durch Befragen einer mobilen Applikatin herauszufinden. Der Teilnehmer soll die Fragen korrekt beantworten.The third game is called "guess who". The participant thinks of a real or imaginary figure and the companion tries to find out the identity of the figure by asking a mobile applicator. The participant should answer the questions correctly.

Das vierte Spiel heißt „die 21“. Der Begleiter nennt ein bis drei Zahlen in numerischer Reihenfolge, zum Beispiel 1, 2, 3, und der Fahrer folgt der Reihenfolge und nennt eine andere Anzahl an Ziffern als der Begleiter, zum Beispiel zwei Zahlen 4, 5. Das Spiel geht so weiter. Die Zahl 21 ist verboten. Statt 21 zu sagen, sollte dem Spiel eine Regel hinzugefügt werden, zum Beispiel „nenne keine Vielfachen von 4“.The fourth game is called "the 21". The companion names one to three numbers in numerical order, for example 1, 2, 3, and the driver follows the order and names a different number of digits than the companion, for example two numbers 4th , 5 . The game continues like this. The number 21 is prohibited. Instead of 21 to say, a rule should be added to the game, for example “don't say multiples of 4”.

Zur Datenerfassung werden die Position der Innenteile des Fahrzeugs, wie Innenspiegel und Instrumenteneinheit, gemessen und in einer 3D-Welt- Darstellung dargestellt, wie in 3 skizziert. Diese Objekte sind statisch für einen Referenzkoordinatensystem, wobei das Fahrzeug der Ursprung ist.For data acquisition, the position of the interior parts of the vehicle, such as the interior mirror and instrument unit, is measured and displayed in a 3D world representation, as in 3 outlined. These objects are static to a reference coordinate system with the vehicle as the origin.

Während des Fahrens wird der Fahrer mit einer Infrarot-Rückkamera überwacht, die vor der Instrumenteneinheit platziert ist. Diese Kamera extrahiert die Kopfposition, die Position der Augen und deren Richtung. Die Kopfposition und Blickrichtung der Augen sind auch in 3 dargestellt. Wenn daher der Fahrer zu einem der Objekte blickt, die sich in der Szene befinden, kann dies bestimmt werden.While driving, the driver is monitored with an infrared rear camera, which is placed in front of the instrument unit. This camera extracts the head position, the position of the eyes and their direction. The head position and line of sight of the eyes are also in 3 shown. Therefore, when the driver is looking at one of the objects that are in the scene, it can be determined.

In 3 kann der Kreis als die Position des Kopfes des Fahrers darstellend betrachtet werden. Der Blickvektor der Augen des Fahrers ist als eine Linie dargestellt, die von diesem Kreis ausgeht. Die kleinen gefüllten Rechtecke stellen die Innenteile des Fahrzeugs dar, wie linke und rechte Spiegel, Mittelspiegel, Geschwindigkeitsanzeiger der Instrumenteneinheit, Drehzahlanzeiger, zentraler Stack-and-Navigation-Bildschirm. Die virtuelle Ebene wird auch virtuelle Wand genannt.In 3 the circle can be viewed as representing the position of the driver's head. The gaze vector of the driver's eyes is shown as a line extending from this circle. The small filled rectangles represent the interior parts of the vehicle, such as left and right mirrors, center mirrors, speed indicators of the instrument cluster, tachometer, central stack and navigation screen. The virtual plane is also called a virtual wall.

Die virtuelle Wand ist eine Fläche, die so vor dem Fahrzeug platziert ist, als ob sie eines der Innenteile des Fahrzeugs wäre. Der Schnittpunkt zwischen dieser virtuellen Wand und dem Blickvektor der Augen wird in einem gegebenen Zeitfenster verfolgt. Den Variationen des Schnittpunkts über die Fläche folgend, wird eine bildbasierte Darstellung erzeugt. Diese Darstellung, die als eine Heatmap bezeichnet werden kann, besteht aus den gesammelten Daten, die dazu benutzt werden, die kognitive Belastung des Fahrers zu detektieren.The virtual wall is a surface that is placed in front of the vehicle as if it were one of the interior parts of the vehicle. The point of intersection between this virtual wall and the gaze vector of the eyes is tracked in a given time window. Following the variations of the intersection over the area, an image-based representation is generated. This representation, which can be referred to as a heat map, consists of the collected data that is used to detect the driver's cognitive load.

Das Fahrzeug ist auch mit einer RGB-Frontkamera ausgestattet. Die Positionen und die Dimensionen der imaginären Fläche sind so eingestellt, dass der Schnittpunkt dieser Fläche mit dem Sichtfeld der Kamera und dem Gebiet, auf dem die Blickdetektion verfügbar ist, maximiert wird. Diese Kamera befindet sich im inneren Zentrum des Fahrzeugs, wohingegen der Fahrer auf dem linken Vordersitz sitzt. So scheinen die Aktivitäten des Blicks des Fahrers auf die linke Seite des Bildes auf die Überlagerungen und Heatmaps konzentriert zu sein.The vehicle is also equipped with an RGB front camera. The positions and dimensions of the imaginary surface are set to maximize the intersection of this surface with the field of view of the camera and the area where gaze detection is available. This camera is located in the inner center of the vehicle, while the driver sits in the left front seat. Thus, the activities of the driver's gaze on the left side of the image seem to be focused on the overlays and heat maps.

Die Heatmap ist eine Datenvisualisierungstechnik, die in verschiedenen Studien und Lösungen verwendet wird. Diese werden häufig verwendet, um die Gebiete, die für die Leute von Interesse sind, hervorzuheben, wir können daher mehrere Situationen daran untersuchen. Eine Heatmap, wie in 4 dargestellt, kann zur Visualisierung und Merkmalsextraktion nach aufeinanderfolgenden Schritten zum Erstellen der Heatmap verwendet werden, wie in den Tafeln von 6 angezeigt.The heat map is a data visualization technique used in various studies and solutions. These are often used to highlight the areas of interest to people, so we can investigate several situations on them. A heat map, as in 4th can be used for visualization and feature extraction after successive steps to create the heat map, as in the tables of 6th displayed.

Die zeitgestempelten, unbearbeiteten Schnittpunkte in x und x zwischen den Blickvektoren der Augen und der imaginären Fläche sind die Eingabe des Erzeugers der Heatmap. Diese Daten können alle 50 ms erfasst werden, wenn der Fahrer zu der imaginären Ebene blickt. Wenn der Fahrer nicht zu der Ebene blickt, ist die Ablenkungsquelle visuell und nicht notwendigerweise kognitiv. Zum Beispiel könnte der Fahrer sein Smartphone überprüfen. Dennoch kann diese Ablenkung auch durch das vorliegende Verfahren detektiert werden.The time-stamped, unprocessed intersection points in x and x between the gaze vectors of the eyes and the imaginary surface are the input of the creator of the heatmap. This data can be acquired every 50 ms when the driver looks to the imaginary plane. If the driver is not looking at the plane, the source of distraction is visual and not necessarily cognitive. For example, the driver could check his smartphone. Nevertheless, this deflection can also be detected by the present method.

Da ein einziger Schnittpunkt nicht ausreichend aussagekräftig für das vorliegende Problem ist, werden die Punkte als ein gleitendes Fenster zwischengespeichert, wie in Tafel a) von 6 dargestellt. Mit dem Ziel, das Blickfeld des Fahrers abzudecken, wird ein Kreis aus 15 Pixeln mittig auf den Schnittpunkten platziert, wie in Feld b) von 6 dargestellt. Die Wahl des Kreisdurchmessers, der die Blickfixierung darstellt, wird hauptsächlich von den Ausmaßen der Heatmap beeinflusst, die im vorliegenden Fall 640 × 400 betragen. Nach der Normalisierung der Blickfeldkreise, wird diese Maske verwendet, um die Opazität der Schnittpunkte zu variieren, wie in Feld c) von 6 angezeigt. Ein Gauß-Filter wird auf die Maske angewendet, um das Rauschen aufgrund der Blickaktivität zu reduzieren und auch um ein Detail zu reduzieren, das den Fokus auf dem am meisten untersuchten Gebiet hält, wie in Feld d) von 6 angezeigt.Since a single point of intersection is not sufficiently informative for the problem at hand the points are cached as a sliding window, as in panel a) of 6th shown. With the aim of covering the driver's field of vision, a circle of 15 pixels is placed in the middle of the intersection points, as in field b) of 6th shown. The choice of the circle diameter that represents the gaze fixation is mainly influenced by the dimensions of the heat map, which in the present case are 640 × 400. After normalizing the circles of the field of view, this mask is used to vary the opacity of the intersection points, as in field c) of 6th displayed. A Gaussian filter is applied to the mask to reduce the noise due to gaze activity and also to reduce a detail that keeps the focus on the most examined area, as in panel d) of 6th displayed.

Merkmalskonstruktion wird auf die erzeugten Heatmaps angewendet, um die Datendimension zu reduzieren. Aus jeder Heatmap werden die folgenden Merkmalssätze basierend auf ihren Pixelintensitäten und ihrer Form extrahiert.Feature construction is applied to the generated heat maps to reduce the data dimension. The following sets of features are extracted from each heat map based on their pixel intensities and shape.

Zum Beispiel können Erscheinungsmerkmale extrahiert werden. Die Pixelintensitätsvariation einer Heatmap enthält Informationen über das von dem Fahrer überblickte Gebiet. Das Histogramm ist ein effizientes Werkzeug, um diese Datenverteilungen zu visualisieren, insbesondere wenn die Blickaktivität auf ein spezifisches Gebiet fokussiert ist oder wenn sie ein breiteres Gebiet untersucht. Während des abgelenkten Fahrens wird erwartet, dass mehr Konzentration auf höheren Intensitäten visualisiert wird und während des natürlichen Fahrens, wobei der Fahrer ein breiteres Gebiet abdecken sollte, wird erwartet, dass mehr Konzentration auf geringeren Intensitäten visualisiert wird. Daher wird ein 6-bin-Histogramm der Pixelanzahl hinsichtlich der Pixelintensität pro Heatmap erzeugt, wie in Feldern a) und b) in 7 angezeigt. 7 zeigt die berechneten Histogramme der in 4 dargestellten Heatmap. In Feld a) werden Pixelintensitäten auf der Abszisse und die jeweilige Anzahl an Pixeln auf der Ordinate dargestellt. In Feld b) werden die Werte des Felds a) zu 6 bins summiert.For example, appearance features can be extracted. The pixel intensity variation of a heat map contains information about the area overlooked by the driver. The histogram is an efficient tool to visualize these data distributions, especially when the gaze activity is focused on a specific area or when it is exploring a broader area. During distracted driving, more focus is expected to be visualized at higher intensities, and during natural driving, where the driver should cover a wider area, more focus is expected to be visualized at lower intensities. Therefore, a 6-bin histogram of the number of pixels in terms of pixel intensity per heat map is generated, as in fields a) and b) in 7th displayed. 7th shows the calculated histograms of the in 4th shown heatmap. In field a), pixel intensities are shown on the abscissa and the respective number of pixels on the ordinate. In field b) the values of field a) are summed to 6 bins.

Auch die geometrischen Merkmale können extrahiert werden. Außer den Pixelintensitäten, die durch Heatmap-Histogrammen ausgenutzt werden, muss auch ihre Form berücksichtigt werden. So wird die erzeugte Heatmap in Konturen gemäß dem Unterschied in den Pixelintensitäten eingeteilt: binäre große Objekte (BLOBs) wie in den Feldern von 8 gezeigt.The geometric features can also be extracted. In addition to the pixel intensities that are exploited by heat map histograms, their shape must also be taken into account. The generated heat map is divided into outlines according to the difference in the pixel intensities: binary large objects (BLOBs) as in the fields of 8th shown.

Feld a) von 8 stellt die Fahrerblickaktivitäts-Heatmap dar. Die zentralen Bereiche in dem BLOB stellen das am meisten fixierte Gebiet dar und der Grenzbereich ist weniger fixiert. Feld b) zeigt eine Schwellwert-Heatmap, umgewandelt in ein Graustufenbild mit kenntlich gemachten Fokuskonturen. In Feldern c), d), e), f) werden extrahierte Konturen aus der Schwellwert-Heatmap von Feld b) gezeigt. Jede Kontur wird durch die Pixelintensitäten definiert. Ein binärer Schwellwert wird für jede Zone durchgeführt.Field a) from 8th represents the driver gaze activity heat map. The central areas in the BLOB represent the most pinned area and the border area is less pinned. Field b) shows a threshold value heat map, converted into a grayscale image with identified focus contours. In fields c), d), e), f), extracted contours from the threshold value heat map of field b) are shown. Each contour is defined by the pixel intensities. A binary threshold is carried out for each zone.

Des Weiteren können Bildmomente extrahiert werden. Die Graustufen-BLOBs werden aus Bewegungen konstruiert, die Bewegungsenergie und Bewegungshistorie beinhalten. Daher wird die Bewegungsenergie und -historie von jeder derselben untersucht. Die folgende Gleichung (1) beschreibt die berechneten Merkmale, die auf den Bildmomenten basieren, die besonders gewichtete Durchschnitte der Bildintensitäten oder eine Repräsentation der Pixelverteilung in dem Bild sind. M ij = Sum x [ Sum y [ x i y i l ( x ,y ) ] ]

Figure DE102020110417A1_0001
Furthermore, image moments can be extracted. The grayscale BLOBs are constructed from movements that contain kinetic energy and movement history. Therefore, the kinetic energy and history of each of them are examined. The following equation (1) describes the calculated features based on the image moments, which are specially weighted averages of the image intensities or a representation of the pixel distribution in the image. M. ij = Sum x [ Sum y [ x i y i l ( x , y ) ] ]
Figure DE102020110417A1_0001

Für ein gegebenes Bild I(x,y), sind i und j Ganzzahlen, die die Momentenordnung definieren.For a given image I (x, y), i and j are integers that define the order of moments.

Momente sind hinsichtlich der Pixelposition in dem Bild empfindlich, wohingegen erwartet wird, dass die Formen unabhängig von ihren Positionen detektiert werden (sogenannte reguläre Momente).Moments are sensitive to the pixel position in the image, whereas the shapes are expected to be detected regardless of their positions (so-called regular moments).

Hu-Momente sind sieben besondere Bildmomente, die translationsinvariant, rotationsinvariant und skaleninvariant sind. Sie sind besondere Kombinationen der zentralen Momente bezeichnet mit h1 bis h7. Hu-Momente werden pro BLOB extrahiert.Hu moments are seven special image moments that are translation invariant, rotation invariant and scale invariant. They are special combinations of the central moments designated by h1 to h7. Hu moments are extracted per BLOB.

Auch statistische Maßzahlen können extrahiert werden. Um die Informationen über die Fahrerblickverteilung über die imaginäre Ebene zu erfassen, werden die folgenden Merkmale als statistische Maßzahlen über alle BLOBs extrahiert:

  • • Standardabweichung zu x und y
  • • Schwerpunktskoordinaten (falls es mehrere Konturen gibt, ihr Mittelwert)
  • • Grenzen jeder Zone (Maximum und Minimum von x und x)
  • • erstes Quartil, Median und drittes Quartil auf x und y
  • • Fläche der Kontur
  • • Umfang der Kontur
Statistical measures can also be extracted. In order to record the information about the driver's gaze distribution over the imaginary plane, the following features are extracted as statistical measures over all BLOBs:
  • • Standard deviation from x and y
  • • Coordinates of the center of gravity (if there are several contours, their mean value)
  • • Limits of each zone (maximum and minimum of x and x)
  • • first quartile, median and third quartile on x and y
  • • Area of the contour
  • • Perimeter of the contour

Wenn der Fahrer während des gesamten gegebenen Zeitfensters nicht auf das Bild und die imaginäre Ebene blickt, könnte die Heatmap weniger relevante Daten beinhalten. Daher ist die Information, wieviel Zeit damit verbracht hat, nach vorne zu blicken, ein weiteres Merkmal, das die Qualität der Heatmap bestimmt.If the driver does not look at the image and the imaginary plane for the entire given time window, the heat map could contain less relevant data. Therefore, the information on how much time was spent looking ahead is another characteristic that determines the quality of the heat map.

Schließlich werden alle extrahierten Merkmale normiert, indem der Mittelwert entfernt wird und auf die Einheitsvarianten pro Heatmap skaliert wird.Finally, all extracted features are normalized by removing the mean value and scaling it to the unit variants per heat map.

Ein überwachter binärer Klassifizierungsalgorithmus basierend auf einer Support-Vektor-Maschine wird mit extrahierten Merkmalen trainiert. Daten, die während des neutralen Fahrens gesammelt wurden, sind als neutral annotiert worden, und Daten, die während der Anwesenheit der sekundären Aufgaben gesammelt wurden, sind als abgelenkt annotiert worden.A supervised binary classification algorithm based on a support vector machine is trained with extracted features. Data collected during the neutral driving has been annotated as neutral and data collected during the presence of the secondary tasks has been annotated as distracted.

Die Klassifizierung wird durch stratifizierte K-fache Kreuzvalidierungstechnik mit zehn Wiederholungen (K = 10) validiert. Stratifikationen versuchen sicherzustellen, dass jede Faltung repräsentativ für alle Geraden der Daten ist, was darauf abzielt sicherzustellen, dass jede Klasse gleich über die Testfaltung repräsentiert ist, und darin besteht, den Datensatz in Muster aufzuteilen.The classification is validated by a stratified K-fold cross-validation technique with ten repetitions (K = 10). Stratifications seek to ensure that each convolution is representative of all straight lines in the data, which aims to ensure that each class is equally represented across the test convolution and consists in dividing the data set into patterns.

Parallel zu den anfänglichen Erwartungen, ist die Variation der erhaltenen Formen visuell verschieden zwischen dem neutralen Fahren und dem abgelenkten Fahren, wie in 9 angezeigt. Diese Formen besetzen eine breite Fläche beim neutralen Fahren, wenn der Fahrer die Umgebung häufig überprüft. Jedoch wird das abgedeckte Gebiet in der Gegenwart von kognitiver Ablenkung schmaler, da der Fahrer mehr auf eine einzelne Zone fixiert. Für eine Heatmap, die auf einer längeren Beobachtungszeit basiert, wird ein besser trennbares visuelles Muster erhalten. Dies beruht auf der Tatsache, dass der Fahrer beim neutralen Fahren, im Gegensatz zum abgelenkten Fahren, mehr Zeit hat, die Umgebung zu beobachten. Als Ergebnis werden die Entfernungen zwischen neutralen und abgelenkten Fahrmustern mit der Zeit offensichtlicher, wie in 9 angezeigt.In parallel with the initial expectations, the variation in shapes obtained is visually different between neutral driving and distracted driving, as in FIG 9 displayed. These shapes occupy a wide area in neutral driving when the driver frequently checks the surroundings. However, in the presence of cognitive distraction, the area covered becomes narrower as the driver becomes more fixated on a single zone. For a heat map based on a longer observation time, a more separable visual pattern is obtained. This is due to the fact that in neutral driving, as opposed to distracted driving, the driver has more time to observe the surroundings. As a result, the distances between neutral and distracted driving patterns become more apparent over time, as in FIG 9 displayed.

9 stellt Heatmaps während 5, 15 und 30 s bei neutralen Fahrszenarien und Fahrszenarien unter Ablenkung dar. Die Felder a), c), e) entsprechen den Fahrszenarien unter Ablenkung während die Felder b), d), f) neutralen Fahrszenarien entsprechen. Die Felder a) und b) entsprechen 5 s, die Felder c) und d) entsprechen 15 s und Felder e) und f) entsprechen 30 s. 9 displays heat maps for 5, 15 and 30 s for neutral driving scenarios and driving scenarios under distraction. Fields a), c), e) correspond to driving scenarios under distraction while fields b), d), f) correspond to neutral driving scenarios. Fields a) and b) correspond to 5 s, fields c) and d) correspond to 15 s and fields e) and f) correspond to 30 s.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 6496117 B2 [0004]US 6496117 B2 [0004]

Claims (15)

Verfahren zur Assistenz eines Fahrers (5) eines Fahrzeugs (1), wobei ein Blickverfolgungssystem (3) dazu benutzt wird, eine Blickrichtung (6) des Fahrers (5) zu bestimmen, dadurch gekennzeichnet, dass eine Recheneinheit (4) dazu benutzt wird, - einen Schnittpunkt (7) der Blickrichtung (6) mit einer virtuellen Ebene (8) zu bestimmen und den Schnittpunkt (7) während einer vordefinierten Zeitspanne zu verfolgen; - eine Karte (9a, 9b, 9c, 9d) zu bestimmen, die eine Verteilung der Position des Schnittpunktes (7) während der Zeitspanne darstellt; - einen Grad an kognitiver Ablenkung des Fahrers (5) basierend auf der Karte (9a, 9b, 9c, 9d) zu bestimmen; und - ein Ausgangssignal zu erzeugen oder zu verursachen, um den Fahrer (5) abhängig von dem bestimmten Grad an kognitiver Ablenkung zu unterstützen.A method for assisting a driver (5) of a vehicle (1), wherein a gaze tracking system (3) is used to determine a viewing direction (6) of the driver (5), characterized in that a computing unit (4) is used to - to determine an intersection (7) of the viewing direction (6) with a virtual plane (8) and to track the intersection (7) during a predefined period of time; - to determine a map (9a, 9b, 9c, 9d) which represents a distribution of the position of the intersection point (7) during the period of time; - to determine a degree of cognitive distraction of the driver (5) based on the map (9a, 9b, 9c, 9d); and - to generate or cause an output signal to assist the driver (5) depending on the particular degree of cognitive distraction. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Recheneinheit (4) dazu benutzt wird, einen Klassifizierungsalgorithmus auf die Karte (9a, 9b, 9c, 9d) anzuwenden, um den Grad an kognitiver Ablenkung zu bestimmen.Procedure according to Claim 1 , characterized in that the computing unit (4) is used to apply a classification algorithm to the card (9a, 9b, 9c, 9d) in order to determine the degree of cognitive distraction. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Recheneinheit (4) dazu benutzt wird, einen vordefinierten Satz an charakteristischen Merkmalen aus der Karte (9a, 9b, 9c, 9d) zu extrahieren und einen Klassifizierungsalgorithmus auf den Satz an charakteristischen Merkmalen anzuwenden.Procedure according to Claim 1 , characterized in that the computing unit (4) is used to extract a predefined set of characteristic features from the map (9a, 9b, 9c, 9d) and to apply a classification algorithm to the set of characteristic features. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass der Klassifizierungsalgorithmus eine Support-Vektor-Maschine oder ein künstliches neuronales Netzwerk aufweist.Method according to one of the Claims 2 or 3 , characterized in that the classification algorithm comprises a support vector machine or an artificial neural network. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Recheneinheit (4) dazu benutzt wird, einen räumlichen Bereich auf der virtuellen Ebene (8) zu bestimmen, wobei alle Einträge auf der Karte (9a, 9b, 9c, 9d), die dem räumlichen Bereich entsprechen, jeweilige Werte haben, die gleich einem oder größer als ein vordefinierter Schwellwert sind; und - die Recheneinheit (4) dazu benutzt wird, den Grad an kognitiver Ablenkung basierend auf dem räumlichen Bereich zu bestimmen.Method according to one of the preceding claims, characterized in that - the computing unit (4) is used to determine a spatial area on the virtual plane (8), with all entries on the map (9a, 9b, 9c, 9d), corresponding to the spatial area have respective values that are equal to or greater than a predefined threshold value; and - the computing unit (4) is used to determine the degree of cognitive distraction based on the spatial area. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Recheneinheit (4) dazu benutzt wird, ein Bildmoment und/oder ein Hu-Moment basierend auf der Karte (9a, 9b, 9c, 9d) zu bestimmen; und - die Recheneinheit (4) dazu benutzt wird, den Grad an kognitiver Ablenkung basierend auf dem Bildmoment und/oder basierend auf dem Hu-Moment zu bestimmen.Method according to one of the preceding claims, characterized in that - the computing unit (4) is used to determine an image moment and / or a Hu moment based on the map (9a, 9b, 9c, 9d); and - the computing unit (4) is used to determine the degree of cognitive distraction based on the image moment and / or based on the Hu moment. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Recheneinheit (4) dazu benutzt wird, den Grad an kognitiver Ablenkung mit einem vordefinierten maximalen Ablenkungswert zu vergleichen und das Ausgangssignal als ein Warnsignal zu erzeugen, wenn der Grad an kognitiver Ablenkung größer ist als der maximale Ablenkungswert.Method according to one of the preceding claims, characterized in that the computing unit (4) is used to compare the degree of cognitive distraction with a predefined maximum distraction value and to generate the output signal as a warning signal if the degree of cognitive distraction is greater than the maximum distraction value. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Recheneinheit (4) dazu benutzt wird, - den Schnittpunkt (7) während einer vordefinierten weiteren Zeitspanne zu verfolgen, wobei eine Dauer der weiteren Zeitspanne verschieden von einer Dauer der Zeitspanne ist; - eine weitere Karte (9a, 9b, 9c, 9d) zu bestimmen, die eine weitere Verteilung der Position des Schnittpunktes (7) während der weiteren Zeitspanne darstellt; - einen weiteren Grad an kognitiver Ablenkung des Fahrers (5) basierend auf der Karte (9a, 9b, 9c, 9d) zu bestimmen; und - das Ausgangssignal abhängig von dem bestimmten weiteren Grad an kognitiver Ablenkung zu erzeugen.Method according to one of the preceding claims, characterized in that the computing unit (4) is used to - track the point of intersection (7) during a predefined further time period, a duration of the further time period being different from a duration of the time period; - to determine a further map (9a, 9b, 9c, 9d) which represents a further distribution of the position of the intersection point (7) during the further time period; - to determine a further degree of cognitive distraction of the driver (5) based on the map (9a, 9b, 9c, 9d); and to generate the output signal as a function of the determined further degree of cognitive distraction. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass - die Dauer der Zeitspanne in dem Intervall [1 s, 30 s], vorzugsweise in dem Intervall [10s, 20s], liegt; und/oder - die Dauer der weiteren Zeitspanne in dem Intervall [15 s, 120 s], vorzugsweise in dem Intervall [30 s, 90 s] liegt.Procedure according to Claim 8 , characterized in that - the duration of the time span is in the interval [1 s, 30 s], preferably in the interval [10s, 20s]; and / or the duration of the further period of time is in the interval [15 s, 120 s], preferably in the interval [30 s, 90 s]. Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass die weitere Zeitspanne mindestens zweimal so lang ist wie die Zeitspanne, vorzugsweise mindestens viermal so lang wie die Zeitspanne.Method according to one of the Claims 8 or 9 , characterized in that the further period of time is at least twice as long as the period of time, preferably at least four times as long as the period of time. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ausgangssignal ein visuelles Signal und/oder ein akustisches Signal und/oder ein haptisches Signal einschließt.Method according to one of the preceding claims, characterized in that the output signal includes a visual signal and / or an acoustic signal and / or a haptic signal. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - ein Umgebungssensorsystem (10) dazu benutzt wird, ein Objekt zu identifizieren, das sich in einer Umgebung des Fahrzeugs (1) befindet; - die Recheneinheit (4) dazu benutzt wird, die Karte (9a, 9b, 9c, 9d) mit Informationen zu ergänzen, die die Position des Objekts hinsichtlich der virtuellen Ebene (8) betreffen; und - die Recheneinheit (4) dazu benutzt wird, den Grad an kognitiver Ablenkung basierend auf der ergänzten Karte (9e) zu bestimmen.Method according to one of the preceding claims, characterized in that - an environment sensor system (10) is used to identify an object which is located in an environment of the vehicle (1); - The computing unit (4) is used to supplement the map (9a, 9b, 9c, 9d) with information relating to the position of the object with respect to the virtual plane (8); and - the computing unit (4) is used to determine the degree of cognitive distraction based on the supplemented map (9e). Fahrerassistenzsystem für ein Fahrzeug (1), wobei das Fahrerassistenzsystem (2) ein Blickverfolgungssystem (3) beinhaltet, welches dazu eingerichtet ist, eine Blickrichtung (6) eines Fahrers (5) des Fahrzeugs (1) zu bestimmen, dadurch gekennzeichnet, dass das Fahrerassistenzsystem (2) eine Recheneinheit (4) beinhaltet, die dazu eingerichtet ist, - einen Schnittpunkt (7) der Blickrichtung mit einer virtuellen Ebene (8) zu bestimmen und den Schnittpunkt (7) während einer vorbestimmten Zeitspanne zu verfolgen; - eine Karte (9a, 9b, 9c, 9d) zu bestimmen, die eine Verteilung der Position des Schnittpunktes (7) während der Zeitspanne darstellt; - einen Grad an kognitiver Ablenkung des Fahrers (5) basierend auf der Karte (9a, 9b, 9c, 9d) zu bestimmen; und - ein Ausgangssignal zu erzeugen oder zu verursachen, um den Fahrer (5) abhängig von dem bestimmten Grad an kognitiver Ablenkung zu unterstützen.Driver assistance system for a vehicle (1), wherein the driver assistance system (2) contains a gaze tracking system (3) which is set up to determine a direction of view (6) of a driver (5) of the vehicle (1), characterized in that the driver assistance system (2) contains a computing unit (4) which is set up to - determine an intersection (7) of the viewing direction with a virtual plane (8) and to track the intersection (7) during a predetermined period of time; - to determine a map (9a, 9b, 9c, 9d) which represents a distribution of the position of the intersection point (7) during the period of time; - to determine a degree of cognitive distraction of the driver (5) based on the map (9a, 9b, 9c, 9d); and - to generate or cause an output signal to assist the driver (5) depending on the particular degree of cognitive distraction. Fahrerassistenzsystem nach Anspruch 13, dadurch gekennzeichnet, dass das Blickverfolgungssystem (3) - einen Emitter beinhaltet, der dazu eingerichtet ist, Infrarotstrahlung in Richtung eines Auges des Fahrers (5) auszusenden; - einen Infrarotsensor beinhaltet, der dazu eingerichtet ist, einen Anteil der Infrarotstrahlung, der von dem Auge des Fahrers (5) reflektiert wird, zu detektieren und ein Sensorsignal abhängig von dem detektierten Anteil der Infrarotstrahlung zu erzeugen; und - eine Steuereinheit beinhaltet, die dazu eingerichtet ist, die Blickrichtung basierend auf dem Sensorsignal zu bestimmen.Driver assistance system according to Claim 13 characterized in that the eye tracking system (3) - includes an emitter which is set up to emit infrared radiation in the direction of an eye of the driver (5); - Contains an infrared sensor which is set up to detect a portion of the infrared radiation that is reflected by the driver's eye (5) and to generate a sensor signal as a function of the detected portion of the infrared radiation; and includes a control unit which is configured to determine the viewing direction based on the sensor signal. Computerprogrammprodukt, welches Befehle beinhaltet, die, wenn sie von einem Fahrerassistenzsystem (2) nach einem der Ansprüche 13 oder 14 ausgeführt werden, das Fahrerassistenzsystem dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 12 durchzuführen.Computer program product which contains commands that, when they are sent by a driver assistance system (2) according to one of the Claims 13 or 14th are executed, cause the driver assistance system to implement a method according to one of the Claims 1 until 12th perform.
DE102020110417.0A 2020-04-16 2020-04-16 Method and system for assisting a driver Pending DE102020110417A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020110417.0A DE102020110417A1 (en) 2020-04-16 2020-04-16 Method and system for assisting a driver
PCT/EP2021/059512 WO2021209426A1 (en) 2020-04-16 2021-04-13 Method and system for driver assistance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020110417.0A DE102020110417A1 (en) 2020-04-16 2020-04-16 Method and system for assisting a driver

Publications (1)

Publication Number Publication Date
DE102020110417A1 true DE102020110417A1 (en) 2021-10-21

Family

ID=75497937

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020110417.0A Pending DE102020110417A1 (en) 2020-04-16 2020-04-16 Method and system for assisting a driver

Country Status (2)

Country Link
DE (1) DE102020110417A1 (en)
WO (1) WO2021209426A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116756590A (en) * 2023-08-17 2023-09-15 天津德科智控股份有限公司 EPS system vehicle speed signal interference identification and processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922706B2 (en) 2022-01-17 2024-03-05 Veoneer Us, Llc Systems and methods for dynamic attention area

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496117B2 (en) 2001-03-30 2002-12-17 Koninklijke Philips Electronics N.V. System for monitoring a driver's attention to driving
EP2298155A2 (en) 2002-10-15 2011-03-23 Volvo Technology Corporation Method and arrangement for interpreting a drivers head and eye activity
DE102017202194A1 (en) 2017-02-13 2018-08-16 Robert Bosch Gmbh Method and device for determining a visual distraction of a driver of a vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8876535B2 (en) * 2013-03-15 2014-11-04 State Farm Mutual Automobile Insurance Company Real-time driver observation and scoring for driver's education
JP7290567B2 (en) * 2016-11-07 2023-06-13 ナウト,インコーポレイテッド Systems and methods for driver distraction determination
EP3970060A1 (en) * 2019-06-10 2022-03-23 Huawei Technologies Co., Ltd. Driver attention detection using heat maps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496117B2 (en) 2001-03-30 2002-12-17 Koninklijke Philips Electronics N.V. System for monitoring a driver's attention to driving
EP2298155A2 (en) 2002-10-15 2011-03-23 Volvo Technology Corporation Method and arrangement for interpreting a drivers head and eye activity
DE102017202194A1 (en) 2017-02-13 2018-08-16 Robert Bosch Gmbh Method and device for determining a visual distraction of a driver of a vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116756590A (en) * 2023-08-17 2023-09-15 天津德科智控股份有限公司 EPS system vehicle speed signal interference identification and processing method
CN116756590B (en) * 2023-08-17 2023-11-14 天津德科智控股份有限公司 EPS system vehicle speed signal interference identification and processing method

Also Published As

Publication number Publication date
WO2021209426A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
DE112010001354B4 (en) Motion trajectory generator
DE112017006567B4 (en) SYSTEM AND METHOD FOR PROVIDING DRIVER TRAINING TO A HUMAN OCCUPANT OF AN AUTONOMOUS VEHICLE
EP2427855B1 (en) Method for the presentation on the display portion of a display device of objects present in the neighborhood of a vehicle
DE102021114620A1 (en) PRESENTATION OF DYNAMIC THREAT INFORMATION BASED ON THREAT AND TRAJECTORY PREDICTION
DE112018004561T5 (en) VEHICLE DRIVING SUPPORT SYSTEM, VEHICLE DRIVING SUPPORT PROCEDURE AND VEHICLE DRIVING SUPPORT PROGRAM
DE102015007493B4 (en) Method for training a decision algorithm and a motor vehicle used in a motor vehicle
DE112018000479T5 (en) Event prediction system, event prediction method, recording medium and moving body
DE102018128289A1 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION
DE102019109505A1 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
WO2013072231A1 (en) Method for fog detection
DE102014214514A1 (en) Apparatus and method for exchanging data between vehicles for setting up a convoy
EP3392111A1 (en) Method and device for determining a visual deflection of a driver of a vehicle
DE102020110417A1 (en) Method and system for assisting a driver
DE102018128563A1 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND COMPARISON
DE102019216206A1 (en) Device and method for determining a U-turn strategy of an autonomous vehicle
DE112019007195B4 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM
DE102004034532A1 (en) Method for identifying image information in the representation of a night vision image taken with a vehicle-side image recording device and associated night vision system
DE102008007152B4 (en) Method for the parameterization of the eye opening degree of a driver of a motor vehicle
DE112017006982T5 (en) OPERATING SUITABILITY APPROACH, OPERATING SUITABILITY APPROACH AND OPERATING SUITABILITY ASSESSMENT PROGRAM
DE102018121866A1 (en) Method for depth estimation of two-dimensional sensor data
DE112018007056T5 (en) Driving assistance device, driving assistance method, and driving assistance program
DE102008038859A1 (en) Human i.e. driver, perception detecting system for use in e.g. aircraft, has evaluation unit identifying reaction of human to action based on detected information, and concluding perception of relevant part of surrounding field of human
DE112022005813T5 (en) AUTOMATIC CALIBRATION METHOD AND DEVICE FOR THE DISTRACTION ZONE, PASSENGER CARS AND ELECTRONIC DEVICES
DE102018113518A1 (en) Vehicle driver workload management
DE102021208148A1 (en) Method for monitoring the observation of a driving situation

Legal Events

Date Code Title Description
R163 Identified publications notified