DE102020126701A1 - Method and device for determining the attentiveness of a driver - Google Patents

Method and device for determining the attentiveness of a driver Download PDF

Info

Publication number
DE102020126701A1
DE102020126701A1 DE102020126701.0A DE102020126701A DE102020126701A1 DE 102020126701 A1 DE102020126701 A1 DE 102020126701A1 DE 102020126701 A DE102020126701 A DE 102020126701A DE 102020126701 A1 DE102020126701 A1 DE 102020126701A1
Authority
DE
Germany
Prior art keywords
situation
perception
vehicle
value
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020126701.0A
Other languages
German (de)
Inventor
Christopher Kuhn
Goran Petrovic
Markus Hofbauer
Eckehard Steinbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Technische Universitaet Muenchen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG, Technische Universitaet Muenchen filed Critical Bayerische Motoren Werke AG
Priority to DE102020126701.0A priority Critical patent/DE102020126701A1/en
Publication of DE102020126701A1 publication Critical patent/DE102020126701A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/805Azimuth angle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird eine Vorrichtung zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers eines Kraftfahrzeugs auf den Fahrbetrieb des Fahrzeugs beschrieben. Die Vorrichtung ist eingerichtet, auf Basis von Umfelddaten in Bezug auf das Umfeld des Fahrzeugs, eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs relevant sind. Des Weiteren ist die Vorrichtung eingerichtet, auf Basis von Messwerten in Bezug auf die Blickrichtung des Fahrers des Fahrzeugs jeweils einen Wahrnehmungszustand aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen für ein oder mehrere Situationselemente aus der Menge von Situationselementen zu ermitteln. Die Vorrichtung ist ferner eingerichtet, einen Wert des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände der ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.A device for determining an alertness indicator relating to the alertness of a driver of a motor vehicle to the driving operation of the vehicle is described. The device is set up to determine a set of situation elements that are relevant to the driving operation of the vehicle on the basis of environmental data relating to the area surrounding the vehicle. Furthermore, the device is set up to determine one perception state from a plurality of different perception states for one or more situation elements from the set of situation elements on the basis of measured values relating to the viewing direction of the driver of the vehicle. The device is also set up to determine a value of the attention indicator based on the perception states of the one or more situation elements from the set of situation elements.

Description

Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Ermittlung der Aufmerksamkeit eines Fahrers eines Fahrzeugs.The invention relates to a method and a corresponding device for determining the attentiveness of a driver of a vehicle.

Ein Fahrzeug kann eine oder mehrere Fahrfunktionen aufweisen, die den Fahrer des Fahrzeugs bei der Führung des Fahrzeugs unterstützen. Dabei kann es erforderlich sein, dass der Fahrer weiterhin den Verkehr und den Betrieb der einen oder mehreren Fahrfunktionen überwacht. In einem weiteren Beispiel kann ein Fahrzeug durch einen außerhalb des Fahrzeugs angeordneten Fahrer ferngesteuert werden. Für die Sicherheit des Fahrbetriebs ist dabei typischerweise ein hoher Grad an Aufmerksamkeit des fernsteuernden Fahrers erforderlich.A vehicle can have one or more driving functions that support the driver of the vehicle in driving the vehicle. This may require the driver to continue to monitor traffic and the operation of the one or more driving functions. In another example, a vehicle may be remotely controlled by a driver located outside of the vehicle. For the safety of the driving operation, a high degree of attention from the remote-control driver is typically required.

Das vorliegende Dokument befasst sich mit der technischen Aufgabe, die Aufmerksamkeit eines Fahrers eines Fahrzeugs in Bezug auf den Fahrbetrieb des Fahrzeugs in präziser und zuverlässiger Weise zu ermitteln.The present document deals with the technical task of determining in a precise and reliable manner the attentiveness of a driver of a vehicle in relation to the driving operation of the vehicle.

Die Aufgabe wird jeweils durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.The object is solved in each case by the independent claims. Advantageous embodiments are described inter alia in the dependent claims. It is pointed out that additional features of a patent claim dependent on an independent patent claim without the features of the independent patent claim or only in combination with a subset of the features of the independent patent claim can form a separate invention independent of the combination of all features of the independent patent claim, which can be made the subject of an independent claim, a divisional application or a subsequent application. This applies equally to the technical teachings described in the description, which can form an invention independent of the features of the independent patent claims.

Gemäß einem Aspekt wird eine Vorrichtung zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit des Fahrers eines Kraftfahrzeugs (insbesondere eines PKWs oder eines LKWs oder eines Busses) auf den Fahrbetrieb und/oder auf die Fahrsituation des Fahrzeugs beschrieben. Die Vorrichtung kann eingerichtet sein, das Fahrzeug und/oder eine Fernsteuerung des Fahrzeugs in Abhängigkeit von dem ermittelten Wert des Aufmerksamkeitsindikators zu betreiben. So kann ein sicherer und komfortabler Betrieb des Fahrzeugs ermöglicht werden.According to one aspect, a device for determining an alertness indicator relating to the alertness of the driver of a motor vehicle (in particular a car or a truck or a bus) to the driving operation and/or to the driving situation of the vehicle is described. The device can be set up to operate the vehicle and/or a remote control of the vehicle depending on the determined value of the alertness indicator. Safe and comfortable operation of the vehicle can thus be made possible.

Die Vorrichtung ist eingerichtet, auf Basis von Umfelddaten in Bezug auf das Umfeld des Fahrzeugs, eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs relevant sind. Die Umfelddaten können Sensordaten von ein oder mehreren Umfeldsensoren, insbesondere einer Kamera, eines Lidarsensors, eines Radarsensors, eines Ultraschallsensors, etc., des Fahrzeugs umfassen. Die Umfelddaten können anhand einer (maschinen-erlernten) Erkennungseinheit, insbesondere anhand eines Klassifikators, analysiert werden, um die ein oder mehreren (insbesondere die 5 oder mehr, oder die 10 oder mehr) Situationselemente zu detektieren, die (an dem aktuellen Zeitpunkt n) für den Betrieb des Fahrzeugs relevant sind.The device is set up to determine a set of situation elements that are relevant to the driving operation of the vehicle on the basis of environmental data relating to the area surrounding the vehicle. The environmental data can include sensor data from one or more environmental sensors, in particular a camera, a lidar sensor, a radar sensor, an ultrasonic sensor, etc., of the vehicle. The environmental data can be analyzed using a (machine-learned) recognition unit, in particular using a classifier, in order to detect the one or more (in particular the 5 or more, or the 10 or more) situation elements which (at the current point in time n) are relevant to the operation of the vehicle.

Die Menge von Situationselementen kann zumindest ein oder mehrere Situationselemente für ein oder mehrere Objekte (z.B. einen anderen Verkehrsteilnehmer, eine Ampel, ein Verkehrszeichen, etc.) in dem Umfeld des Fahrzeugs umfassen, die für den Fahrbetrieb des Fahrzeugs (an dem aktuellen Zeitpunkt n) relevant sind.The set of situation elements can include at least one or more situation elements for one or more objects (e.g. another road user, a traffic light, a traffic sign, etc.) in the vicinity of the vehicle that are essential for driving the vehicle (at the current point in time n) are relevant.

Alternativ oder ergänzend kann die Menge von Situationselementen ein oder mehrere Bereiche im Umfeld des Fahrzeugs umfassen, an denen für einen sicheren und kollisionsfreien Betrieb des Fahrzeugs kein Objekt angeordnet sein sollte. Die ein oder mehreren Freiraum-Bereiche können in vordefinierter Weise relativ zu dem Fahrzeug angeordnet sein. Insbesondere kann der Blickbereich für einen Freiraum-Bereich im Vorfeld bekannt sein. Ein beispielhafter Freiraum-Bereich ist der Bereich eines toten Winkels des Fahrzeugs, der z.B. bei einem Abbiegevorgang des Fahrzeugs von dem Fahrer des Fahrzeugs (z.B. mittels eines Schulterblicks) betrachtet werden sollte. Für einen derartigen Freiraum-Bereich kann ein Situationselement in die Menge von Situationselementen aufgenommen werden (wenn der Freiraum-Bereich für den Fahrbetrieb des Fahrzeugs an dem aktuellen Zeitpunkt relevant ist).Alternatively or additionally, the set of situational elements can include one or more areas in the area surrounding the vehicle in which no object should be located for safe and collision-free operation of the vehicle. The one or more clearance areas may be arranged in a predefined manner relative to the vehicle. In particular, the field of view for a free space area can be known in advance. An exemplary free space area is the area of a blind spot of the vehicle, which should be observed by the driver of the vehicle (e.g. by looking over the shoulder) when the vehicle is turning, for example. A situation element can be included in the set of situation elements for such a free space area (if the free space area is relevant for the driving operation of the vehicle at the current point in time).

Es kann somit eine Menge von Situationselementen ermittelt werden (die zumindest teilweise außerhalb des Fahrzeugs angeordnet sind), die an dem aktuellen Zeitpunkt n für den Fahrbetrieb des Fahrzeugs relevant sind.It is thus possible to determine a set of situational elements (which are at least partially arranged outside the vehicle) which are relevant to the driving operation of the vehicle at the current point in time n.

Die Vorrichtung ist ferner eingerichtet, auf Basis von Messwerten in Bezug auf die Blickrichtung des Fahrers des Fahrzeugs jeweils einen Wahrnehmungszustand aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen für die ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln. Die Blickrichtung des Fahrers kann auf Basis von Sensordaten einer auf den Fahrer gerichteten Kamera ermittelt werden (wobei die Sensordaten in diesem Dokument auch als Fahrerdaten bezeichnet werden). Die Blickrichtung kann den Azimut-Winkel und/oder den Polarwinkel des Blicks des Fahrers in einem Polarkoordinatensystem anzeigen, das um den Kopf des Fahrers angeordnet ist. Der Fahrer kann ein in dem Fahrzeug angeordneter Fahrer oder ein außerhalb des Fahrzeugs angeordneter, das Fahrzeug fernsteuernder, Fahrer sein.The device is also set up to determine one perception state from a plurality of different perception states for the one or more situation elements from the set of situation elements on the basis of measured values relating to the line of sight of the driver of the vehicle. The driver's line of sight can be determined based on sensor data from a camera directed at the driver (the sensor data also being referred to as driver data in this document). The line of sight can be the azimuth angle and/or the polar angle of the driver's gaze in a polar coordinate display the data system placed around the driver's head. The driver may be a driver located in the vehicle or a driver located outside the vehicle who remotely controls the vehicle.

Die unterschiedlichen Wahrnehmungszustände können unterschiedliche Grade anzeigen, mit denen der Fahrer ein Situationselement wahrgenommen hat. Insbesondere kann die Mehrzahl von unterschiedlichen Wahrnehmungszuständen umfassen: einen ersten Wahrnehmungszustand, der anzeigt, dass der Fahrer das Situationselement nicht erkannt und/oder nicht gesehen hat; einen zweiten Wahrnehmungszustand, der anzeigt, dass der Fahrer das Situationselement erkannt und/oder gesehen, insbesondere nur unbewusst erkannt und/oder gesehen, hat; und/oder einen dritten Wahrnehmungszustand, der anzeigt, dass der Fahrer das Situationselement wahrgenommen, insbesondere bewusst wahrgenommen bzw. erfasst, hat.The different states of perception may indicate different degrees to which the driver has perceived an element of the situation. In particular, the plurality of different perception states may include: a first perception state indicating that the driver did not recognize and/or did not see the situation element; a second perception state which indicates that the driver has recognized and/or seen the situation element, in particular only recognized and/or seen it unconsciously; and/or a third perception state which indicates that the driver has perceived the situation element, in particular consciously perceived or detected it.

Es kann somit auf Basis einer Vielzahl von Messwerten der Blickrichtung des Fahrers (die zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n erfasst wurden) für jedes Situationselement aus der Menge von Situationselementen ein Wahrnehmungszustand ermittelt werden, wobei der Wahrnehmungszustand anzeigen kann, wie bewusst der Fahrer des Fahrzeugs das jeweilige Situationselement (an dem aktuellen Zeitpunkt) wahrgenommen hat.A perception state can thus be determined on the basis of a large number of measured values of the driver's line of sight (which were recorded between the previous time n - 1 and the current time n) for each situation element from the set of situation elements, with the perception state being able to indicate how the driver of the vehicle has consciously perceived the respective situation element (at the current point in time).

Die Vorrichtung ist ferner eingerichtet, den Wert des Aufmerksamkeitsindikators (an dem aktuellen Zeitpunkt n) auf Basis der Wahrnehmungszustände der ein oder mehreren Situationselemente aus der Menge von Situationselementen (an dem aktuellen Zeitpunkt n) zu ermitteln. Der Wert des Aufmerksamkeitsindikators kann somit basierend darauf ermittelt werden, wie gut der Fahrer des Fahrzeugs die Situationselemente wahrgenommen hat, die für den Fahrbetrieb des Fahrzeugs relevant sind. So kann die Aufmerksamkeit des Fahrers in besonders zuverlässiger und präziser Weise ermittelt werden.The device is also set up to determine the value of the attention indicator (at the current point in time n) on the basis of the perception states of the one or more situation elements from the set of situation elements (at the current point in time n). The value of the attention indicator can thus be determined based on how well the driver of the vehicle has perceived the situational elements that are relevant to driving the vehicle. In this way, the driver's attentiveness can be determined in a particularly reliable and precise manner.

Die Vorrichtung kann eingerichtet sein, zur Ermittlung des Wahrnehmungszustands eines bestimmten Situationselements (aus der Menge von Situationselementen), die Anzahl von Messwerten aus der Vielzahl von Messwerten in Bezug auf die Blickrichtung des Fahrers zu ermitteln, die in den Blickbereich des bestimmten Situationselement fallen. Der Blickbereich des bestimmten Situationselements kann dabei (all die) Blickrichtungen des Fahrers anzeigen, bei denen der Blick des Fahrers auf das Situationselement gerichtet ist. Der Blickbereich des bestimmten Situationselements kann durch einen Azimut-Winkelbereich und/oder durch einen Polar-Winkelbereich definiert sein.The device can be set up to determine the perception state of a specific situation element (from the set of situation elements), to determine the number of measured values from the plurality of measured values in relation to the driver's viewing direction that fall within the field of vision of the specific situation element. The viewing area of the specific situation element can display (all) the driver's viewing directions in which the driver's gaze is directed at the situation element. The field of view of the specific situation element can be defined by an azimuth angle range and/or by a polar angle range.

Es kann somit (insbesondere auf Basis der Umfelddaten) für jedes Situationselement aus der Menge von Situationselementen jeweils der mit dem jeweiligen Situationselement assoziierte Blickbereich ermittelt werden. Die Blickbereiche der Situationselemente können dann dazu verwendet werden, zu erkennen, ob die Blickrichtung des Fahrers auf ein Situationselement gerichtet ist (und somit in den Blickbereich des Situationselements fällt) oder nicht (und somit nicht in den Blickbereich des Situationselements fällt).It is thus possible (in particular on the basis of the environment data) to determine for each situation element from the set of situation elements the viewing area associated with the respective situation element. The viewing areas of the situation elements can then be used to recognize whether the driver's line of sight is directed at a situation element (and thus falls within the viewing area of the situation element) or not (and therefore does not fall within the viewing area of the situation element).

Die Vorrichtung kann ferner eingerichtet sein, den Wahrnehmungszustand des bestimmten Situationselements in Abhängigkeit von der ermittelten Anzahl von Messwerten aus der Mehrzahl von unterschiedlichen Wahrnehmungszuständen auszuwählen. Insbesondere kann dem bestimmten Situationselement (an dem aktuellen Zeitpunkt) der erste Wahrnehmungszustand zugewiesen werden, wenn ermittelt wird, dass kein Messwert in den Blickbereich des Situationselements fällt. Alternativ oder ergänzend kann dem bestimmten Situationselement der zweite Wahrnehmungszustand zugewiesen werden, wenn ermittelt wird, dass zumindest ein, insbesondere genau ein, Messwert in den Blickbereich des Situationselements fällt. Alternativ oder ergänzend kann dem bestimmten Situationselement der dritte Wahrnehmungszustand zugewiesen werden, wenn ermittelt wird, dass mehrere Messwerte, insbesondere zumindest eine vordefinierte Mindestanzahl von Messwerten, in den Blickbereich des Situationselements fällt. Diese Bedingungen für die Zuweisung eines Wahrnehmungszustands können Bedingungen für Zustandsübergänge eines Zustandsmodells zur Ermittlung des Wahrnehmungszustands sein (wie weiter unten dargelegt). So können die Wahrnehmungszustände der einzelnen Situationselemente in präziser Weise ermittelt werden.The device can also be set up to select the perception state of the specific situation element from the plurality of different perception states as a function of the determined number of measured values. In particular, the first perception state can be assigned to the specific situation element (at the current point in time) if it is determined that no measured value falls within the field of view of the situation element. Alternatively or additionally, the second perception state can be assigned to the specific situation element if it is determined that at least one, in particular exactly one, measured value falls within the field of view of the situation element. Alternatively or additionally, the third perception state can be assigned to the specific situation element if it is determined that a number of measured values, in particular at least a predefined minimum number of measured values, fall within the field of view of the situation element. These conditions for assigning a perceptual state may be conditions for state transitions of a state model for determining the perceptual state (as set forth below). In this way, the states of perception of the individual situation elements can be determined in a precise manner.

Die Vorrichtung kann eingerichtet ist, den Wahrnehmungszustand für ein bestimmtes Situationselement mittels eines Zustandsmodells in iterativer Weise an einer Sequenz von aufeinanderfolgenden Zeitpunkten n - 1, n, n + 1, ... zu aktualisieren. Das Zustandsmodell kann dabei die Mehrzahl von unterschiedlichen Wahrnehmungszustände als Zustände des Zustandsmodells (bzw. der Zustandsmaschine) aufweisen. Ferner kann das Zustandsmodell Zustandsübergänge zwischen zumindest einem Teil der Wahrnehmungszustände umfassen. Des Weiteren kann zumindest ein Teil der Zustandsübergänge von den Messwerten in Bezug auf die Blickrichtung des Fahrers für einen Zeitpunkt aus der Sequenz von Zeitpunkten abhängen (wie bereits oben dargelegt). Ein bevorzugtes Zustandsmodell wird in diesem Dokument in Zusammenhang mit 2 beschrieben. Durch die Verwendung eines Zustandsmodells können die Wahrnehmungszustände der einzelnen Situationselemente in besonders präziser Weise ermittelt werden.The device can be set up to update the perception state for a specific situation element by means of a state model in an iterative manner at a sequence of consecutive points in time n−1, n, n+1, . . . In this case, the state model can have the plurality of different perception states as states of the state model (or of the state machine). Furthermore, the state model can include state transitions between at least some of the perception states. Furthermore, at least some of the state transitions may depend on the measured values relating to the driver's line of sight for a point in time from the sequence of points in time (as already explained above). A preferred state model is used in this document in connection with 2 described. By using a state model, the perceptions can states of the individual situation elements can be determined in a particularly precise manner.

Die Vorrichtung kann somit eingerichtet sein, in iterativer Weise (z.B. unter Verwendung eines Zustandsmodells) ausgehend von dem Wahrnehmungszustand der ein oder mehreren Situationselemente aus der Menge von Situationselementen an dem vorhergehenden Zeitpunkt n - 1, auf Basis der Vielzahl von Messwerten in Bezug auf die Blickrichtung des Fahrers zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n, den Wahrnehmungszustand der ein oder mehreren Situationselemente aus der Menge von Situationselementen an dem aktuellen Zeitpunkt n zu ermitteln. Durch eine iterative Aktualisierung des Wahrnehmungszustands der einzelnen Situationselemente an aufeinanderfolgenden Zeitpunkten kann die Genauigkeit des ermittelten Wahrnehmungszustands weiter erhöht werden.The device can thus be set up, in an iterative manner (e.g. using a state model) starting from the perception state of the one or more situation elements from the set of situation elements at the previous point in time n-1, on the basis of the plurality of measured values with regard to the viewing direction of the driver between the previous point in time n−1 and the current point in time n, to determine the state of perception of the one or more situation elements from the set of situation elements at the current point in time n. The accuracy of the ascertained perception state can be further increased by an iterative updating of the perception state of the individual situation elements at successive points in time.

Die Mehrzahl von unterschiedlichen Wahrnehmungszuständen kann mit einer entsprechenden Mehrzahl von unterschiedlichen individuellen Wahrnehmungswerten w assoziiert sein. Dabei kann der individuelle Wahrnehmungswert w für ein Situationselement umso größer sein, je mehr das Situationselement von dem Fahrer wahrgenommen wird (was durch den Wahrnehmungszustand angezeigt wird, der dem Situationselement zugewiesen wurde). Die Vorrichtung kann eingerichtet sein, den Wert des Aufmerksamkeitsindikators in besonders präziser Weise auf Basis der individuellen Wahrnehmungswerte für die ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.The plurality of different perceptual states may be associated with a corresponding plurality of different individual perceptual values w. Thereby, the individual perception value w for a situation element can be larger, the more the situation element is perceived by the driver (which is indicated by the perception state assigned to the situation element). The device can be set up to determine the value of the attention indicator in a particularly precise manner on the basis of the individual perception values for the one or more situation elements from the set of situation elements.

Die Vorrichtung kann eingerichtet sein, für die ein oder mehreren Situationselemente aus der Menge von Situationselementen jeweils einen Relevanzwert r zu ermitteln, der die Relevanz des jeweiligen Situationselements für den Fahrbetrieb des Fahrzeugs anzeigt. Der Relevanzwert der einzelnen Situationselemente kann z.B. durch die (maschinen-erlernte) Erkennungseinheit bereitgestellt werden, durch die auch die Menge von relevanten Situationselementen bereitgestellt wird.The device can be set up to determine a relevance value r for each of the one or more situation elements from the set of situation elements, which value indicates the relevance of the respective situation element for the driving operation of the vehicle. The relevance value of the individual situation elements can be provided, for example, by the (machine-learned) recognition unit, which also provides the set of relevant situation elements.

Der Wert des Aufmerksamkeitsindikators kann dann in besonders präziser Weise auf Basis der Relevanzwerte für die ein oder mehreren Situationselemente aus der Menge von Situationselementen ermittelt werden.The value of the attention indicator can then be determined in a particularly precise manner on the basis of the relevance values for the one or more situation elements from the set of situation elements.

Die Vorrichtung kann eingerichtet sein, die Teilmenge von Messwerten aus der Vielzahl von Messwerten in Bezug auf die Blickrichtung des Fahrers zu ermitteln, die keinem der Situationselemente aus der Menge von Situationselementen zugewiesen werden können. Der Wert des Aufmerksamkeitsindikators kann dann auch auf Basis der ermittelten Teilmenge von Messwerten ermittelt werden. Zu diesem Zweck können die Messwerte aus der ermittelten Teilmenge von Messwerten, die keinem Situationselement zugewiesen werden können, mittels eines Cluster-Algorithmus (z.B. DBSCAN) geclustert werden. Der Wert des Aufmerksamkeitsindikators kann dann in besonders präziser Weise auf Basis der Anzahl o von ermittelten Clustern bestimmt werden.The device can be set up to determine the subset of measured values from the plurality of measured values in relation to the driver's viewing direction, which cannot be assigned to any of the situation elements from the set of situation elements. The value of the attention indicator can then also be determined on the basis of the determined subset of measured values. For this purpose, the measured values from the determined subset of measured values that cannot be assigned to any situation element can be clustered using a cluster algorithm (e.g. DBSCAN). The value of the attention indicator can then be determined in a particularly precise manner on the basis of the number o of clusters determined.

Die Vorrichtung kann eingerichtet sein, auf Basis des Wahrnehmungszustands der ein oder mehreren Situationselemente aus der Menge von Situationselementen einen tatsächlichen kumulierten Wahrnehmungswert zu ermitteln. Dabei kann der tatsächliche kumulierte Wahrnehmungswert ermittelt werden, auf Basis von i = 1 K w i ( n ) r i ( n )

Figure DE102020126701A1_0001
wobei K die Anzahl von Situationselementen in der Menge von Situationselementen ist, wobei wi(n) der von dem Wahrnehmungszustand des Situationselements i abhängige individuelle Wahrnehmungswert ist, und wobei ri(n) der Relevanzwert des Situationselements i ist, durch den die Relevanz des Situationselements i für den Fahrbetrieb des Fahrzeugs angezeigt wird. Von dem o.g. Term kann ggf. noch ein Term abgezogen werden, der von der Anzahl o von ermittelten Clustern der Teilmenge von nicht zugewiesenen Messwerten abhängt (wie weiter unten dargelegt). So kann der tatsächliche kumulierte Wahrnehmungswert in besonders präziser Weise ermittelt werdenThe device can be set up to determine an actual cumulative perception value based on the perception state of the one or more situation elements from the set of situation elements. The actual cumulative perception value can be determined based on i = 1 K w i ( n ) right i ( n )
Figure DE102020126701A1_0001
where K is the number of situation items in the set of situation items, where w i (n) is the individual perception value dependent on the perceptual state of situation item i, and where r i (n) is the relevance value of situation item i, by which the relevance of Situation element i is displayed for driving the vehicle. If necessary, another term can be subtracted from the above term, which depends on the number o of determined clusters of the subset of unassigned measured values (as explained further below). In this way, the actual cumulative perception value can be determined in a particularly precise manner

Die Vorrichtung kann ferner eingerichtet sein, unter der Annahme, dass die ein oder mehreren Situationselemente aus der Menge von Situationselementen jeweils einen optimalen Wahrnehmungszustand (insbesondere den dritten Wahrnehmungszustand) aufweisen, einen optimalen kumulierten Wahrnehmungswert zu ermitteln. Der optimale kumulierte Wahrnehmungswert kann ermittelt werden, auf Basis von i = 1 K w m a x , i ( n ) r i ( n )

Figure DE102020126701A1_0002
wobei wmax,i(n) der mit dem optimalen Wahrnehmungszustand (z.B. dem dritten Wahrnehmungszustand) des Situationselements i assoziierte (maximal mögliche) individuelle Wahrnehmungswert ist.The device can also be set up to determine an optimal cumulative perception value on the assumption that the one or more situation elements from the set of situation elements each have an optimal perception state (in particular the third perception state). The optimal cumulative perception value can be determined based on i = 1 K w m a x , i ( n ) right i ( n )
Figure DE102020126701A1_0002
where w max,i (n) is the (maximum possible) individual perceptual value associated with the optimal perceptual state (eg, the third perceptual state) of situation element i.

Der Wert des Aufmerksamkeitsindikators kann dann in besonders präziser Weise auf Basis des tatsächlichen kumulierten Wahrnehmungswerts und auf Basis des optimalen kumulierten Wahrnehmungswerts, insbesondere auf Basis des Verhältnisses aus dem tatsächlichen kumulierten Wahrnehmungswert und dem optimalen kumulierten Wahrnehmungswert, ermittelt werden.The value of the attention indicator can then be determined in a particularly precise manner on the basis of the actual cumulative perception value and on the basis of the optimal cumulative perception value, in particular on the basis of the ratio of the actual cumulative perception measurement value and the optimal cumulative perception value.

Gemäß einem weiteren Aspekt wird ein (Straßen-) Kraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Vorrichtung umfasst.According to a further aspect, a (road) motor vehicle (in particular a passenger car or a truck or a bus or a motorcycle) is described which comprises the device described in this document.

Gemäß einem Aspekt wird ein Verfahren zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers eines Kraftfahrzeugs auf den Fahrbetrieb des Fahrzeugs, insbesondere auf eine Verkehrssituation im Umfeld des Fahrzeugs, beschrieben.According to one aspect, a method for determining an alertness indicator relating to the alertness of a driver of a motor vehicle to the driving operation of the vehicle, in particular to a traffic situation in the area surrounding the vehicle, is described.

Das Verfahren umfasst das Ermitteln, auf Basis von Umfelddaten in Bezug auf das Umfeld des Fahrzeugs, einer Menge von Situationselementen, die für den Fahrbetrieb des Fahrzeugs relevant sind. Ein beispielhaftes Situationselement ist ein Objekt (z.B. ein anderer Verkehrsteilnehmer, ein Verkehrszeichen, oder eine Lichtsignalanlage) im Umfeld des Fahrzeugs. Die Menge von Situationselemente kann anhand eines maschinen-erlernten Klassifikators auf Basis der Umfelddaten ermittelt werden.The method includes determining, on the basis of environmental data relating to the area surrounding the vehicle, a set of situational elements that are relevant to the driving operation of the vehicle. An example situation element is an object (e.g. another road user, a traffic sign, or a traffic light system) in the vicinity of the vehicle. The set of situational elements can be determined using a machine-learned classifier based on the environmental data.

Das Verfahren umfasst ferner das Ermitteln, auf Basis von Messwerten in Bezug auf die Blickrichtung des Fahrers des Fahrzeugs, jeweils eines Wahrnehmungszustands aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen für die ein oder mehrere Situationselemente aus der Menge von Situationselementen. Die Messwerte in Bezug auf die Blickrichtung können auf Basis von Fahrerdaten einer auf den Fahrer gerichteten Kamera ermittelt werden. Es kann somit auf Basis der Messwerte ermittelt werden, wie gut der Fahrer die einzelnen, für den Fahrbetrieb relevanten, Situationselemente (bewusst) wahrgenommen hat.The method also includes determining one perception state from a plurality of different perception states for the one or more situation elements from the set of situation elements on the basis of measured values relating to the viewing direction of the driver of the vehicle. The measured values in relation to the viewing direction can be determined on the basis of driver data from a camera directed at the driver. It can thus be determined on the basis of the measured values how well the driver (consciously) perceived the individual situational elements relevant to driving.

Des Weiteren umfasst das Verfahren das Ermitteln eines Wertes des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände der ein oder mehreren Situationselemente aus der Menge von Situationselementen.Furthermore, the method includes determining a value of the attention indicator based on the perception states of the one or more situation elements from the set of situation elements.

Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät eines Fahrzeugs) ausgeführt zu werden, und um dadurch zumindest eines der in diesem Dokument beschriebenen Verfahren auszuführen.According to a further aspect, a software (SW) program is described. The SW program can be set up to be executed on a processor (e.g. on a control unit of a vehicle) and thereby to carry out at least one of the methods described in this document.

Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch zumindest eines der in diesem Dokument beschriebenen Verfahren auszuführen.According to a further aspect, a storage medium is described. The storage medium can include a SW program which is set up to be executed on a processor and thereby to execute at least one of the methods described in this document.

Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be noted that the methods, devices and systems described in this document can be used both alone and in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, devices and systems described in this document can be combined with one another in a variety of ways. In particular, the features of the claims can be combined with one another in many different ways.

Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen

  • 1a eine beispielhafte Verkehrssituation im Umfeld eines Fahrzeugs;
  • 1b beispielhafte Komponenten eines Fahrzeugs;
  • 1c eine beispielhafte Blickrichtung eines Fahrers bei einer beispielhaften Umfeldsituation;
  • 2 ein beispielhaftes Zustandsmodell zur Ermittlung des Wahrnehmungszustands eines Situationselements; und
  • 3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung eines Aufmerksamkeitsindikators für die Aufmerksamkeit des Fahrers eines Fahrzeugs.
The invention is described in more detail below using exemplary embodiments. show it
  • 1a an exemplary traffic situation in the vicinity of a vehicle;
  • 1b exemplary components of a vehicle;
  • 1c an exemplary viewing direction of a driver in an exemplary environmental situation;
  • 2 an exemplary state model for determining the perception state of a situation element; and
  • 3 a flowchart of an exemplary method for determining an attention indicator for the attention of the driver of a vehicle.

Wie eingangs dargelegt, befasst sich das vorliegende Dokument damit, die Aufmerksamkeit eines Fahrers eines Fahrzeugs in präziser und zuverlässiger Weise zu ermitteln. In diesem Zusammenhang zeigt 1a eine beispielhafte Verkehrssituation eines Fahrzeugs 110 auf einer mehrspurigen Fahrbahn 100 mit einer Ego-Fahrspur 101, auf der das Fahrzeug 110 fährt, und mit ein oder mehreren Nachbar-Fahrspuren 102, 103. Im Umfeld des Fahrzeugs 110 befinden sich mehrere unterschiedliche andere Verkehrsteilnehmer 120 (insbesondere andere Fahrzeuge, ein oder mehrere Fußgänger, ein oder mehrere Fahrradfahrer, etc.). Ferner können im Umfeld des Fahrzeugs 110 ein oder mehrere Verkehrszeichen, Lichtsignalanlagen, Fußgängerübergänge, Spurmarkierungen, etc. angeordnet sein. Diese Komponenten eines Straßennetzes zur Regelung des Verkehrs werden in diesem Dokument auch zusammenfassend als Infrastrukturkomponenten 121 bezeichnet.As explained at the outset, the present document is concerned with determining the level of alertness of a driver of a vehicle in a precise and reliable manner. In this context shows 1a an exemplary traffic situation of a vehicle 110 on a multi-lane roadway 100 with an ego lane 101, on which the vehicle 110 is driving, and with one or more neighboring lanes 102, 103. In the vicinity of the vehicle 110 there are several different other road users 120 ( in particular other vehicles, one or more pedestrians, one or more cyclists, etc.). Furthermore, one or more traffic signs, light signal systems, pedestrian crossings, lane markings, etc. can be arranged in the area surrounding vehicle 110 . These components of a road network for controlling traffic are also collectively referred to as infrastructure components 121 in this document.

1b zeigt beispielhafte Komponenten eines Fahrzeugs 110. Das Fahrzeug 110 umfasst ein oder mehrere Umfeldsensoren 112, die eingerichtet sind, Umfelddaten (d.h. Sensordaten) in Bezug auf das Umfeld des Fahrzeugs 110 zu erfassen. 1b shows exemplary components of a vehicle 110. The vehicle 110 includes one or more environment sensors 112, the turned are directed to capture environmental data (ie sensor data) in relation to the environment of the vehicle 110 .

Beispielhafte Umfeldsensoren 112 sind eine Bildkamera, ein Radarsensor, ein Lidarsensor, ein Ultraschallsensor, etc.Exemplary environment sensors 112 are an image camera, a radar sensor, a lidar sensor, an ultrasonic sensor, etc.

Des Weiteren kann das Fahrzeug 110 ein oder mehrere Aktoren 113 zur zumindest teilweise automatisierten Längs- und/oder Querführung des Fahrzeugs 110 umfassen. Beispielhafte Aktoren 113 sind ein Antriebsmotor, eine Bremsvorrichtung und/oder eine Lenkvorrichtung.Furthermore, the vehicle 110 can include one or more actuators 113 for at least partially automated longitudinal and/or lateral guidance of the vehicle 110 . Exemplary actuators 113 are a drive motor, a braking device and/or a steering device.

Eine Steuereinheit 111 des Fahrzeugs 110 kann eingerichtet sein, auf Basis der Umfelddaten ein Umfeldmodell in Bezug auf das Umfeld des Fahrzeugs 110 zu ermitteln. Das Umfeldmodell kann z.B. ein oder mehrere andere Verkehrsteilnehmer 120 und/oder ein oder mehrere Infrastrukturkomponenten 121 (allgemein ein oder mehrere Objekte 120, 121) im Umfeld des Fahrzeugs 110 beschreiben. Die Steuereinheit 111 kann eingerichtet sein, die ein oder mehreren Aktoren 113 des Fahrzeugs 110 in Abhängigkeit von dem Umfeldmodell zu betreiben, z.B. um eine Fahrerassistenzfunktion (etwa einen Spurhalteassistenten, einen Spurwechselassistenten, Adaptive Cruise Control, etc.) und/oder einen automatisierten Fahrmodus (z.B. gemäß SAE-Level 3 oder höher) bereitzustellen.A control unit 111 of the vehicle 110 can be set up to determine an environment model in relation to the environment of the vehicle 110 on the basis of the environment data. The environment model can, for example, describe one or more other road users 120 and/or one or more infrastructure components 121 (generally one or more objects 120, 121) in the environment of vehicle 110. The control unit 111 can be set up to operate the one or more actuators 113 of the vehicle 110 depending on the environment model, e.g. to activate a driver assistance function (such as a lane keeping assistant, a lane change assistant, adaptive cruise control, etc.) and/or an automated driving mode ( e.g. according to SAE level 3 or higher).

1c zeigt eine beispielhafte Fahrsituation, bei der das Fahrzeug 110 manuell oder zumindest teilweise automatisiert längs- und/oder querführt. Der Fahrer 130 des Fahrzeugs 110 betrachtet während der Fahrt ggf. unterschiedliche Objekte 120, 121 im Umfeld des Fahrzeugs 110. Das Fahrzeug 110 kann einen Fahrersensor 115, insbesondere eine Kamera, umfassen, die eingerichtet ist, Sensordaten (in diesem Dokument auch als Fahrerdaten bezeichnet) in Bezug auf den Fahrer 130 zu erfassen. Die Fahrerdaten können insbesondere Messwerte in Bezug auf die Blickrichtung 131 des Fahrers 130 an einer Vielzahl von Zeitpunkten anzeigen. 1c shows an exemplary driving situation in which vehicle 110 is driving longitudinally and/or laterally manually or at least partially automatically. The driver 130 of the vehicle 110 may look at different objects 120, 121 in the area surrounding the vehicle 110 while driving. The vehicle 110 may include a driver sensor 115, in particular a camera, which is set up to record sensor data (also referred to as driver data in this document ) with respect to the driver 130 to be detected. In particular, the driver data can display measured values in relation to the viewing direction 131 of the driver 130 at a large number of points in time.

Die Steuereinheit 111 des Fahrzeugs 110 kann eingerichtet sein, Umfelddaten in Bezug auf das Umfeld zu erfassen (als Funktion der Zeit). Die Fahrerdaten und die Umfelddaten können gemeinsam analysiert werden, um zu ermitteln, welche Objekte 120, 121 während des Fahrbetriebs von dem Fahrer 130 betrachtet werden. Es kann somit ermittelt werden, welche Objekte 120, 121 von dem Fahrer 130 an unterschiedlichen Zeitpunkten betrachtet werden. Mit anderen Worten, es kann das Blickverhalten des Fahrers 130 ermittelt werden.The control unit 111 of the vehicle 110 can be set up to record surroundings data in relation to the surroundings (as a function of time). The driver data and the environment data can be analyzed together in order to determine which objects 120, 121 are viewed by the driver 130 while driving. It can thus be determined which objects 120, 121 are viewed by the driver 130 at different points in time. In other words, the gaze behavior of the driver 130 can be determined.

Aus dem Blickverhalten des Fahrers 130 kann auf den Grad der Aufmerksamkeit des Fahrers 130 geschlossen. Insbesondere kann auf Basis des Blickverhaltens des Fahrers 130 der Wert eines Aufmerksamkeitsindikators für die Aufmerksamkeit des Fahrers 130 an einem bestimmten Zeitpunkt n ermittelt werden.The degree of attentiveness of the driver 130 can be inferred from the gaze behavior of the driver 130 . In particular, the value of an alertness indicator for the alertness of driver 130 at a specific point in time n can be determined on the basis of the gaze behavior of driver 130 .

Die Steuereinheit 111 des Fahrzeugs 110 kann eingerichtet sein, auf Basis der Umfelddaten eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs 110 und/oder für die Überwachung des Fahrbetriebs des Fahrzeugs 110 an einem bestimmten Zeitpunkt n relevant sind. Die Menge von Situationselementen kann dabei insbesondere ein oder mehrere Objekte 120, 121 im Umfeld des Fahrzeugs 110 umfassen.The control unit 111 of the vehicle 110 can be set up to determine a set of situation elements that are relevant for the driving operation of the vehicle 110 and/or for monitoring the driving operation of the vehicle 110 at a specific point in time n on the basis of the environmental data. The set of situation elements can in particular include one or more objects 120 , 121 in the area surrounding vehicle 110 .

Die Menge von Situationselementen kann mittels einer Maschinen-erlernten Erkennungseinheit ermittelt werden. Die Erkennungseinheit kann dabei ein oder mehrere neuronale Netze umfassen. Die Erkennungseinheit kann ausgebildet sein, die Umfelddaten (insbesondere die Bilddaten von ein oder mehreren Kameras) auszuwerten, um ein oder mehrere Situationselemente im Umfeld des Fahrzeugs 110 zu erkennen, die für den Fahrbetrieb des Fahrzeugs 110 (möglicherweise) relevant sind. Dabei kann ggf. für jedes Situationselement die Relevanz, insbesondere ein Relevanzwert, für den Fahrbetrieb ermittelt werden. Die Menge von Situationselementen kann an einer Sequenz von Zeitpunkten (iterativ) auf Basis der jeweils aktuell erfassten Umfelddaten aktualisiert werden. Dabei kann insbesondere jeweils überprüft werden, welche ein oder mehreren Situationselemente in den möglichen Sichtbereich des Fahrers 130 eintreten, und welche ein oder mehreren Situationselemente den möglichen Sichtbereich des Fahrers 130 verlassen.The set of situation elements can be determined using a machine-learned recognition unit. The recognition unit can include one or more neural networks. The recognition unit can be designed to evaluate the surroundings data (in particular the image data from one or more cameras) in order to recognize one or more situational elements in the surroundings of the vehicle 110 which are (possibly) relevant to the driving operation of the vehicle 110 . In this case, the relevance, in particular a relevance value, for the driving operation can be determined for each situation element. The set of situation elements can be updated at a sequence of points in time (iteratively) on the basis of the environmental data currently recorded. In particular, it can be checked in each case which one or more situation elements enter the possible field of view of driver 130 and which one or more situation elements leave the possible field of view of driver 130 .

Des Weiteren kann die Steuereinheit 111 des Fahrzeugs 110 eingerichtet sein, für jedes Situationselement aus der Menge von Situationselementen einen Blickbereich zu ermitteln, wobei der Blickbereich für ein Situationselement die ein oder mehreren Blickrichtungen 131 des Fahrers 130 anzeigt, bei denen der Fahrer 130 in Richtung des Situationselements schaut. Mit anderen Worten, der Blickbereich für ein Situationselement beschreibt die Menge von Blickrichtungen 131 des Fahrers 130, die dazu führen, dass der Fahrer 130 in Richtung des Situationselements schaut. Ein Blickbereich kann dabei durch einen Azimut-Winkelbereich und/oder durch einen Polar-Winkelbereich eines Kugelkoordinatensystems definiert sein, das den Kopf des Fahrers 130 als Ursprung aufweist.Furthermore, the control unit 111 of the vehicle 110 can be set up to determine a viewing area for each situation element from the set of situation elements, wherein the viewing area for a situation element indicates the one or more viewing directions 131 of the driver 130, in which the driver 130 looks in the direction of the situation element looks. In other words, the field of view for a situation element describes the set of viewing directions 131 of the driver 130 that result in the driver 130 looking in the direction of the situation element. A field of vision can be defined by an azimuth angle range and/or by a polar angle range of a spherical coordinate system that has the head of driver 130 as the origin.

Die Steuereinheit 111 kann ferner eingerichtet sein, auf Basis der Fahrerdaten eine Vielzahl von Messwerten der Blickrichtung 131 des Fahrers 130 an einer Vielzahl von Zwischenzeitpunkten m zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n zu ermitteln. Beispielsweise können zwischen zwei Zeitpunkten 10 oder mehr, oder 20 oder mehr Messwerte der Blickrichtung 131 des Fahrers 130 ermittelt werden, um das Blickverhalten des Fahrers 130 an dem aktuellen Zeitpunkt n zu beschreiben.The control unit 111 can also be set up, on the basis of the driver data, to calculate a large number of measured values of the line of sight 131 of the driver 130 at a large number of intermediate points in time m between the preceding point in time n−1 and to determine the current point in time n. For example, 10 or more, or 20 or more measured values of the viewing direction 131 of the driver 130 can be determined between two points in time in order to describe the viewing behavior of the driver 130 at the current point in time n.

Die Vielzahl von Messwerten kann den unterschiedlichen Situationselementen aus der Menge von Situationselementen für den aktuellen Zeitpunkt n zugewiesen werden. Insbesondere kann für jedes Situationselement aus der Menge von Situationselementen die Anzahl von Messwerten ermittelt werden, die in dem Blickbereich des jeweiligen Situationselements liegen. Ferner kann die Teilmenge von Messwerten ermittelt werden, die keinem Situationselement aus der Menge von Situationselementen zugewiesen werden können, d.h. die in keinen der Blickbereiche der Situationselemente aus der Menge von Situationselementen fallen. Es kann somit die Anzahl von Messwerten ohne Situationsbezug ermittelt werden. Der Aufmerksamkeitsindikator an dem aktuellen Zeitpunkt n kann dann basierend auf der Anzahl von Messwerten pro Situationselement und ggf. basierend auf der Teilmenge von Messwerten ohne Situationsbezug ermittelt werden.The large number of measured values can be assigned to the different situation elements from the set of situation elements for the current point in time n. In particular, for each situation element from the set of situation elements, the number of measured values that lie in the field of view of the respective situation element can be determined. Furthermore, the subset of measured values can be determined which cannot be assigned to any situation element from the set of situation elements, i.e. which do not fall in any of the viewing areas of the situation elements from the set of situation elements. The number of measured values can thus be determined without reference to the situation. The alertness indicator at the current point in time n can then be determined based on the number of measured values per situation element and possibly based on the subset of measured values without reference to the situation.

Die Steuereinheit 111 kann insbesondere eingerichtet sein, auf Basis der Anzahl von Messwerten pro Situationselement an dem aktuellen Zeitpunkt n für die einzelnen Situationselemente aus der Menge von Situationselementen jeweils einen Wahrnehmungszustand durch den Fahrer 130 des Fahrzeugs 110 zu ermitteln. Beispielhafte Wahrnehmungszustände sind,

  • • ein erster Wahrnehmungszustand „Nicht-Erkannt“, d.h. das Situationselement wurde bisher nicht von dem Fahrer 130 des Fahrzeugs erkannt bzw. gesehen;
  • • ein zweiter Wahrnehmungszustand „Erkannt“, d.h. das Situationselement wurde von dem Fahrer 130 des Fahrzeugs erkannt bzw. gesehen; und/oder
  • • ein dritter Wahrnehmungszustand „Erfasst“, d.h. das Situationselement wurde von dem Fahrer 130 des Fahrzeugs 110 als relevantes Situationselement für die aktuelle Fahrsituation bzw. für den aktuellen Fahrbetrieb wahrgenommen.
The control unit 111 can in particular be set up to determine a perception state by the driver 130 of the vehicle 110 based on the number of measured values per situation element at the current point in time n for the individual situation elements from the set of situation elements. Exemplary states of perception are,
  • • a first perception state “not recognized”, ie the situation element has not yet been recognized or seen by the driver 130 of the vehicle;
  • • a second perception state “recognized”, ie the situation element was recognized or seen by the driver 130 of the vehicle; and or
  • • a third perception state “detected”, ie the situation element was perceived by the driver 130 of the vehicle 110 as a relevant situation element for the current driving situation or for the current driving operation.

Es kann somit für jedes der Situationselemente aus der Menge von Situationselementen für den aktuellen Zeitpunkt n basierend auf der Anzahl von Messwerten für das jeweilige Situationselement der Wahrnehmungszustand des jeweiligen Situationselements an dem aktuellen Zeitpunkt n ermittelt werden. Der Aufmerksamkeitsindikator kann dann auf Basis der Wahrnehmungszustände der einzelnen Situationselemente aus der Menge von Situationselementen ermittelt werden. Insbesondere kann auf Basis der Wahrnehmungszustände der einzelnen Situationselemente ein tatsächlicher kumulierter (bzw. Gesamt-) Wahrnehmungswert SAactual(n) an dem aktuellen Zeitpunkt n ermittelt werden. Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann dann mit einem optimalen kumulierten (bzw. Gesamt-) Wahrnehmungswert SAoptimal(n) verglichen, insbesondere in Verhältnis zueinander gesetzt, werden, um den Wert des Aufmerksamkeitsindikators zu ermitteln.The perception state of the respective situation element at the current time n can thus be determined for each of the situation elements from the set of situation elements for the current time n based on the number of measured values for the respective situation element. The attention indicator can then be determined from the set of situation elements on the basis of the perception states of the individual situation elements. In particular, an actual cumulative (or total) perception value SA actual (n) at the current point in time n can be determined on the basis of the perception states of the individual situation elements. The actual cumulative perception value SA actual (n) can then be compared with an optimal cumulative (or total) perception value SA optimal (n), in particular set in relation to one another, in order to determine the value of the attention indicator.

Zur Ermittlung des tatsächlichen kumulierten Wahrnehmungswerts SAactual(n) können den möglichen Wahrnehmungszuständen eines Situationselements jeweils ein individueller Wahrnehmungswert w zugewiesen werden. Dabei kann ein relativ hoher individueller Wahrnehmungswert w einen relativ hohen Grad der Wahrnehmung und ein relativ niedriger individueller Wahrnehmungswert w einen relativ niedrigen Grad der Wahrnehmung des jeweiligen Situationselements anzeigen. Beispielhafte individuelle Wahrnehmungswerte w sind:

  • • Wert w = 0 für den ersten Wahrnehmungszustand „Nicht-Erkannt“;
  • • Wert w = 0,5 für den zweiten Wahrnehmungszustand „Erkannt“; und/oder
  • • Wert w = 1 für den dritten Wahrnehmungszustand „Erfasst“.
In order to determine the actual cumulative perception value SA actual (n), an individual perception value w can be assigned to each of the possible perception states of a situation element. A relatively high individual perception value w can indicate a relatively high degree of perception and a relatively low individual perception value w can indicate a relatively low degree of perception of the respective situation element. Exemplary individual perception values w are:
  • • Value w = 0 for the first perceptual state "Unrecognized";
  • • Value w = 0.5 for the second perceptual state “Recognized”; and or
  • • Value w = 1 for the third perceptual state “Captured”.

Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann dann auf Basis (der Summe) der individuellen Wahrnehmungswerte w der Situationselemente aus der Menge von Situationselementen ermittelt werden. Der optimalen kumulierte Wahrnehmungswert SAoptimal(n) kann auf Basis (der Summe) der maximal möglichen, individuellen Wahrnehmungswerte w der Situationselemente aus der Menge von Situationselementen ermittelt werden.The actual cumulative perception value SA actual (n) can then be determined on the basis (the sum) of the individual perception values w of the situation elements from the set of situation elements. The optimal cumulative perception value SA optimal (n) can be determined on the basis (the sum) of the maximum possible individual perception values w of the situation elements from the set of situation elements.

Die Steuereinheit 111 kann eingerichtet sein (insbesondere auf Basis der Umfelddaten), eine Relevanz der einzelnen Situationselemente aus der Menge von Situationselementen für den aktuellen Fahrbetrieb, insbesondere für die aktuelle Verkehrssituation, zu ermitteln. Insbesondere kann für die einzelnen Situationselemente jeweils ein Relevanzwert r ermittelt werden, der die Relevanz des jeweiligen Situationselements anzeigt. Ein relativ niedrige Relevanzwert r (z.B. r = 1) kann anzeigen, dass das Situationselement eine relativ niedrige Relevanz für den Fahrbetrieb aufweist, und ggf. nur optional von dem Fahrer 130 des Fahrzeugs 110 wahrgenommen bzw. erfasst werden muss. Andererseits kann ein relativ hoher Relevanzwert r (z.B. r = 2) anzeigen, dass das Situationselement eine relativ hohe Relevanz für den Fahrbetrieb aufweist, und daher von dem Fahrer 130 des Fahrzeugs 110 wahrgenommen bzw. erfasst werden sollte bzw. muss.The control unit 111 can be set up (in particular on the basis of the environmental data) to determine a relevance of the individual situation elements from the set of situation elements for the current driving operation, in particular for the current traffic situation. In particular, a relevance value r can be determined for the individual situation elements, which shows the relevance of the respective situation element. A relatively low relevance value r (e.g. r=1) can indicate that the situation element has a relatively low relevance for the driving operation and may only optionally have to be perceived or detected by the driver 130 of the vehicle 110 . On the other hand, a relatively high relevance value r (e.g. r=2) can indicate that the situation element has a relatively high relevance for the driving operation and should therefore or must be perceived or detected by the driver 130 of the vehicle 110 .

Die Relevanz, insbesondere der Relevanzwert, der einzelnen Situationselemente kann bei der Ermittlung des Aufmerksamkeitsindikators berücksichtigt werden, um die Genauigkeit des Aufmerksamkeitsindikators zu erhöhen. Insbesondere können der tatsächliche kumulierte Wahrnehmungswert SAactual(n) und der optimale kumulierte Wahrnehmungswert SAoptimal(n) unter Berücksichtigung der Relevanzwerte der einzelnen Situationselemente ermittelt werden. Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann z.B. ermittelt werden, als bzw. auf Basis von i = 1 K w i ( n ) r i ( n ) ,

Figure DE102020126701A1_0003
wobei K die Anzahl von Situationselementen in der Menge von Situationselementen ist, wobei wi(n) der individuelle Wahrnehmungswert des Situationselements i an dem Zeitpunkt n ist, und wobei ri(n) der Relevanzwert des Situationselements i an dem Zeitpunkt n ist. In entsprechender Weise kann der optimale kumulierte Wahrnehmungswert SAoptimal(n) ermittelt werden, als bzw. auf Basis von i = 1 K w m a x , i ( n ) r i ( n ) ,
Figure DE102020126701A1_0004
wobei wmax,i(n) der maximal mögliche individuelle Wahrnehmungswert des Situationselements i an dem Zeitpunkt n ist. Typischerweise ist wmax,i(n) = wmax ein einheitlicher (zeitlich konstanter) maximal möglicher individueller Wahrnehmungswert für alle Situationselemente (der z.B. mit dem dritten Wahrnehmungszustand assoziiert ist).The relevance, in particular the relevance value, of the individual situation elements can be taken into account when determining the attention indicator in order to increase the accuracy of the attention indicator. In particular, the actual cumulative perception value SA actual (n) and the optimal cumulative perception value SA optimal (n) can be determined taking into account the relevance values of the individual situation elements. The actual cumulative perception value SA actual (n) can be determined, for example, as or on the basis of i = 1 K w i ( n ) right i ( n ) ,
Figure DE102020126701A1_0003
where K is the number of situation items in the set of situation items, where w i (n) is the individual perception value of situation item i at time n, and where r i (n) is the relevance value of situation item i at time n. Correspondingly, the optimal cumulative perception value SA optimal (n) can be determined as or on the basis of i = 1 K w m a x , i ( n ) right i ( n ) ,
Figure DE102020126701A1_0004
where w max,i (n) is the maximum possible individual perception value of situation element i at time n. Typically, w max,i (n) = w max is a uniform (constant in time) maximum possible individual perceptual value for all situational elements (e.g., associated with the third perceptual state).

Wie bereits oben dargelegt, kann für einen aktuellen Zeitpunkt n auch die Anzahl von Messwerten der Blickrichtung 131 ermittelt werden, die keinem Situationselement aus der Menge von Situationselementen zugewiesen werden kann. Die keinem Situationselement zugewiesenen Messwerte sind ein Indikator für die Unaufmerksamkeit des Fahrers 130 und können bei der Ermittlung des Aufmerksamkeitsindikators (als reduzierende Komponente) berücksichtigt werden. Insbesondere können die Messwerte ohne zugewiesenem Situationselement mittels eines Cluster-Algorithmus (wie z.B. DBSCAN) geclustert werden. Dabei können zur Clusterung ein maximaler Abstandswert zwischen den Messwerten eines Clusters und/oder ein Minimalwert von Messwerten pro Cluster festgelegt werden. Anhand des Cluster-Algorithmus kann dann eine Anzahl o von unterschiedlichen Clustern von Messwerten ohne zugewiesenem Situationselement ermittelt werden. Eine steigende Anzahl o von unterschiedlichen Clustern ist dabei ein Indiz für eine steigende Unaufmerksamkeit des Fahrers 130. Die Anzahl o von unterschiedlichen Clustern kann mit einem Straffaktor γ multipliziert und als reduzierende Komponente bei der Ermittlung des Aufmerksamkeitsindikators berücksichtigt werden.As already explained above, the number of measured values of the viewing direction 131 that cannot be assigned to any situation element from the set of situation elements can also be determined for a current point in time n. The measured values not assigned to any situation element are an indicator of the inattentiveness of the driver 130 and can be taken into account (as a reducing component) when determining the alertness indicator. In particular, the measured values can be clustered without an assigned situation element using a cluster algorithm (such as DBSCAN). A maximum distance value between the measured values of a cluster and/or a minimum value of measured values per cluster can be specified for clustering. A number o of different clusters of measured values without an assigned situation element can then be determined using the cluster algorithm. An increasing number o of different clusters is an indication of increasing inattentiveness on the part of the driver 130. The number o of different clusters can be multiplied by a penalty factor γ and taken into account as a reducing component when determining the attention indicator.

Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann z.B. ermittelt werden, als S A a c t u a l ( n ) = i = 1 K w i ( n ) r i ( n ) γ o ,

Figure DE102020126701A1_0005
der optimale kumulierte Wahrnehmungswert SAoptimal(n) kann z.B. ermittelt werden, als S A o p t i m a l ( n ) = i = 1 K w m a x , i ( n ) r i ( n ) ,
Figure DE102020126701A1_0006
und/oder der Aufmerksamkeitsindikator SA(n) kann z.B. ermittelt werden, als S A ( n ) = S A a c t u a l ( n ) S A o p t i m a l ( n ) .
Figure DE102020126701A1_0007
The actual cumulative perception value SA actual (n) can be determined, for example, as S A a c t and a l ( n ) = i = 1 K w i ( n ) right i ( n ) g O ,
Figure DE102020126701A1_0005
the optimal cumulative perception value SA optimal (n) can be determined, for example, as S A O p t i m a l ( n ) = i = 1 K w m a x , i ( n ) right i ( n ) ,
Figure DE102020126701A1_0006
and/or the attention indicator SA(n) can be determined, for example, as S A ( n ) = S A a c t and a l ( n ) S A O p t i m a l ( n ) .
Figure DE102020126701A1_0007

In dem o.g. Beispiel ist der Aufmerksamkeitsindikator SA(n) ein Wert zwischen 0 und 1, wobei 0 einen minimalen Grad der Aufmerksamkeit und 1 einen maximalen Grad der Aufmerksamkeit des Fahrers 130 anzeigt.In the above example, the alertness indicator SA(n) is a value between 0 and 1, with 0 indicating a minimum level of alertness and 1 indicating a maximum level of alertness of the driver 130.

Wie bereits weiter oben dargelegt, können Wahrnehmungszustände für die einzelnen Situationselemente an dem aktuellen Zeitpunkt n ermittelt werden. Die Wahrnehmungszustände können dabei iterativ an einer Sequenz von Zeitpunkten aktualisiert werden. Insbesondere können die Wahrnehmungszustände der Signalisierungselemente an dem vorhergehenden Zeitpunkt n - 1 auf Basis der zwischen dem Zeitpunkt n - 1 und dem Zeitpunkt n erfassten Messwerte der Blickrichtung 131 aktualisiert werden.As already explained above, states of perception can be determined for the individual situation elements at the current point in time n. The states of perception can be updated iteratively at a sequence of points in time. In particular, the perception states of the signaling elements at the previous point in time n−1 can be updated on the basis of the measured values of the viewing direction 131 recorded between the point in time n−1 and the point in time n.

2 zeigt ein beispielhaftes Zustandsdiagramm bzw. Zustandsmodell 200 zur (iterativen) Ermittlung des Wahrnehmungszustands eines Situationselements. Das Zustandsmodell 200 zeigt die möglichen Wahrnehmungszustände 201, 202, 203, 204 eines Situationselements an einem bestimmten Zeitpunkt an. Des Weiteren zeigt das Zustandsmodell 200 mögliche Zustandsübergänge 211, 212, 213, 214, 215, 216 zwischen (direkt) aufeinanderfolgenden Zeitpunkten an. Die Zustandsübergänge erfolgen dabei in Abhängigkeit von den Messwerten 221 der Blickrichtung 131 zwischen den (direkt) aufeinanderfolgenden Zeitpunkten, insbesondere in Abhängigkeit von der Zuordnung der Messwerte 221 zu dem Blickbereich 220 des Situationselements. 2 shows an exemplary state diagram or state model 200 for the (iterative) determination of the perception state of a situation element. The state model 200 shows the possible perception states 201, 202, 203, 204 of a situation element at a specific point in time. Furthermore, the state model 200 shows possible state transitions 211, 212, 213, 214, 215, 216 between (directly) consecutive points in time. The state transitions take place depending on the measured values 221 of the viewing direction 131 between the (directly) consecutive points in time, in particular depending on the assignment of the measured values 221 to the viewing area 220 of the situation element.

Die möglichen Wahrnehmungszustände des Zustandsdiagramms 200 sind,

  • • Wahrnehmungszustand 201: Situationselement ist nicht im möglichen Sichtbereich des Fahrers 130;
  • • der erste Wahrnehmungszustand 202: Situationselement wurde nicht vom Fahrer 130 erkannt;
  • • der zweite Wahrnehmungszustand 203: Situationselement wurde vom Fahrer 130 erkannt; und/oder
  • • der dritte Wahrnehmungszustand 204: Situationselement wurde vom Fahrer 130 erfasst.
The possible perceptual states of state diagram 200 are,
  • Perception state 201: situation element is not in the possible field of vision of driver 130;
  • • the first perception state 202: situation element was not recognized by the driver 130;
  • • the second perception state 203: situation element was recognized by the driver 130; and or
  • • the third perception state 204: the driver 130 detected the situation element.

Insbesondere auf Basis der Umfelddaten kann ermittelt werden, ob das Situationselement zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n in den möglichen Sichtbereich des Fahrers 130 gerückt ist. In diesem Fall erfolgt ein Zustandsübergang 211 von dem Wahrnehmungszustand 201 („nicht im Sichtbereich“) in den ersten Wahrnehmungszustand 202 („nicht erkannt“), (auch dann) wenn zwischen den beiden Zeitpunkten n - 1, n kein Messwert 221 in dem Blickbereich 220 des Situationselements lag. Das Situationselement kann dann in die Menge von Situationselementen für den Zeitpunkt n aufgenommen werden.In particular on the basis of the surroundings data it can be determined whether the situation element has moved into the possible field of vision of the driver 130 between the previous point in time n−1 and the current point in time n. In this case, there is a state transition 211 from the perception state 201 (“not in the field of vision”) to the first perception state 202 (“not recognized”) (even then) if there is no measured value 221 in the field of vision between the two times n−1, n 220 of the situation element. The situation element can then be included in the set of situation elements for time n.

Fällt zwischen den beiden Zeitpunkten n - 1, n (zumindest oder genau) ein Messwert 221 in den Blickbereich 220 des Situationselements, so kann ein Zustandsübergang 212 von dem ersten Wahrnehmungszustand 202 („nicht erkannt“) in den zweiten Wahrnehmungszustand 203 („erkannt“) erfolgen. Fallen zwischen den beiden Zeitpunkten n - 1, n mehrere Messwerte 221 in den Blickbereich 220 des Situationselements, so kann ein Zustandsübergang 213 von dem zweiten Wahrnehmungszustand 203 („erkannt“) in den dritten Wahrnehmungszustand 204 („erfasst“) erfolgen.If a measured value 221 falls between the two points in time n - 1, n (at least or exactly) in the viewing area 220 of the situation element, then a state transition 212 can take place from the first perception state 202 (“not recognized”) to the second perception state 203 (“recognized”). ) take place. If several measured values 221 fall within the field of view 220 of the situation element between the two points in time n−1, n, a state transition 213 can take place from the second perception state 203 (“detected”) to the third perception state 204 (“detected”).

Wenn erkannt wird, dass das Situationselement zwischen den beiden Zeitpunkten n - 1, n den möglichen Sichtbereich des Fahrers 130 verlässt, so kann ein Zustandsübergang 216 von einem Wahrnehmungszustand 202, 203, 204 in den Wahrnehmungszustand 201 („nicht im Sichtbereich“) erfolgen. Das Situationselement kann dann aus der Menge von Situationselementen für den Zeitpunkt n entfernt werden.If it is recognized that the situation element leaves the possible field of vision of the driver 130 between the two points in time n−1, n, a state transition 216 can take place from a perception state 202, 203, 204 to the perception state 201 (“not in the field of vision”). The situation element can then be removed from the set of situation elements for time n.

Ein Situationselement, welches sich in dem möglichen Sichtbereich des Fahrers 130 befindet, kann für eine bestimmte Haltezeit in einem erhöhten Wahrnehmungszustand 203, 204 gehalten werden, bevor das Situationselement auf einen niedrigeren Wahrnehmungszustand 202, 203 (mit reduziertem Erkennungsgrad) überführt wird, wenn während der Haltezeit nicht zumindest ein Messwert 221 in den Blickbereich 220 des Situationselements fällt. Insbesondere kann das Situationselement für eine erste Haltezeit in dem dritten Wahrnehmungszustand 204 („erfasst“) gehalten werden, und in den zweiten Wahrnehmungszustand 203 („erkannt“) überführt werden (Zustandsübergang 214), wenn innerhalb der ersten Haltezeit kein Messwert 221 in den Blickbereich 222 des Situationselements fällt. In entsprechender Weise kann das Situationselement für eine zweite Haltezeit in dem zweiten Wahrnehmungszustand 203 („erkannt“) gehalten werden, und in den ersten Wahrnehmungszustand 202 („nicht erkannt“) überführt werden (Zustandsübergang 215), wenn innerhalb der zweiten Haltezeit kein Messwert 221 in den Blickbereich 222 des Situationselements fällt.A situation element that is in the possible field of vision of the driver 130 can be held in a heightened state of perception 203, 204 for a certain holding time before the situation element is transferred to a lower state of perception 202, 203 (with a reduced degree of recognition) if during the holding time, at least one measured value 221 does not fall within the field of view 220 of the situation element. In particular, the situation element can be held in the third perception state 204 (“detected”) for a first holding time and transferred to the second perception state 203 (“detected”) (state transition 214) if no measured value 221 is in the field of view within the first holding time 222 of the situation element falls. In a corresponding manner, the situation element can be held in the second perception state 203 (“recognized”) for a second holding time, and transferred to the first perception state 202 (“not recognized”) (state transition 215) if no measured value 221 within the second holding time falls within the field of view 222 of the situation element.

Es kann somit mittels eines Zustandsmodells bzw. mittels einer Zustandsmaschine 200 in iterativer und robuster Weise der jeweils aktuelle Wahrnehmungszustand 201, 202, 203, 204 eines Situationselements ermittelt werden.The respective current perception state 201, 202, 203, 204 of a situation element can thus be determined in an iterative and robust manner by means of a state model or by means of a state machine 200.

3 zeigt ein Ablaufdiagramm eines beispielhaften (ggf. Computerimplementierten) Verfahrens 300 zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers 130 eines Kraftfahrzeugs 110 auf den Fahrbetrieb bzw. auf die Überwachung des Fahrbetriebs des Fahrzeugs 110. Das Verfahren 300 kann durch eine Steuereinheit 111 des Fahrzeugs 110 und/oder durch eine Recheneinheit zur Fernsteuerung des Fahrzeugs 110 ausgeführt werden. Das Verfahren 300 kann wiederholt an einer Sequenz von aufeinanderfolgenden Zeitpunkten ausgeführt werden. 3 shows a flowchart of an exemplary (possibly computer-implemented) method 300 for determining an attention indicator in relation to the attention of a driver 130 of a motor vehicle 110 to the driving operation or to the monitoring of the driving operation of the vehicle 110. The method 300 can be carried out by a control unit 111 of the Vehicle 110 and / or be executed by a computing unit for remote control of the vehicle 110. The method 300 may be repeatedly performed at a sequence of consecutive points in time.

Das Verfahren 300 umfasst das Ermitteln 301, auf Basis von Umfelddaten (insbesondere auf Basis von Kameradaten) in Bezug auf das Umfeld des Fahrzeugs 110, einer Menge von Situationselementen, die für den Fahrbetrieb des Fahrzeugs 110 relevant sind. Zumindest ein Teil der Situationselemente kann dabei jeweils ein Objekt 120, 121 aus dem Umfeld des Fahrzeugs 110 sein (z.B. ein anderer Verkehrsteilnehmer 120, ein Verkehrszeichen 121, eine Ampel 121, etc.).The method 300 includes determining 301 a set of situation elements that are relevant to the driving operation of the vehicle 110 on the basis of surroundings data (in particular based on camera data) in relation to the surroundings of the vehicle 110 . At least some of the situation elements can each be an object 120, 121 from the area surrounding vehicle 110 (e.g. another road user 120, a traffic sign 121, a traffic light 121, etc.).

Des Weiteren umfasst das Verfahren 300 das Ermitteln 302, auf Basis von Messwerten 221 in Bezug auf die Blickrichtung 131 des Fahrers 130 des Fahrzeugs 110, jeweils eines Wahrnehmungszustands 202, 203, 204 aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen 202, 203, 204 für die ein oder mehreren Situationselemente aus der Menge von Situationselementen. Mit anderen Worten, den einzelnen Situationselementen kann jeweils ein Wahrnehmungszustand 202, 203, 204 zugewiesen werden. Die unterschiedlichen Wahrnehmungszustände 202, 203, 204 können dabei unterschiedliche Grade anzeigen, mit denen der Fahrer 130 ein Situationselement wahrgenommen hat.Furthermore, the method 300 includes the determination 302, on the basis of measured values 221 in relation to the viewing direction 131 of the driver 130 of the vehicle 110, in each case a perception state 202, 203, 204 from a plurality of different perception states 202, 203, 204 for the one or several situation elements from the set of situation elements. In other words, a perception state 202, 203, 204 can be assigned to the individual situation elements. The different states of perception 202, 203, 204 can indicate different degrees to which the driver 130 has perceived a situation element.

Das Verfahren 300 umfasst ferner das Ermitteln 303 eines Wertes des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände 202, 203, 204 der ein oder mehreren Situationselemente aus der Menge von Situationselementen. Durch die Ermittlung der Wahrnehmungszustände 202, 203, 204 für die für den Fahrbetrieb des Fahrzeugs 110 relevanten Situationselemente kann die Aufmerksamkeit des Fahrers 130 in präziser und zuverlässiger Weise ermittelt werden.The method 300 also includes determining 303 a value of the attention indicator based on the perception states 202, 203, 204 of the one or more situation elements from the set of situation elements. By determining the states of perception 202, 203, 204 for the situation elements relevant to the driving operation of the vehicle 110, the attentiveness of the driver 130 can be determined in a precise and reliable manner.

Es kann somit an einem Zeitpunkt n jeweils ein aktueller Wert SA(n) eines Aufmerksamkeitsindikators ermittelt werden, durch den der Grad der Aufmerksamkeit des Fahrers 130 eines Fahrzeugs 110 auf den Fahrbetrieb des Fahrzeugs 110 angezeigt wird. Das Fahrzeug 110, insbesondere eine Fahrfunktion des Fahrzeugs 110, kann dann in Abhängigkeit von dem Wert SA(n) des Aufmerksamkeitsindikators betrieben werden. Alternativ oder ergänzend kann eine Fernsteuerung des Fahrzeugs 110 durch einen (fernsteuernden) Fahrer 130 in Abhängigkeit von dem Wert SA(n) des Aufmerksamkeitsindikators erfolgen. So kann ein besonders zuverlässiger und sicherer Betrieb des Fahrzeugs 110 ermöglicht werden.A current value SA(n) of an alertness indicator can thus be determined at a point in time n, which indicates the degree of alertness of the driver 130 of a vehicle 110 to the driving operation of the vehicle 110 . The vehicle 110, in particular a driving function of the vehicle 110, can then be operated depending on the value SA(n) of the alertness indicator. Alternatively or additionally, the vehicle 110 can be remotely controlled by a (remotely controlling) driver 130 depending on the value SA(n) of the alertness indicator. A particularly reliable and safe operation of the vehicle 110 can thus be made possible.

Wie weiter oben dargelegt, können die Situationselemente auf Basis von Umfelddaten des Fahrzeugs 110 detektiert und/oder ermittelt werden. Die ein oder mehrere Situationselemente können dabei außerhalb des Fahrzeugs 110 angeordnet sein. Des Weiteren können ein oder mehrere Situationselemente berücksichtigt werden, die sich auf den (Fahr-) Zustand des Fahrzeugs 110 beziehen, wie z.B. auf die Fahrgeschwindigkeit des Fahrzeugs 110, auf den Lenkwinkel des Fahrzeugs 110, auf die Beschleunigung des Fahrzeugs 110, etc. Der Blickbereich 220 eines Zustands-bezogenen Situationselements kann dann z.B. mit einer Anzeige (des Zustands) auf einem Armaturenbrett des Fahrzeugs 110 assoziiert sein. Durch die Berücksichtigung von ein oder mehreren Zustands-bezogenen Situationselementen kann die Güte des ermittelten Aufmerksamkeitsindikators weiter erhöht werden.As explained above, the situation elements can be detected and/or determined on the basis of data surrounding the vehicle 110 . The one or more situation elements can be arranged outside of the vehicle 110 . Furthermore, one or more situation elements can be taken into account that relate to the (driving) state of the vehicle 110, such as the driving speed of the vehicle 110, the steering angle of the vehicle 110, the acceleration of the vehicle 110, etc Viewing area 220 of a state-related situation element may then be associated with a display (of the state) on a dashboard of the vehicle 110, for example. The quality of the ascertained attention indicator can be further increased by taking one or more state-related situation elements into account.

Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not limited to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed methods, devices and systems.

Claims (15)

Vorrichtung (111) zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers (130) eines Kraftfahrzeugs (110) auf einen Fahrbetrieb des Fahrzeugs (110); wobei die Vorrichtung (111) eingerichtet ist, - auf Basis von Umfelddaten in Bezug auf ein Umfeld des Fahrzeugs (110), eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs (110) relevant sind; - auf Basis von Messwerten (221) in Bezug auf eine Blickrichtung (131) des Fahrers (130) des Fahrzeugs (110) jeweils einen Wahrnehmungszustand (202, 203, 204) aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen (202, 203, 204) für ein oder mehrere Situationselemente aus der Menge von Situationselementen zu ermitteln; wobei die unterschiedlichen Wahrnehmungszustände (202, 203, 204) unterschiedliche Grade anzeigen, mit denen der Fahrer (130) ein Situationselement wahrgenommen hat; und - einen Wert des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände (202, 203, 204) der ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.Device (111) for determining an alertness indicator relating to the alertness of a driver (130) of a motor vehicle (110) to a driving operation of the vehicle (110); wherein the device (111) is set up - On the basis of environmental data relating to an environment of the vehicle (110) to determine a set of situation elements that are relevant to the driving operation of the vehicle (110); - On the basis of measured values (221) in relation to a line of sight (131) of the driver (130) of the vehicle (110), one perception state (202, 203, 204) from a plurality of different perception states (202, 203, 204) for determine one or more situation elements from the set of situation elements; wherein the different states of perception (202, 203, 204) indicate different degrees to which the driver (130) perceived an element of the situation; and - to determine a value of the attention indicator based on the perception states (202, 203, 204) of the one or more situation elements from the set of situation elements. Vorrichtung (111) gemäß Anspruch 1, wobei die Vorrichtung (111) eingerichtet ist, zur Ermittlung des Wahrnehmungszustands (202, 203, 204) eines Situationselements, - eine Anzahl von Messwerten (221) aus einer Vielzahl von Messwerten (221) in Bezug auf die Blickrichtung (131) des Fahrers (130) zu ermitteln, die in einen Blickbereich (220) des Situationselement fallen; wobei der Blickbereich (220) des Situationselements Blickrichtungen (131) des Fahrers (130) anzeigt, bei denen der Blick des Fahrers (130) auf das Situationselement gerichtet ist; - den Wahrnehmungszustand (202, 203, 204) des Situationselements in Abhängigkeit von der ermittelten Anzahl von Messwerten (221) aus der Mehrzahl von unterschiedlichen Wahrnehmungszuständen (202, 203, 204) auszuwählen; wobei die Mehrzahl von unterschiedlichen Wahrnehmungszuständen (202, 203, 204) insbesondere umfasst, - einen ersten Wahrnehmungszustand (202), der anzeigt, dass der Fahrer (130) das Situationselement nicht erkannt hat; - einen zweiten Wahrnehmungszustand (203), der anzeigt, dass der Fahrer (130) das Situationselement erkannt, insbesondere unbewusst erkannt, hat; und/oder - einen dritten Wahrnehmungszustand (204), der anzeigt, dass der Fahrer (130) das Situationselement wahrgenommen, insbesondere bewusst wahrgenommen, hat.Device (111) according to claim 1 , wherein the device (111) is set up to determine the perception state (202, 203, 204) of a situation element, - a number of measured values (221) from a large number of measured values (221) in relation to the viewing direction (131) of the driver (130) to determine which fall within a field of view (220) of the situation element; wherein the viewing area (220) of the situation element indicates viewing directions (131) of the driver (130) in which the driver's (130) view is directed to the situation element; - select the perception state (202, 203, 204) of the situation element from the plurality of different perception states (202, 203, 204) depending on the determined number of measured values (221); wherein the plurality of different perception states (202, 203, 204) comprises in particular - a first perception state (202) which indicates that the driver (130) has not recognized the situation element; - A second perception state (203) which indicates that the driver (130) recognized the situation element, in particular recognized it unconsciously; and/or - a third perception state (204) which indicates that the driver (130) perceived the situation element, in particular consciously perceived it. Vorrichtung (111) gemäß Anspruch 2, wobei die Vorrichtung (111) eingerichtet ist, - dem Situationselement den ersten Wahrnehmungszustand (202) zuzuweisen, wenn ermittelt wird, dass kein Messwert (221) in den Blickbereich (220) des Situationselements fällt; - dem Situationselement den zweiten Wahrnehmungszustand (203) zuzuweisen, wenn ermittelt wird, dass zumindest ein, insbesondere genau ein, Messwert (221) in den Blickbereich (220) des Situationselements fällt; und/oder - dem Situationselement den dritten Wahrnehmungszustand (204) zuzuweisen, wenn ermittelt wird, dass mehrere Messwerte (221), insbesondere zumindest eine vordefinierte Mindestanzahl von Messwerten (221), in den Blickbereich (220) des Situationselements fällt. Device (111) according to claim 2 , wherein the device (111) is set up - to assign the first perception state (202) to the situation element if it is determined that no measured value (221) falls within the field of view (220) of the situation element; - to assign the second perception state (203) to the situation element if it is determined that at least one, in particular exactly one, Measured value (221) falls within the field of view (220) of the situation element; and/or - to assign the third perception state (204) to the situation element if it is determined that several measured values (221), in particular at least a predefined minimum number of measured values (221), fall within the field of vision (220) of the situation element. Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei - die Mehrzahl von unterschiedlichen Wahrnehmungszuständen (202, 203, 204) mit einer entsprechenden Mehrzahl von unterschiedlichen individuellen Wahrnehmungswerten assoziiert ist; und - die Vorrichtung (111) eingerichtet ist, den Wert des Aufmerksamkeitsindikators auf Basis der individuellen Wahrnehmungswerte für die ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.Device (111) according to any one of the preceding claims, wherein - the plurality of different perceptual states (202, 203, 204) being associated with a corresponding plurality of different individual perceptual values; and - the device (111) is set up to determine the value of the attention indicator on the basis of the individual perception values for the one or more situation elements from the set of situation elements. Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (111) eingerichtet ist, - für die ein oder mehreren Situationselemente aus der Menge von Situationselementen jeweils einen Relevanzwert zu ermitteln, der eine Relevanz des jeweiligen Situationselements für den Fahrbetrieb des Fahrzeugs (110) anzeigt; und - den Wert des Aufmerksamkeitsindikators auf Basis der Relevanzwerte für die ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.Device (111) according to one of the preceding claims, wherein the device (111) is set up - to determine a relevance value for the one or more situation elements from the set of situation elements, which indicates a relevance of the respective situation element for the driving operation of the vehicle (110); and - determine the value of the attention indicator based on the relevance values for the one or more situation elements from the set of situation elements. Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (111) eingerichtet ist, - eine Teilmenge von Messwerten (221) aus einer Vielzahl von Messwerten (221) in Bezug auf die Blickrichtung (131) des Fahrers (130) zu ermitteln, die keinem der Situationselemente aus der Menge von Situationselementen zugewiesen werden können; und - den Wert des Aufmerksamkeitsindikators auf Basis der ermittelten Teilmenge von Messwerten (221) zu ermitteln.Device (111) according to one of the preceding claims, wherein the device (111) is set up - to determine a subset of measured values (221) from a plurality of measured values (221) in relation to the viewing direction (131) of the driver (130) which cannot be assigned to any of the situation elements from the set of situation elements; and - to determine the value of the attention indicator on the basis of the determined subset of measured values (221). Vorrichtung (111) gemäß Anspruch 6, wobei die Vorrichtung (111) eingerichtet ist, - die Messwerte (221) aus der ermittelten Teilmenge von Messwerten (221), die keinem Situationselement zugewiesen werden können, mittels eines Cluster-Algorithmus zu clustern; und - den Wert des Aufmerksamkeitsindikators auf Basis einer Anzahl von ermittelten Clustern zu ermitteln.Device (111) according to claim 6 , wherein the device (111) is set up - to cluster the measured values (221) from the determined subset of measured values (221) that cannot be assigned to any situation element, using a cluster algorithm; and - to determine the value of the attention indicator on the basis of a number of determined clusters. Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (111) eingerichtet ist, - auf Basis des Wahrnehmungszustands (202, 203, 204) der ein oder mehreren Situationselemente aus der Menge von Situationselementen einen tatsächlichen kumulierten Wahrnehmungswert zu ermitteln; - unter der Annahme, dass die ein oder mehreren Situationselemente aus der Menge von Situationselementen jeweils einen optimalen Wahrnehmungszustand (204) aufweisen, einen optimalen kumulierten Wahrnehmungswert zu ermitteln; und - den Wert des Aufmerksamkeitsindikators auf Basis des tatsächlichen kumulierten Wahrnehmungswerts und auf Basis des optimalen kumulierten Wahrnehmungswerts, insbesondere auf Basis eines Verhältnisses aus dem tatsächlichen kumulierten Wahrnehmungswert und dem optimalen kumulierten Wahrnehmungswert, zu ermitteln.Device (111) according to one of the preceding claims, wherein the device (111) is set up - to determine an actual cumulative perception value on the basis of the perception state (202, 203, 204) of the one or more situation elements from the set of situation elements; - assuming that the one or more situation elements from the set of situation elements each have an optimal perception state (204), to determine an optimal cumulative perception value; and - determine the value of the attention indicator on the basis of the actual cumulative perception value and on the basis of the optimal cumulative perception value, in particular on the basis of a ratio of the actual cumulative perception value and the optimal cumulative perception value. Vorrichtung (111) gemäß Anspruch 8, wobei die Vorrichtung (111) eingerichtet ist, den tatsächlichen kumulierten Wahrnehmungswert zu ermitteln, auf Basis von i = 1 K w i ( n ) r i ( n )
Figure DE102020126701A1_0008
wobei - K eine Anzahl von Situationselementen in der Menge von Situationselementen ist; - wi(n) ein von dem Wahrnehmungszustand (202, 203, 204) des Situationselements i abhängiger individueller Wahrnehmungswert ist; und - ri(n) ein Relevanzwert des Situationselements i ist, durch den die Relevanz des Situationselements i für den Fahrbetrieb des Fahrzeugs (110) angezeigt wird.
Device (111) according to claim 8 , wherein the device (111) is set up to determine the actual cumulative perception value on the basis of i = 1 K w i ( n ) right i ( n )
Figure DE102020126701A1_0008
where - K is a number of situation items in the set of situation items; - w i (n) is an individual perception value dependent on the perception state (202, 203, 204) of situation element i; and - r i (n) is a relevance value of the situation element i, which indicates the relevance of the situation element i for the driving operation of the vehicle (110).
Vorrichtung (111) gemäß einem der Ansprüche 8 bis 9, wobei die Vorrichtung (111) eingerichtet ist, den optimalen kumulierten Wahrnehmungswert zu ermitteln, auf Basis von i = 1 K w m a x , i ( n ) r i ( n )
Figure DE102020126701A1_0009
wobei - K eine Anzahl von Situationselementen in der Menge von Situationselementen ist; - wmax,i(n) ein mit dem optimalen Wahrnehmungszustand des Situationselements i assoziierter maximal möglicher individueller Wahrnehmungswert ist; und - ri(n) ein Relevanzwert des Situationselements i ist, durch den die Relevanz des Situationselements i für den Fahrbetrieb des Fahrzeugs (110) angezeigt wird.
Device (111) according to any one of Claims 8 until 9 , wherein the device (111) is set up to determine the optimal cumulative perception value on the basis of i = 1 K w m a x , i ( n ) right i ( n )
Figure DE102020126701A1_0009
where - K is a number of situation items in the set of situation items; - w max,i (n) is a maximum possible individual perception value associated with the optimal perception state of the situation element i; and - r i (n) is a relevance value of the situation element i, which indicates the relevance of the situation element i for the driving operation of the vehicle (110).
Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (111) eingerichtet ist, in iterativer Weise ausgehend von dem Wahrnehmungszustand (202, 203, 204) der ein oder mehreren Situationselemente aus der Menge von Situationselementen an einem vorhergehenden Zeitpunkt, auf Basis einer Vielzahl von Messwerten (221) in Bezug auf die Blickrichtung (131) des Fahrers (130) zwischen dem vorhergehenden Zeitpunkt und einem aktuellen Zeitpunkt, den Wahrnehmungszustand (202, 203, 204) der ein oder mehreren Situationselemente aus der Menge von Situationselementen an dem aktuellen Zeitpunkt zu ermitteln.Device (111) according to one of the preceding claims, wherein the device (111) is set up, in an iterative manner, starting from the perception state (202, 203, 204) of the one or more situation elements from the set of situation elements at a previous current point in time, on the basis of a large number of measured values (221) in relation to the viewing direction (131) of the driver (130) between the previous point in time and a current point in time, the perception state (202, 203, 204) of the one or more situation elements from the Set of situation elements to determine at the current point in time. Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei - die Vorrichtung (111) eingerichtet ist, den Wahrnehmungszustand (202, 203, 204) für ein Situationselement mittels eines Zustandsmodells (200) in iterativer Weise an einer Sequenz von aufeinanderfolgenden Zeitpunkten zu aktualisieren; - das Zustandsmodell (200) die Mehrzahl von unterschiedlichen Wahrnehmungszuständen (201, 202, 203, 204) umfasst; - das Zustandsmodell (200) Zustandsübergänge (211, 212, 213, 214, 215, 216) zwischen zumindest einem Teil der Wahrnehmungszustände (203, 204, 205) umfasst; und - zumindest ein Teil der Zustandsübergänge (211, 212, 213, 214, 215, 216) von den Messwerten (221) in Bezug auf die Blickrichtung (131) des Fahrers (130) für einen Zeitpunkt aus der Sequenz von Zeitpunkten abhängt.Device (111) according to any one of the preceding claims, wherein - the device (111) is set up to update the perception state (202, 203, 204) for a situation element by means of a state model (200) in an iterative manner at a sequence of consecutive points in time; - the state model (200) comprises the plurality of different perception states (201, 202, 203, 204); - the state model (200) comprises state transitions (211, 212, 213, 214, 215, 216) between at least some of the perceptual states (203, 204, 205); and - At least some of the state transitions (211, 212, 213, 214, 215, 216) depend on the measured values (221) in relation to the viewing direction (131) of the driver (130) for a point in time from the sequence of points in time. Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei die Menge von Situationselementen ein oder mehrere Situationselemente für ein oder mehrere Objekte (120, 121) in dem Umfeld des Fahrzeugs (110) umfasst, die für den Fahrbetrieb des Fahrzeugs (110) relevant sind.Device (111) according to one of the preceding claims, wherein the set of situation elements comprises one or more situation elements for one or more objects (120, 121) in the area surrounding the vehicle (110) which are relevant to the driving operation of the vehicle (110). . Vorrichtung (111) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (111) eingerichtet ist, das Fahrzeug (110) und/oder eine Fernsteuerung des Fahrzeugs (110) in Abhängigkeit von dem ermittelten Wert des Aufmerksamkeitsindikators zu betreiben.Device (111) according to one of the preceding claims, wherein the device (111) is set up to operate the vehicle (110) and/or a remote control of the vehicle (110) depending on the determined value of the alertness indicator. Verfahren (300) zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers (130) eines Kraftfahrzeugs (110) auf einen Fahrbetrieb des Fahrzeugs (110); wobei das Verfahren (300) umfasst, - Ermitteln (301), auf Basis von Umfelddaten in Bezug auf ein Umfeld des Fahrzeugs (110), einer Menge von Situationselementen, die für den Fahrbetrieb des Fahrzeugs (110) relevant sind; - Ermitteln (302), auf Basis von Messwerten (221) in Bezug auf eine Blickrichtung (131) des Fahrers (130) des Fahrzeugs (110), jeweils eines Wahrnehmungszustands (202, 203, 204) aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen (202, 203, 204) für ein oder mehrere Situationselemente aus der Menge von Situationselementen; und - Ermitteln (303) eines Wertes des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände (202, 203, 204) der ein oder mehreren Situationselemente aus der Menge von Situationselementen.Method (300) for determining an alertness indicator relating to the alertness of a driver (130) of a motor vehicle (110) to a driving operation of the vehicle (110); the method (300) comprising - Determining (301), on the basis of environmental data relating to an environment of the vehicle (110), a set of situation elements that are relevant to the driving operation of the vehicle (110); - Determination (302), on the basis of measured values (221) in relation to a viewing direction (131) of the driver (130) of the vehicle (110), in each case a perception state (202, 203, 204) from a plurality of different perception states (202 , 203, 204) for one or more situation elements from the set of situation elements; and - determining (303) a value of the attention indicator based on the perception states (202, 203, 204) of the one or more situation elements from the set of situation elements.
DE102020126701.0A 2020-10-12 2020-10-12 Method and device for determining the attentiveness of a driver Pending DE102020126701A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020126701.0A DE102020126701A1 (en) 2020-10-12 2020-10-12 Method and device for determining the attentiveness of a driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020126701.0A DE102020126701A1 (en) 2020-10-12 2020-10-12 Method and device for determining the attentiveness of a driver

Publications (1)

Publication Number Publication Date
DE102020126701A1 true DE102020126701A1 (en) 2022-04-14

Family

ID=80818048

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020126701.0A Pending DE102020126701A1 (en) 2020-10-12 2020-10-12 Method and device for determining the attentiveness of a driver

Country Status (1)

Country Link
DE (1) DE102020126701A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084367A1 (en) 2011-10-12 2013-04-18 Bayerische Motoren Werke Aktiengesellschaft Method for determining driver-side perception of e.g. pedestrian provided in surrounding of motor car by driver assistance system, involves determining perception based on frequency of view of driver striking same object per time unit
DE102013206739A1 (en) 2013-04-16 2014-10-16 Bayerische Motoren Werke Aktiengesellschaft Method for determining whether an occupant of a vehicle notices relevant objects in the vicinity of the vehicle
DE102018200980A1 (en) 2018-01-23 2019-07-25 Volkswagen Aktiengesellschaft A method for determining an object perception probability, with which a driver of a motor vehicle perceives objects in an environment of the motor vehicle, and control device for a motor vehicle and motor vehicle
DE102019201407A1 (en) 2019-02-04 2020-08-06 Continental Automotive Gmbh Method and device for controlling a driver's attention
DE102019108075A1 (en) 2019-03-28 2020-10-01 Bayerische Motoren Werke Aktiengesellschaft Method and control device for operating a sensor system of a device and a motor vehicle
DE102019114206A1 (en) 2019-05-28 2020-12-03 Valeo Schalter Und Sensoren Gmbh Method for warning a driver of a vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084367A1 (en) 2011-10-12 2013-04-18 Bayerische Motoren Werke Aktiengesellschaft Method for determining driver-side perception of e.g. pedestrian provided in surrounding of motor car by driver assistance system, involves determining perception based on frequency of view of driver striking same object per time unit
DE102013206739A1 (en) 2013-04-16 2014-10-16 Bayerische Motoren Werke Aktiengesellschaft Method for determining whether an occupant of a vehicle notices relevant objects in the vicinity of the vehicle
DE102018200980A1 (en) 2018-01-23 2019-07-25 Volkswagen Aktiengesellschaft A method for determining an object perception probability, with which a driver of a motor vehicle perceives objects in an environment of the motor vehicle, and control device for a motor vehicle and motor vehicle
DE102019201407A1 (en) 2019-02-04 2020-08-06 Continental Automotive Gmbh Method and device for controlling a driver's attention
DE102019108075A1 (en) 2019-03-28 2020-10-01 Bayerische Motoren Werke Aktiengesellschaft Method and control device for operating a sensor system of a device and a motor vehicle
DE102019114206A1 (en) 2019-05-28 2020-12-03 Valeo Schalter Und Sensoren Gmbh Method for warning a driver of a vehicle

Similar Documents

Publication Publication Date Title
DE112018000968B4 (en) Image display system, image display method and recording medium
DE112012006226B4 (en) Driver assistance device
DE112018000479T5 (en) Event prediction system, event prediction method, recording medium and moving body
DE112017001551T5 (en) Driver assistance method, this use driver assistance device, control device for automatic driving, vehicle and driver assistance system
DE112018000477B4 (en) Event prediction system, event prediction method, program and recording medium on which it is recorded
EP2777032A1 (en) Method and device for warning the driver of a motor vehicle in the event of a lack of attention
DE102016003424A1 (en) Method and device for detecting traffic signs
EP4176378A1 (en) Method for capturing the surroundings using at least two independent imaging surroundings capture sensors, apparatus for performing the method, vehicle and appropriately designed computer program
EP3631779A1 (en) Method, devices, and computer-readable storage medium comprising instructions for determining applicable traffic regulations for a motor vehicle
DE102020211970A1 (en) Method for controlling a vehicle
DE102018213600A1 (en) - gesture recognition device for a vehicle -
DE102018206743A1 (en) A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle
AT521724A1 (en) Method and device for analyzing a sensor data stream and method for driving a vehicle
DE112017007248T5 (en) DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL
DE102018213378B4 (en) Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle
DE102019217723A1 (en) DRIVING SAFETY CONTROL SYSTEM USING AMBIENT NOISE AND CONTROL METHOD THEREFOR
DE102018131470A1 (en) Driver assistance system and method for assisted operation of a motor vehicle
WO2019120709A1 (en) Method and control unit for controlling a function of a vehicle driven at least partially in an automated manner
DE102023207518A1 (en) Detection of an erratic driver
DE102020204964A1 (en) Method for monitoring current attention of a driver during operation of a vehicle
DE102019129904A1 (en) Automatic driving competence analysis
DE102022115531A1 (en) Method for determining the attention of a user of a motor vehicle, computer program, data processing device and motor vehicle
DE102020126701A1 (en) Method and device for determining the attentiveness of a driver
DE112017007253T5 (en) DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL
DE102021109496A1 (en) Method and device for monitoring the tracking of a vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNER: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE

R081 Change of applicant/patentee

Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE

Free format text: FORMER OWNERS: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE; TECHNISCHE UNIVERSITAET MUENCHEN, 80333 MUENCHEN, DE