DE102020126701A1 - Method and device for determining the attentiveness of a driver - Google Patents
Method and device for determining the attentiveness of a driver Download PDFInfo
- Publication number
- DE102020126701A1 DE102020126701A1 DE102020126701.0A DE102020126701A DE102020126701A1 DE 102020126701 A1 DE102020126701 A1 DE 102020126701A1 DE 102020126701 A DE102020126701 A DE 102020126701A DE 102020126701 A1 DE102020126701 A1 DE 102020126701A1
- Authority
- DE
- Germany
- Prior art keywords
- situation
- perception
- vehicle
- value
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000008447 perception Effects 0.000 claims abstract description 145
- 230000036626 alertness Effects 0.000 claims abstract description 24
- 230000007613 environmental effect Effects 0.000 claims abstract description 14
- 230000001186 cumulative effect Effects 0.000 claims description 29
- 230000007704 transition Effects 0.000 claims description 13
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/805—Azimuth angle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Es wird eine Vorrichtung zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers eines Kraftfahrzeugs auf den Fahrbetrieb des Fahrzeugs beschrieben. Die Vorrichtung ist eingerichtet, auf Basis von Umfelddaten in Bezug auf das Umfeld des Fahrzeugs, eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs relevant sind. Des Weiteren ist die Vorrichtung eingerichtet, auf Basis von Messwerten in Bezug auf die Blickrichtung des Fahrers des Fahrzeugs jeweils einen Wahrnehmungszustand aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen für ein oder mehrere Situationselemente aus der Menge von Situationselementen zu ermitteln. Die Vorrichtung ist ferner eingerichtet, einen Wert des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände der ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.A device for determining an alertness indicator relating to the alertness of a driver of a motor vehicle to the driving operation of the vehicle is described. The device is set up to determine a set of situation elements that are relevant to the driving operation of the vehicle on the basis of environmental data relating to the area surrounding the vehicle. Furthermore, the device is set up to determine one perception state from a plurality of different perception states for one or more situation elements from the set of situation elements on the basis of measured values relating to the viewing direction of the driver of the vehicle. The device is also set up to determine a value of the attention indicator based on the perception states of the one or more situation elements from the set of situation elements.
Description
Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Ermittlung der Aufmerksamkeit eines Fahrers eines Fahrzeugs.The invention relates to a method and a corresponding device for determining the attentiveness of a driver of a vehicle.
Ein Fahrzeug kann eine oder mehrere Fahrfunktionen aufweisen, die den Fahrer des Fahrzeugs bei der Führung des Fahrzeugs unterstützen. Dabei kann es erforderlich sein, dass der Fahrer weiterhin den Verkehr und den Betrieb der einen oder mehreren Fahrfunktionen überwacht. In einem weiteren Beispiel kann ein Fahrzeug durch einen außerhalb des Fahrzeugs angeordneten Fahrer ferngesteuert werden. Für die Sicherheit des Fahrbetriebs ist dabei typischerweise ein hoher Grad an Aufmerksamkeit des fernsteuernden Fahrers erforderlich.A vehicle can have one or more driving functions that support the driver of the vehicle in driving the vehicle. This may require the driver to continue to monitor traffic and the operation of the one or more driving functions. In another example, a vehicle may be remotely controlled by a driver located outside of the vehicle. For the safety of the driving operation, a high degree of attention from the remote-control driver is typically required.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, die Aufmerksamkeit eines Fahrers eines Fahrzeugs in Bezug auf den Fahrbetrieb des Fahrzeugs in präziser und zuverlässiger Weise zu ermitteln.The present document deals with the technical task of determining in a precise and reliable manner the attentiveness of a driver of a vehicle in relation to the driving operation of the vehicle.
Die Aufgabe wird jeweils durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.The object is solved in each case by the independent claims. Advantageous embodiments are described inter alia in the dependent claims. It is pointed out that additional features of a patent claim dependent on an independent patent claim without the features of the independent patent claim or only in combination with a subset of the features of the independent patent claim can form a separate invention independent of the combination of all features of the independent patent claim, which can be made the subject of an independent claim, a divisional application or a subsequent application. This applies equally to the technical teachings described in the description, which can form an invention independent of the features of the independent patent claims.
Gemäß einem Aspekt wird eine Vorrichtung zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit des Fahrers eines Kraftfahrzeugs (insbesondere eines PKWs oder eines LKWs oder eines Busses) auf den Fahrbetrieb und/oder auf die Fahrsituation des Fahrzeugs beschrieben. Die Vorrichtung kann eingerichtet sein, das Fahrzeug und/oder eine Fernsteuerung des Fahrzeugs in Abhängigkeit von dem ermittelten Wert des Aufmerksamkeitsindikators zu betreiben. So kann ein sicherer und komfortabler Betrieb des Fahrzeugs ermöglicht werden.According to one aspect, a device for determining an alertness indicator relating to the alertness of the driver of a motor vehicle (in particular a car or a truck or a bus) to the driving operation and/or to the driving situation of the vehicle is described. The device can be set up to operate the vehicle and/or a remote control of the vehicle depending on the determined value of the alertness indicator. Safe and comfortable operation of the vehicle can thus be made possible.
Die Vorrichtung ist eingerichtet, auf Basis von Umfelddaten in Bezug auf das Umfeld des Fahrzeugs, eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs relevant sind. Die Umfelddaten können Sensordaten von ein oder mehreren Umfeldsensoren, insbesondere einer Kamera, eines Lidarsensors, eines Radarsensors, eines Ultraschallsensors, etc., des Fahrzeugs umfassen. Die Umfelddaten können anhand einer (maschinen-erlernten) Erkennungseinheit, insbesondere anhand eines Klassifikators, analysiert werden, um die ein oder mehreren (insbesondere die 5 oder mehr, oder die 10 oder mehr) Situationselemente zu detektieren, die (an dem aktuellen Zeitpunkt n) für den Betrieb des Fahrzeugs relevant sind.The device is set up to determine a set of situation elements that are relevant to the driving operation of the vehicle on the basis of environmental data relating to the area surrounding the vehicle. The environmental data can include sensor data from one or more environmental sensors, in particular a camera, a lidar sensor, a radar sensor, an ultrasonic sensor, etc., of the vehicle. The environmental data can be analyzed using a (machine-learned) recognition unit, in particular using a classifier, in order to detect the one or more (in particular the 5 or more, or the 10 or more) situation elements which (at the current point in time n) are relevant to the operation of the vehicle.
Die Menge von Situationselementen kann zumindest ein oder mehrere Situationselemente für ein oder mehrere Objekte (z.B. einen anderen Verkehrsteilnehmer, eine Ampel, ein Verkehrszeichen, etc.) in dem Umfeld des Fahrzeugs umfassen, die für den Fahrbetrieb des Fahrzeugs (an dem aktuellen Zeitpunkt n) relevant sind.The set of situation elements can include at least one or more situation elements for one or more objects (e.g. another road user, a traffic light, a traffic sign, etc.) in the vicinity of the vehicle that are essential for driving the vehicle (at the current point in time n) are relevant.
Alternativ oder ergänzend kann die Menge von Situationselementen ein oder mehrere Bereiche im Umfeld des Fahrzeugs umfassen, an denen für einen sicheren und kollisionsfreien Betrieb des Fahrzeugs kein Objekt angeordnet sein sollte. Die ein oder mehreren Freiraum-Bereiche können in vordefinierter Weise relativ zu dem Fahrzeug angeordnet sein. Insbesondere kann der Blickbereich für einen Freiraum-Bereich im Vorfeld bekannt sein. Ein beispielhafter Freiraum-Bereich ist der Bereich eines toten Winkels des Fahrzeugs, der z.B. bei einem Abbiegevorgang des Fahrzeugs von dem Fahrer des Fahrzeugs (z.B. mittels eines Schulterblicks) betrachtet werden sollte. Für einen derartigen Freiraum-Bereich kann ein Situationselement in die Menge von Situationselementen aufgenommen werden (wenn der Freiraum-Bereich für den Fahrbetrieb des Fahrzeugs an dem aktuellen Zeitpunkt relevant ist).Alternatively or additionally, the set of situational elements can include one or more areas in the area surrounding the vehicle in which no object should be located for safe and collision-free operation of the vehicle. The one or more clearance areas may be arranged in a predefined manner relative to the vehicle. In particular, the field of view for a free space area can be known in advance. An exemplary free space area is the area of a blind spot of the vehicle, which should be observed by the driver of the vehicle (e.g. by looking over the shoulder) when the vehicle is turning, for example. A situation element can be included in the set of situation elements for such a free space area (if the free space area is relevant for the driving operation of the vehicle at the current point in time).
Es kann somit eine Menge von Situationselementen ermittelt werden (die zumindest teilweise außerhalb des Fahrzeugs angeordnet sind), die an dem aktuellen Zeitpunkt n für den Fahrbetrieb des Fahrzeugs relevant sind.It is thus possible to determine a set of situational elements (which are at least partially arranged outside the vehicle) which are relevant to the driving operation of the vehicle at the current point in time n.
Die Vorrichtung ist ferner eingerichtet, auf Basis von Messwerten in Bezug auf die Blickrichtung des Fahrers des Fahrzeugs jeweils einen Wahrnehmungszustand aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen für die ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln. Die Blickrichtung des Fahrers kann auf Basis von Sensordaten einer auf den Fahrer gerichteten Kamera ermittelt werden (wobei die Sensordaten in diesem Dokument auch als Fahrerdaten bezeichnet werden). Die Blickrichtung kann den Azimut-Winkel und/oder den Polarwinkel des Blicks des Fahrers in einem Polarkoordinatensystem anzeigen, das um den Kopf des Fahrers angeordnet ist. Der Fahrer kann ein in dem Fahrzeug angeordneter Fahrer oder ein außerhalb des Fahrzeugs angeordneter, das Fahrzeug fernsteuernder, Fahrer sein.The device is also set up to determine one perception state from a plurality of different perception states for the one or more situation elements from the set of situation elements on the basis of measured values relating to the line of sight of the driver of the vehicle. The driver's line of sight can be determined based on sensor data from a camera directed at the driver (the sensor data also being referred to as driver data in this document). The line of sight can be the azimuth angle and/or the polar angle of the driver's gaze in a polar coordinate display the data system placed around the driver's head. The driver may be a driver located in the vehicle or a driver located outside the vehicle who remotely controls the vehicle.
Die unterschiedlichen Wahrnehmungszustände können unterschiedliche Grade anzeigen, mit denen der Fahrer ein Situationselement wahrgenommen hat. Insbesondere kann die Mehrzahl von unterschiedlichen Wahrnehmungszuständen umfassen: einen ersten Wahrnehmungszustand, der anzeigt, dass der Fahrer das Situationselement nicht erkannt und/oder nicht gesehen hat; einen zweiten Wahrnehmungszustand, der anzeigt, dass der Fahrer das Situationselement erkannt und/oder gesehen, insbesondere nur unbewusst erkannt und/oder gesehen, hat; und/oder einen dritten Wahrnehmungszustand, der anzeigt, dass der Fahrer das Situationselement wahrgenommen, insbesondere bewusst wahrgenommen bzw. erfasst, hat.The different states of perception may indicate different degrees to which the driver has perceived an element of the situation. In particular, the plurality of different perception states may include: a first perception state indicating that the driver did not recognize and/or did not see the situation element; a second perception state which indicates that the driver has recognized and/or seen the situation element, in particular only recognized and/or seen it unconsciously; and/or a third perception state which indicates that the driver has perceived the situation element, in particular consciously perceived or detected it.
Es kann somit auf Basis einer Vielzahl von Messwerten der Blickrichtung des Fahrers (die zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n erfasst wurden) für jedes Situationselement aus der Menge von Situationselementen ein Wahrnehmungszustand ermittelt werden, wobei der Wahrnehmungszustand anzeigen kann, wie bewusst der Fahrer des Fahrzeugs das jeweilige Situationselement (an dem aktuellen Zeitpunkt) wahrgenommen hat.A perception state can thus be determined on the basis of a large number of measured values of the driver's line of sight (which were recorded between the previous time n - 1 and the current time n) for each situation element from the set of situation elements, with the perception state being able to indicate how the driver of the vehicle has consciously perceived the respective situation element (at the current point in time).
Die Vorrichtung ist ferner eingerichtet, den Wert des Aufmerksamkeitsindikators (an dem aktuellen Zeitpunkt n) auf Basis der Wahrnehmungszustände der ein oder mehreren Situationselemente aus der Menge von Situationselementen (an dem aktuellen Zeitpunkt n) zu ermitteln. Der Wert des Aufmerksamkeitsindikators kann somit basierend darauf ermittelt werden, wie gut der Fahrer des Fahrzeugs die Situationselemente wahrgenommen hat, die für den Fahrbetrieb des Fahrzeugs relevant sind. So kann die Aufmerksamkeit des Fahrers in besonders zuverlässiger und präziser Weise ermittelt werden.The device is also set up to determine the value of the attention indicator (at the current point in time n) on the basis of the perception states of the one or more situation elements from the set of situation elements (at the current point in time n). The value of the attention indicator can thus be determined based on how well the driver of the vehicle has perceived the situational elements that are relevant to driving the vehicle. In this way, the driver's attentiveness can be determined in a particularly reliable and precise manner.
Die Vorrichtung kann eingerichtet sein, zur Ermittlung des Wahrnehmungszustands eines bestimmten Situationselements (aus der Menge von Situationselementen), die Anzahl von Messwerten aus der Vielzahl von Messwerten in Bezug auf die Blickrichtung des Fahrers zu ermitteln, die in den Blickbereich des bestimmten Situationselement fallen. Der Blickbereich des bestimmten Situationselements kann dabei (all die) Blickrichtungen des Fahrers anzeigen, bei denen der Blick des Fahrers auf das Situationselement gerichtet ist. Der Blickbereich des bestimmten Situationselements kann durch einen Azimut-Winkelbereich und/oder durch einen Polar-Winkelbereich definiert sein.The device can be set up to determine the perception state of a specific situation element (from the set of situation elements), to determine the number of measured values from the plurality of measured values in relation to the driver's viewing direction that fall within the field of vision of the specific situation element. The viewing area of the specific situation element can display (all) the driver's viewing directions in which the driver's gaze is directed at the situation element. The field of view of the specific situation element can be defined by an azimuth angle range and/or by a polar angle range.
Es kann somit (insbesondere auf Basis der Umfelddaten) für jedes Situationselement aus der Menge von Situationselementen jeweils der mit dem jeweiligen Situationselement assoziierte Blickbereich ermittelt werden. Die Blickbereiche der Situationselemente können dann dazu verwendet werden, zu erkennen, ob die Blickrichtung des Fahrers auf ein Situationselement gerichtet ist (und somit in den Blickbereich des Situationselements fällt) oder nicht (und somit nicht in den Blickbereich des Situationselements fällt).It is thus possible (in particular on the basis of the environment data) to determine for each situation element from the set of situation elements the viewing area associated with the respective situation element. The viewing areas of the situation elements can then be used to recognize whether the driver's line of sight is directed at a situation element (and thus falls within the viewing area of the situation element) or not (and therefore does not fall within the viewing area of the situation element).
Die Vorrichtung kann ferner eingerichtet sein, den Wahrnehmungszustand des bestimmten Situationselements in Abhängigkeit von der ermittelten Anzahl von Messwerten aus der Mehrzahl von unterschiedlichen Wahrnehmungszuständen auszuwählen. Insbesondere kann dem bestimmten Situationselement (an dem aktuellen Zeitpunkt) der erste Wahrnehmungszustand zugewiesen werden, wenn ermittelt wird, dass kein Messwert in den Blickbereich des Situationselements fällt. Alternativ oder ergänzend kann dem bestimmten Situationselement der zweite Wahrnehmungszustand zugewiesen werden, wenn ermittelt wird, dass zumindest ein, insbesondere genau ein, Messwert in den Blickbereich des Situationselements fällt. Alternativ oder ergänzend kann dem bestimmten Situationselement der dritte Wahrnehmungszustand zugewiesen werden, wenn ermittelt wird, dass mehrere Messwerte, insbesondere zumindest eine vordefinierte Mindestanzahl von Messwerten, in den Blickbereich des Situationselements fällt. Diese Bedingungen für die Zuweisung eines Wahrnehmungszustands können Bedingungen für Zustandsübergänge eines Zustandsmodells zur Ermittlung des Wahrnehmungszustands sein (wie weiter unten dargelegt). So können die Wahrnehmungszustände der einzelnen Situationselemente in präziser Weise ermittelt werden.The device can also be set up to select the perception state of the specific situation element from the plurality of different perception states as a function of the determined number of measured values. In particular, the first perception state can be assigned to the specific situation element (at the current point in time) if it is determined that no measured value falls within the field of view of the situation element. Alternatively or additionally, the second perception state can be assigned to the specific situation element if it is determined that at least one, in particular exactly one, measured value falls within the field of view of the situation element. Alternatively or additionally, the third perception state can be assigned to the specific situation element if it is determined that a number of measured values, in particular at least a predefined minimum number of measured values, fall within the field of view of the situation element. These conditions for assigning a perceptual state may be conditions for state transitions of a state model for determining the perceptual state (as set forth below). In this way, the states of perception of the individual situation elements can be determined in a precise manner.
Die Vorrichtung kann eingerichtet ist, den Wahrnehmungszustand für ein bestimmtes Situationselement mittels eines Zustandsmodells in iterativer Weise an einer Sequenz von aufeinanderfolgenden Zeitpunkten n - 1, n, n + 1, ... zu aktualisieren. Das Zustandsmodell kann dabei die Mehrzahl von unterschiedlichen Wahrnehmungszustände als Zustände des Zustandsmodells (bzw. der Zustandsmaschine) aufweisen. Ferner kann das Zustandsmodell Zustandsübergänge zwischen zumindest einem Teil der Wahrnehmungszustände umfassen. Des Weiteren kann zumindest ein Teil der Zustandsübergänge von den Messwerten in Bezug auf die Blickrichtung des Fahrers für einen Zeitpunkt aus der Sequenz von Zeitpunkten abhängen (wie bereits oben dargelegt). Ein bevorzugtes Zustandsmodell wird in diesem Dokument in Zusammenhang mit
Die Vorrichtung kann somit eingerichtet sein, in iterativer Weise (z.B. unter Verwendung eines Zustandsmodells) ausgehend von dem Wahrnehmungszustand der ein oder mehreren Situationselemente aus der Menge von Situationselementen an dem vorhergehenden Zeitpunkt n - 1, auf Basis der Vielzahl von Messwerten in Bezug auf die Blickrichtung des Fahrers zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n, den Wahrnehmungszustand der ein oder mehreren Situationselemente aus der Menge von Situationselementen an dem aktuellen Zeitpunkt n zu ermitteln. Durch eine iterative Aktualisierung des Wahrnehmungszustands der einzelnen Situationselemente an aufeinanderfolgenden Zeitpunkten kann die Genauigkeit des ermittelten Wahrnehmungszustands weiter erhöht werden.The device can thus be set up, in an iterative manner (e.g. using a state model) starting from the perception state of the one or more situation elements from the set of situation elements at the previous point in time n-1, on the basis of the plurality of measured values with regard to the viewing direction of the driver between the previous point in time n−1 and the current point in time n, to determine the state of perception of the one or more situation elements from the set of situation elements at the current point in time n. The accuracy of the ascertained perception state can be further increased by an iterative updating of the perception state of the individual situation elements at successive points in time.
Die Mehrzahl von unterschiedlichen Wahrnehmungszuständen kann mit einer entsprechenden Mehrzahl von unterschiedlichen individuellen Wahrnehmungswerten w assoziiert sein. Dabei kann der individuelle Wahrnehmungswert w für ein Situationselement umso größer sein, je mehr das Situationselement von dem Fahrer wahrgenommen wird (was durch den Wahrnehmungszustand angezeigt wird, der dem Situationselement zugewiesen wurde). Die Vorrichtung kann eingerichtet sein, den Wert des Aufmerksamkeitsindikators in besonders präziser Weise auf Basis der individuellen Wahrnehmungswerte für die ein oder mehreren Situationselemente aus der Menge von Situationselementen zu ermitteln.The plurality of different perceptual states may be associated with a corresponding plurality of different individual perceptual values w. Thereby, the individual perception value w for a situation element can be larger, the more the situation element is perceived by the driver (which is indicated by the perception state assigned to the situation element). The device can be set up to determine the value of the attention indicator in a particularly precise manner on the basis of the individual perception values for the one or more situation elements from the set of situation elements.
Die Vorrichtung kann eingerichtet sein, für die ein oder mehreren Situationselemente aus der Menge von Situationselementen jeweils einen Relevanzwert r zu ermitteln, der die Relevanz des jeweiligen Situationselements für den Fahrbetrieb des Fahrzeugs anzeigt. Der Relevanzwert der einzelnen Situationselemente kann z.B. durch die (maschinen-erlernte) Erkennungseinheit bereitgestellt werden, durch die auch die Menge von relevanten Situationselementen bereitgestellt wird.The device can be set up to determine a relevance value r for each of the one or more situation elements from the set of situation elements, which value indicates the relevance of the respective situation element for the driving operation of the vehicle. The relevance value of the individual situation elements can be provided, for example, by the (machine-learned) recognition unit, which also provides the set of relevant situation elements.
Der Wert des Aufmerksamkeitsindikators kann dann in besonders präziser Weise auf Basis der Relevanzwerte für die ein oder mehreren Situationselemente aus der Menge von Situationselementen ermittelt werden.The value of the attention indicator can then be determined in a particularly precise manner on the basis of the relevance values for the one or more situation elements from the set of situation elements.
Die Vorrichtung kann eingerichtet sein, die Teilmenge von Messwerten aus der Vielzahl von Messwerten in Bezug auf die Blickrichtung des Fahrers zu ermitteln, die keinem der Situationselemente aus der Menge von Situationselementen zugewiesen werden können. Der Wert des Aufmerksamkeitsindikators kann dann auch auf Basis der ermittelten Teilmenge von Messwerten ermittelt werden. Zu diesem Zweck können die Messwerte aus der ermittelten Teilmenge von Messwerten, die keinem Situationselement zugewiesen werden können, mittels eines Cluster-Algorithmus (z.B. DBSCAN) geclustert werden. Der Wert des Aufmerksamkeitsindikators kann dann in besonders präziser Weise auf Basis der Anzahl o von ermittelten Clustern bestimmt werden.The device can be set up to determine the subset of measured values from the plurality of measured values in relation to the driver's viewing direction, which cannot be assigned to any of the situation elements from the set of situation elements. The value of the attention indicator can then also be determined on the basis of the determined subset of measured values. For this purpose, the measured values from the determined subset of measured values that cannot be assigned to any situation element can be clustered using a cluster algorithm (e.g. DBSCAN). The value of the attention indicator can then be determined in a particularly precise manner on the basis of the number o of clusters determined.
Die Vorrichtung kann eingerichtet sein, auf Basis des Wahrnehmungszustands der ein oder mehreren Situationselemente aus der Menge von Situationselementen einen tatsächlichen kumulierten Wahrnehmungswert zu ermitteln. Dabei kann der tatsächliche kumulierte Wahrnehmungswert ermittelt werden, auf Basis von
Die Vorrichtung kann ferner eingerichtet sein, unter der Annahme, dass die ein oder mehreren Situationselemente aus der Menge von Situationselementen jeweils einen optimalen Wahrnehmungszustand (insbesondere den dritten Wahrnehmungszustand) aufweisen, einen optimalen kumulierten Wahrnehmungswert zu ermitteln. Der optimale kumulierte Wahrnehmungswert kann ermittelt werden, auf Basis von
Der Wert des Aufmerksamkeitsindikators kann dann in besonders präziser Weise auf Basis des tatsächlichen kumulierten Wahrnehmungswerts und auf Basis des optimalen kumulierten Wahrnehmungswerts, insbesondere auf Basis des Verhältnisses aus dem tatsächlichen kumulierten Wahrnehmungswert und dem optimalen kumulierten Wahrnehmungswert, ermittelt werden.The value of the attention indicator can then be determined in a particularly precise manner on the basis of the actual cumulative perception value and on the basis of the optimal cumulative perception value, in particular on the basis of the ratio of the actual cumulative perception measurement value and the optimal cumulative perception value.
Gemäß einem weiteren Aspekt wird ein (Straßen-) Kraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Vorrichtung umfasst.According to a further aspect, a (road) motor vehicle (in particular a passenger car or a truck or a bus or a motorcycle) is described which comprises the device described in this document.
Gemäß einem Aspekt wird ein Verfahren zur Ermittlung eines Aufmerksamkeitsindikators in Bezug auf die Aufmerksamkeit eines Fahrers eines Kraftfahrzeugs auf den Fahrbetrieb des Fahrzeugs, insbesondere auf eine Verkehrssituation im Umfeld des Fahrzeugs, beschrieben.According to one aspect, a method for determining an alertness indicator relating to the alertness of a driver of a motor vehicle to the driving operation of the vehicle, in particular to a traffic situation in the area surrounding the vehicle, is described.
Das Verfahren umfasst das Ermitteln, auf Basis von Umfelddaten in Bezug auf das Umfeld des Fahrzeugs, einer Menge von Situationselementen, die für den Fahrbetrieb des Fahrzeugs relevant sind. Ein beispielhaftes Situationselement ist ein Objekt (z.B. ein anderer Verkehrsteilnehmer, ein Verkehrszeichen, oder eine Lichtsignalanlage) im Umfeld des Fahrzeugs. Die Menge von Situationselemente kann anhand eines maschinen-erlernten Klassifikators auf Basis der Umfelddaten ermittelt werden.The method includes determining, on the basis of environmental data relating to the area surrounding the vehicle, a set of situational elements that are relevant to the driving operation of the vehicle. An example situation element is an object (e.g. another road user, a traffic sign, or a traffic light system) in the vicinity of the vehicle. The set of situational elements can be determined using a machine-learned classifier based on the environmental data.
Das Verfahren umfasst ferner das Ermitteln, auf Basis von Messwerten in Bezug auf die Blickrichtung des Fahrers des Fahrzeugs, jeweils eines Wahrnehmungszustands aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen für die ein oder mehrere Situationselemente aus der Menge von Situationselementen. Die Messwerte in Bezug auf die Blickrichtung können auf Basis von Fahrerdaten einer auf den Fahrer gerichteten Kamera ermittelt werden. Es kann somit auf Basis der Messwerte ermittelt werden, wie gut der Fahrer die einzelnen, für den Fahrbetrieb relevanten, Situationselemente (bewusst) wahrgenommen hat.The method also includes determining one perception state from a plurality of different perception states for the one or more situation elements from the set of situation elements on the basis of measured values relating to the viewing direction of the driver of the vehicle. The measured values in relation to the viewing direction can be determined on the basis of driver data from a camera directed at the driver. It can thus be determined on the basis of the measured values how well the driver (consciously) perceived the individual situational elements relevant to driving.
Des Weiteren umfasst das Verfahren das Ermitteln eines Wertes des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände der ein oder mehreren Situationselemente aus der Menge von Situationselementen.Furthermore, the method includes determining a value of the attention indicator based on the perception states of the one or more situation elements from the set of situation elements.
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät eines Fahrzeugs) ausgeführt zu werden, und um dadurch zumindest eines der in diesem Dokument beschriebenen Verfahren auszuführen.According to a further aspect, a software (SW) program is described. The SW program can be set up to be executed on a processor (e.g. on a control unit of a vehicle) and thereby to carry out at least one of the methods described in this document.
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch zumindest eines der in diesem Dokument beschriebenen Verfahren auszuführen.According to a further aspect, a storage medium is described. The storage medium can include a SW program which is set up to be executed on a processor and thereby to execute at least one of the methods described in this document.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be noted that the methods, devices and systems described in this document can be used both alone and in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, devices and systems described in this document can be combined with one another in a variety of ways. In particular, the features of the claims can be combined with one another in many different ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
-
1a eine beispielhafte Verkehrssituation im Umfeld eines Fahrzeugs; -
1b beispielhafte Komponenten eines Fahrzeugs; -
1c eine beispielhafte Blickrichtung eines Fahrers bei einer beispielhaften Umfeldsituation; -
2 ein beispielhaftes Zustandsmodell zur Ermittlung des Wahrnehmungszustands eines Situationselements; und -
3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung eines Aufmerksamkeitsindikators für die Aufmerksamkeit des Fahrers eines Fahrzeugs.
-
1a an exemplary traffic situation in the vicinity of a vehicle; -
1b exemplary components of a vehicle; -
1c an exemplary viewing direction of a driver in an exemplary environmental situation; -
2 an exemplary state model for determining the perception state of a situation element; and -
3 a flowchart of an exemplary method for determining an attention indicator for the attention of the driver of a vehicle.
Wie eingangs dargelegt, befasst sich das vorliegende Dokument damit, die Aufmerksamkeit eines Fahrers eines Fahrzeugs in präziser und zuverlässiger Weise zu ermitteln. In diesem Zusammenhang zeigt
Beispielhafte Umfeldsensoren 112 sind eine Bildkamera, ein Radarsensor, ein Lidarsensor, ein Ultraschallsensor, etc.
Des Weiteren kann das Fahrzeug 110 ein oder mehrere Aktoren 113 zur zumindest teilweise automatisierten Längs- und/oder Querführung des Fahrzeugs 110 umfassen. Beispielhafte Aktoren 113 sind ein Antriebsmotor, eine Bremsvorrichtung und/oder eine Lenkvorrichtung.Furthermore, the
Eine Steuereinheit 111 des Fahrzeugs 110 kann eingerichtet sein, auf Basis der Umfelddaten ein Umfeldmodell in Bezug auf das Umfeld des Fahrzeugs 110 zu ermitteln. Das Umfeldmodell kann z.B. ein oder mehrere andere Verkehrsteilnehmer 120 und/oder ein oder mehrere Infrastrukturkomponenten 121 (allgemein ein oder mehrere Objekte 120, 121) im Umfeld des Fahrzeugs 110 beschreiben. Die Steuereinheit 111 kann eingerichtet sein, die ein oder mehreren Aktoren 113 des Fahrzeugs 110 in Abhängigkeit von dem Umfeldmodell zu betreiben, z.B. um eine Fahrerassistenzfunktion (etwa einen Spurhalteassistenten, einen Spurwechselassistenten, Adaptive Cruise Control, etc.) und/oder einen automatisierten Fahrmodus (z.B. gemäß SAE-Level 3 oder höher) bereitzustellen.A
Die Steuereinheit 111 des Fahrzeugs 110 kann eingerichtet sein, Umfelddaten in Bezug auf das Umfeld zu erfassen (als Funktion der Zeit). Die Fahrerdaten und die Umfelddaten können gemeinsam analysiert werden, um zu ermitteln, welche Objekte 120, 121 während des Fahrbetriebs von dem Fahrer 130 betrachtet werden. Es kann somit ermittelt werden, welche Objekte 120, 121 von dem Fahrer 130 an unterschiedlichen Zeitpunkten betrachtet werden. Mit anderen Worten, es kann das Blickverhalten des Fahrers 130 ermittelt werden.The
Aus dem Blickverhalten des Fahrers 130 kann auf den Grad der Aufmerksamkeit des Fahrers 130 geschlossen. Insbesondere kann auf Basis des Blickverhaltens des Fahrers 130 der Wert eines Aufmerksamkeitsindikators für die Aufmerksamkeit des Fahrers 130 an einem bestimmten Zeitpunkt n ermittelt werden.The degree of attentiveness of the
Die Steuereinheit 111 des Fahrzeugs 110 kann eingerichtet sein, auf Basis der Umfelddaten eine Menge von Situationselementen zu ermitteln, die für den Fahrbetrieb des Fahrzeugs 110 und/oder für die Überwachung des Fahrbetriebs des Fahrzeugs 110 an einem bestimmten Zeitpunkt n relevant sind. Die Menge von Situationselementen kann dabei insbesondere ein oder mehrere Objekte 120, 121 im Umfeld des Fahrzeugs 110 umfassen.The
Die Menge von Situationselementen kann mittels einer Maschinen-erlernten Erkennungseinheit ermittelt werden. Die Erkennungseinheit kann dabei ein oder mehrere neuronale Netze umfassen. Die Erkennungseinheit kann ausgebildet sein, die Umfelddaten (insbesondere die Bilddaten von ein oder mehreren Kameras) auszuwerten, um ein oder mehrere Situationselemente im Umfeld des Fahrzeugs 110 zu erkennen, die für den Fahrbetrieb des Fahrzeugs 110 (möglicherweise) relevant sind. Dabei kann ggf. für jedes Situationselement die Relevanz, insbesondere ein Relevanzwert, für den Fahrbetrieb ermittelt werden. Die Menge von Situationselementen kann an einer Sequenz von Zeitpunkten (iterativ) auf Basis der jeweils aktuell erfassten Umfelddaten aktualisiert werden. Dabei kann insbesondere jeweils überprüft werden, welche ein oder mehreren Situationselemente in den möglichen Sichtbereich des Fahrers 130 eintreten, und welche ein oder mehreren Situationselemente den möglichen Sichtbereich des Fahrers 130 verlassen.The set of situation elements can be determined using a machine-learned recognition unit. The recognition unit can include one or more neural networks. The recognition unit can be designed to evaluate the surroundings data (in particular the image data from one or more cameras) in order to recognize one or more situational elements in the surroundings of the
Des Weiteren kann die Steuereinheit 111 des Fahrzeugs 110 eingerichtet sein, für jedes Situationselement aus der Menge von Situationselementen einen Blickbereich zu ermitteln, wobei der Blickbereich für ein Situationselement die ein oder mehreren Blickrichtungen 131 des Fahrers 130 anzeigt, bei denen der Fahrer 130 in Richtung des Situationselements schaut. Mit anderen Worten, der Blickbereich für ein Situationselement beschreibt die Menge von Blickrichtungen 131 des Fahrers 130, die dazu führen, dass der Fahrer 130 in Richtung des Situationselements schaut. Ein Blickbereich kann dabei durch einen Azimut-Winkelbereich und/oder durch einen Polar-Winkelbereich eines Kugelkoordinatensystems definiert sein, das den Kopf des Fahrers 130 als Ursprung aufweist.Furthermore, the
Die Steuereinheit 111 kann ferner eingerichtet sein, auf Basis der Fahrerdaten eine Vielzahl von Messwerten der Blickrichtung 131 des Fahrers 130 an einer Vielzahl von Zwischenzeitpunkten m zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n zu ermitteln. Beispielsweise können zwischen zwei Zeitpunkten 10 oder mehr, oder 20 oder mehr Messwerte der Blickrichtung 131 des Fahrers 130 ermittelt werden, um das Blickverhalten des Fahrers 130 an dem aktuellen Zeitpunkt n zu beschreiben.The
Die Vielzahl von Messwerten kann den unterschiedlichen Situationselementen aus der Menge von Situationselementen für den aktuellen Zeitpunkt n zugewiesen werden. Insbesondere kann für jedes Situationselement aus der Menge von Situationselementen die Anzahl von Messwerten ermittelt werden, die in dem Blickbereich des jeweiligen Situationselements liegen. Ferner kann die Teilmenge von Messwerten ermittelt werden, die keinem Situationselement aus der Menge von Situationselementen zugewiesen werden können, d.h. die in keinen der Blickbereiche der Situationselemente aus der Menge von Situationselementen fallen. Es kann somit die Anzahl von Messwerten ohne Situationsbezug ermittelt werden. Der Aufmerksamkeitsindikator an dem aktuellen Zeitpunkt n kann dann basierend auf der Anzahl von Messwerten pro Situationselement und ggf. basierend auf der Teilmenge von Messwerten ohne Situationsbezug ermittelt werden.The large number of measured values can be assigned to the different situation elements from the set of situation elements for the current point in time n. In particular, for each situation element from the set of situation elements, the number of measured values that lie in the field of view of the respective situation element can be determined. Furthermore, the subset of measured values can be determined which cannot be assigned to any situation element from the set of situation elements, i.e. which do not fall in any of the viewing areas of the situation elements from the set of situation elements. The number of measured values can thus be determined without reference to the situation. The alertness indicator at the current point in time n can then be determined based on the number of measured values per situation element and possibly based on the subset of measured values without reference to the situation.
Die Steuereinheit 111 kann insbesondere eingerichtet sein, auf Basis der Anzahl von Messwerten pro Situationselement an dem aktuellen Zeitpunkt n für die einzelnen Situationselemente aus der Menge von Situationselementen jeweils einen Wahrnehmungszustand durch den Fahrer 130 des Fahrzeugs 110 zu ermitteln. Beispielhafte Wahrnehmungszustände sind,
- • ein erster Wahrnehmungszustand „Nicht-Erkannt“, d.h. das Situationselement wurde bisher nicht
von dem Fahrer 130 des Fahrzeugs erkannt bzw. gesehen; - • ein zweiter Wahrnehmungszustand „Erkannt“, d.h. das Situationselement wurde
von dem Fahrer 130 des Fahrzeugs erkannt bzw. gesehen; und/oder - • ein dritter Wahrnehmungszustand „Erfasst“, d.h. das Situationselement wurde
von dem Fahrer 130 desFahrzeugs 110 als relevantes Situationselement für die aktuelle Fahrsituation bzw. für den aktuellen Fahrbetrieb wahrgenommen.
- • a first perception state “not recognized”, ie the situation element has not yet been recognized or seen by the
driver 130 of the vehicle; - • a second perception state “recognized”, ie the situation element was recognized or seen by the
driver 130 of the vehicle; and or - • a third perception state “detected”, ie the situation element was perceived by the
driver 130 of thevehicle 110 as a relevant situation element for the current driving situation or for the current driving operation.
Es kann somit für jedes der Situationselemente aus der Menge von Situationselementen für den aktuellen Zeitpunkt n basierend auf der Anzahl von Messwerten für das jeweilige Situationselement der Wahrnehmungszustand des jeweiligen Situationselements an dem aktuellen Zeitpunkt n ermittelt werden. Der Aufmerksamkeitsindikator kann dann auf Basis der Wahrnehmungszustände der einzelnen Situationselemente aus der Menge von Situationselementen ermittelt werden. Insbesondere kann auf Basis der Wahrnehmungszustände der einzelnen Situationselemente ein tatsächlicher kumulierter (bzw. Gesamt-) Wahrnehmungswert SAactual(n) an dem aktuellen Zeitpunkt n ermittelt werden. Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann dann mit einem optimalen kumulierten (bzw. Gesamt-) Wahrnehmungswert SAoptimal(n) verglichen, insbesondere in Verhältnis zueinander gesetzt, werden, um den Wert des Aufmerksamkeitsindikators zu ermitteln.The perception state of the respective situation element at the current time n can thus be determined for each of the situation elements from the set of situation elements for the current time n based on the number of measured values for the respective situation element. The attention indicator can then be determined from the set of situation elements on the basis of the perception states of the individual situation elements. In particular, an actual cumulative (or total) perception value SA actual (n) at the current point in time n can be determined on the basis of the perception states of the individual situation elements. The actual cumulative perception value SA actual (n) can then be compared with an optimal cumulative (or total) perception value SA optimal (n), in particular set in relation to one another, in order to determine the value of the attention indicator.
Zur Ermittlung des tatsächlichen kumulierten Wahrnehmungswerts SAactual(n) können den möglichen Wahrnehmungszuständen eines Situationselements jeweils ein individueller Wahrnehmungswert w zugewiesen werden. Dabei kann ein relativ hoher individueller Wahrnehmungswert w einen relativ hohen Grad der Wahrnehmung und ein relativ niedriger individueller Wahrnehmungswert w einen relativ niedrigen Grad der Wahrnehmung des jeweiligen Situationselements anzeigen. Beispielhafte individuelle Wahrnehmungswerte w sind:
- • Wert w = 0 für den ersten Wahrnehmungszustand „Nicht-Erkannt“;
- • Wert w = 0,5 für den zweiten Wahrnehmungszustand „Erkannt“; und/oder
- • Wert w = 1 für den dritten Wahrnehmungszustand „Erfasst“.
- • Value w = 0 for the first perceptual state "Unrecognized";
- • Value w = 0.5 for the second perceptual state “Recognized”; and or
- • Value w = 1 for the third perceptual state “Captured”.
Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann dann auf Basis (der Summe) der individuellen Wahrnehmungswerte w der Situationselemente aus der Menge von Situationselementen ermittelt werden. Der optimalen kumulierte Wahrnehmungswert SAoptimal(n) kann auf Basis (der Summe) der maximal möglichen, individuellen Wahrnehmungswerte w der Situationselemente aus der Menge von Situationselementen ermittelt werden.The actual cumulative perception value SA actual (n) can then be determined on the basis (the sum) of the individual perception values w of the situation elements from the set of situation elements. The optimal cumulative perception value SA optimal (n) can be determined on the basis (the sum) of the maximum possible individual perception values w of the situation elements from the set of situation elements.
Die Steuereinheit 111 kann eingerichtet sein (insbesondere auf Basis der Umfelddaten), eine Relevanz der einzelnen Situationselemente aus der Menge von Situationselementen für den aktuellen Fahrbetrieb, insbesondere für die aktuelle Verkehrssituation, zu ermitteln. Insbesondere kann für die einzelnen Situationselemente jeweils ein Relevanzwert r ermittelt werden, der die Relevanz des jeweiligen Situationselements anzeigt. Ein relativ niedrige Relevanzwert r (z.B. r = 1) kann anzeigen, dass das Situationselement eine relativ niedrige Relevanz für den Fahrbetrieb aufweist, und ggf. nur optional von dem Fahrer 130 des Fahrzeugs 110 wahrgenommen bzw. erfasst werden muss. Andererseits kann ein relativ hoher Relevanzwert r (z.B. r = 2) anzeigen, dass das Situationselement eine relativ hohe Relevanz für den Fahrbetrieb aufweist, und daher von dem Fahrer 130 des Fahrzeugs 110 wahrgenommen bzw. erfasst werden sollte bzw. muss.The
Die Relevanz, insbesondere der Relevanzwert, der einzelnen Situationselemente kann bei der Ermittlung des Aufmerksamkeitsindikators berücksichtigt werden, um die Genauigkeit des Aufmerksamkeitsindikators zu erhöhen. Insbesondere können der tatsächliche kumulierte Wahrnehmungswert SAactual(n) und der optimale kumulierte Wahrnehmungswert SAoptimal(n) unter Berücksichtigung der Relevanzwerte der einzelnen Situationselemente ermittelt werden. Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann z.B. ermittelt werden, als bzw. auf Basis von
Wie bereits oben dargelegt, kann für einen aktuellen Zeitpunkt n auch die Anzahl von Messwerten der Blickrichtung 131 ermittelt werden, die keinem Situationselement aus der Menge von Situationselementen zugewiesen werden kann. Die keinem Situationselement zugewiesenen Messwerte sind ein Indikator für die Unaufmerksamkeit des Fahrers 130 und können bei der Ermittlung des Aufmerksamkeitsindikators (als reduzierende Komponente) berücksichtigt werden. Insbesondere können die Messwerte ohne zugewiesenem Situationselement mittels eines Cluster-Algorithmus (wie z.B. DBSCAN) geclustert werden. Dabei können zur Clusterung ein maximaler Abstandswert zwischen den Messwerten eines Clusters und/oder ein Minimalwert von Messwerten pro Cluster festgelegt werden. Anhand des Cluster-Algorithmus kann dann eine Anzahl o von unterschiedlichen Clustern von Messwerten ohne zugewiesenem Situationselement ermittelt werden. Eine steigende Anzahl o von unterschiedlichen Clustern ist dabei ein Indiz für eine steigende Unaufmerksamkeit des Fahrers 130. Die Anzahl o von unterschiedlichen Clustern kann mit einem Straffaktor γ multipliziert und als reduzierende Komponente bei der Ermittlung des Aufmerksamkeitsindikators berücksichtigt werden.As already explained above, the number of measured values of the
Der tatsächliche kumulierte Wahrnehmungswert SAactual(n) kann z.B. ermittelt werden, als
In dem o.g. Beispiel ist der Aufmerksamkeitsindikator SA(n) ein Wert zwischen 0 und 1, wobei 0 einen minimalen Grad der Aufmerksamkeit und 1 einen maximalen Grad der Aufmerksamkeit des Fahrers 130 anzeigt.In the above example, the alertness indicator SA(n) is a value between 0 and 1, with 0 indicating a minimum level of alertness and 1 indicating a maximum level of alertness of the
Wie bereits weiter oben dargelegt, können Wahrnehmungszustände für die einzelnen Situationselemente an dem aktuellen Zeitpunkt n ermittelt werden. Die Wahrnehmungszustände können dabei iterativ an einer Sequenz von Zeitpunkten aktualisiert werden. Insbesondere können die Wahrnehmungszustände der Signalisierungselemente an dem vorhergehenden Zeitpunkt n - 1 auf Basis der zwischen dem Zeitpunkt n - 1 und dem Zeitpunkt n erfassten Messwerte der Blickrichtung 131 aktualisiert werden.As already explained above, states of perception can be determined for the individual situation elements at the current point in time n. The states of perception can be updated iteratively at a sequence of points in time. In particular, the perception states of the signaling elements at the previous point in time n−1 can be updated on the basis of the measured values of the
Die möglichen Wahrnehmungszustände des Zustandsdiagramms 200 sind,
- • Wahrnehmungszustand 201: Situationselement ist nicht im möglichen Sichtbereich des
Fahrers 130; - • der erste Wahrnehmungszustand 202: Situationselement wurde nicht vom
Fahrer 130 erkannt; - • der zweite Wahrnehmungszustand 203: Situationselement wurde vom
Fahrer 130 erkannt; und/oder - • der dritte Wahrnehmungszustand 204: Situationselement wurde vom
Fahrer 130 erfasst.
- Perception state 201: situation element is not in the possible field of vision of
driver 130; - • the first perception state 202: situation element was not recognized by the
driver 130; - • the second perception state 203: situation element was recognized by the
driver 130; and or - • the third perception state 204: the
driver 130 detected the situation element.
Insbesondere auf Basis der Umfelddaten kann ermittelt werden, ob das Situationselement zwischen dem vorhergehenden Zeitpunkt n - 1 und dem aktuellen Zeitpunkt n in den möglichen Sichtbereich des Fahrers 130 gerückt ist. In diesem Fall erfolgt ein Zustandsübergang 211 von dem Wahrnehmungszustand 201 („nicht im Sichtbereich“) in den ersten Wahrnehmungszustand 202 („nicht erkannt“), (auch dann) wenn zwischen den beiden Zeitpunkten n - 1, n kein Messwert 221 in dem Blickbereich 220 des Situationselements lag. Das Situationselement kann dann in die Menge von Situationselementen für den Zeitpunkt n aufgenommen werden.In particular on the basis of the surroundings data it can be determined whether the situation element has moved into the possible field of vision of the
Fällt zwischen den beiden Zeitpunkten n - 1, n (zumindest oder genau) ein Messwert 221 in den Blickbereich 220 des Situationselements, so kann ein Zustandsübergang 212 von dem ersten Wahrnehmungszustand 202 („nicht erkannt“) in den zweiten Wahrnehmungszustand 203 („erkannt“) erfolgen. Fallen zwischen den beiden Zeitpunkten n - 1, n mehrere Messwerte 221 in den Blickbereich 220 des Situationselements, so kann ein Zustandsübergang 213 von dem zweiten Wahrnehmungszustand 203 („erkannt“) in den dritten Wahrnehmungszustand 204 („erfasst“) erfolgen.If a measured
Wenn erkannt wird, dass das Situationselement zwischen den beiden Zeitpunkten n - 1, n den möglichen Sichtbereich des Fahrers 130 verlässt, so kann ein Zustandsübergang 216 von einem Wahrnehmungszustand 202, 203, 204 in den Wahrnehmungszustand 201 („nicht im Sichtbereich“) erfolgen. Das Situationselement kann dann aus der Menge von Situationselementen für den Zeitpunkt n entfernt werden.If it is recognized that the situation element leaves the possible field of vision of the
Ein Situationselement, welches sich in dem möglichen Sichtbereich des Fahrers 130 befindet, kann für eine bestimmte Haltezeit in einem erhöhten Wahrnehmungszustand 203, 204 gehalten werden, bevor das Situationselement auf einen niedrigeren Wahrnehmungszustand 202, 203 (mit reduziertem Erkennungsgrad) überführt wird, wenn während der Haltezeit nicht zumindest ein Messwert 221 in den Blickbereich 220 des Situationselements fällt. Insbesondere kann das Situationselement für eine erste Haltezeit in dem dritten Wahrnehmungszustand 204 („erfasst“) gehalten werden, und in den zweiten Wahrnehmungszustand 203 („erkannt“) überführt werden (Zustandsübergang 214), wenn innerhalb der ersten Haltezeit kein Messwert 221 in den Blickbereich 222 des Situationselements fällt. In entsprechender Weise kann das Situationselement für eine zweite Haltezeit in dem zweiten Wahrnehmungszustand 203 („erkannt“) gehalten werden, und in den ersten Wahrnehmungszustand 202 („nicht erkannt“) überführt werden (Zustandsübergang 215), wenn innerhalb der zweiten Haltezeit kein Messwert 221 in den Blickbereich 222 des Situationselements fällt.A situation element that is in the possible field of vision of the
Es kann somit mittels eines Zustandsmodells bzw. mittels einer Zustandsmaschine 200 in iterativer und robuster Weise der jeweils aktuelle Wahrnehmungszustand 201, 202, 203, 204 eines Situationselements ermittelt werden.The respective
Das Verfahren 300 umfasst das Ermitteln 301, auf Basis von Umfelddaten (insbesondere auf Basis von Kameradaten) in Bezug auf das Umfeld des Fahrzeugs 110, einer Menge von Situationselementen, die für den Fahrbetrieb des Fahrzeugs 110 relevant sind. Zumindest ein Teil der Situationselemente kann dabei jeweils ein Objekt 120, 121 aus dem Umfeld des Fahrzeugs 110 sein (z.B. ein anderer Verkehrsteilnehmer 120, ein Verkehrszeichen 121, eine Ampel 121, etc.).The
Des Weiteren umfasst das Verfahren 300 das Ermitteln 302, auf Basis von Messwerten 221 in Bezug auf die Blickrichtung 131 des Fahrers 130 des Fahrzeugs 110, jeweils eines Wahrnehmungszustands 202, 203, 204 aus einer Mehrzahl von unterschiedlichen Wahrnehmungszuständen 202, 203, 204 für die ein oder mehreren Situationselemente aus der Menge von Situationselementen. Mit anderen Worten, den einzelnen Situationselementen kann jeweils ein Wahrnehmungszustand 202, 203, 204 zugewiesen werden. Die unterschiedlichen Wahrnehmungszustände 202, 203, 204 können dabei unterschiedliche Grade anzeigen, mit denen der Fahrer 130 ein Situationselement wahrgenommen hat.Furthermore, the
Das Verfahren 300 umfasst ferner das Ermitteln 303 eines Wertes des Aufmerksamkeitsindikators auf Basis der Wahrnehmungszustände 202, 203, 204 der ein oder mehreren Situationselemente aus der Menge von Situationselementen. Durch die Ermittlung der Wahrnehmungszustände 202, 203, 204 für die für den Fahrbetrieb des Fahrzeugs 110 relevanten Situationselemente kann die Aufmerksamkeit des Fahrers 130 in präziser und zuverlässiger Weise ermittelt werden.The
Es kann somit an einem Zeitpunkt n jeweils ein aktueller Wert SA(n) eines Aufmerksamkeitsindikators ermittelt werden, durch den der Grad der Aufmerksamkeit des Fahrers 130 eines Fahrzeugs 110 auf den Fahrbetrieb des Fahrzeugs 110 angezeigt wird. Das Fahrzeug 110, insbesondere eine Fahrfunktion des Fahrzeugs 110, kann dann in Abhängigkeit von dem Wert SA(n) des Aufmerksamkeitsindikators betrieben werden. Alternativ oder ergänzend kann eine Fernsteuerung des Fahrzeugs 110 durch einen (fernsteuernden) Fahrer 130 in Abhängigkeit von dem Wert SA(n) des Aufmerksamkeitsindikators erfolgen. So kann ein besonders zuverlässiger und sicherer Betrieb des Fahrzeugs 110 ermöglicht werden.A current value SA(n) of an alertness indicator can thus be determined at a point in time n, which indicates the degree of alertness of the
Wie weiter oben dargelegt, können die Situationselemente auf Basis von Umfelddaten des Fahrzeugs 110 detektiert und/oder ermittelt werden. Die ein oder mehrere Situationselemente können dabei außerhalb des Fahrzeugs 110 angeordnet sein. Des Weiteren können ein oder mehrere Situationselemente berücksichtigt werden, die sich auf den (Fahr-) Zustand des Fahrzeugs 110 beziehen, wie z.B. auf die Fahrgeschwindigkeit des Fahrzeugs 110, auf den Lenkwinkel des Fahrzeugs 110, auf die Beschleunigung des Fahrzeugs 110, etc. Der Blickbereich 220 eines Zustands-bezogenen Situationselements kann dann z.B. mit einer Anzeige (des Zustands) auf einem Armaturenbrett des Fahrzeugs 110 assoziiert sein. Durch die Berücksichtigung von ein oder mehreren Zustands-bezogenen Situationselementen kann die Güte des ermittelten Aufmerksamkeitsindikators weiter erhöht werden.As explained above, the situation elements can be detected and/or determined on the basis of data surrounding the
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not limited to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed methods, devices and systems.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020126701.0A DE102020126701A1 (en) | 2020-10-12 | 2020-10-12 | Method and device for determining the attentiveness of a driver |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020126701.0A DE102020126701A1 (en) | 2020-10-12 | 2020-10-12 | Method and device for determining the attentiveness of a driver |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020126701A1 true DE102020126701A1 (en) | 2022-04-14 |
Family
ID=80818048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020126701.0A Pending DE102020126701A1 (en) | 2020-10-12 | 2020-10-12 | Method and device for determining the attentiveness of a driver |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020126701A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011084367A1 (en) | 2011-10-12 | 2013-04-18 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining driver-side perception of e.g. pedestrian provided in surrounding of motor car by driver assistance system, involves determining perception based on frequency of view of driver striking same object per time unit |
DE102013206739A1 (en) | 2013-04-16 | 2014-10-16 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining whether an occupant of a vehicle notices relevant objects in the vicinity of the vehicle |
DE102018200980A1 (en) | 2018-01-23 | 2019-07-25 | Volkswagen Aktiengesellschaft | A method for determining an object perception probability, with which a driver of a motor vehicle perceives objects in an environment of the motor vehicle, and control device for a motor vehicle and motor vehicle |
DE102019201407A1 (en) | 2019-02-04 | 2020-08-06 | Continental Automotive Gmbh | Method and device for controlling a driver's attention |
DE102019108075A1 (en) | 2019-03-28 | 2020-10-01 | Bayerische Motoren Werke Aktiengesellschaft | Method and control device for operating a sensor system of a device and a motor vehicle |
DE102019114206A1 (en) | 2019-05-28 | 2020-12-03 | Valeo Schalter Und Sensoren Gmbh | Method for warning a driver of a vehicle |
-
2020
- 2020-10-12 DE DE102020126701.0A patent/DE102020126701A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011084367A1 (en) | 2011-10-12 | 2013-04-18 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining driver-side perception of e.g. pedestrian provided in surrounding of motor car by driver assistance system, involves determining perception based on frequency of view of driver striking same object per time unit |
DE102013206739A1 (en) | 2013-04-16 | 2014-10-16 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining whether an occupant of a vehicle notices relevant objects in the vicinity of the vehicle |
DE102018200980A1 (en) | 2018-01-23 | 2019-07-25 | Volkswagen Aktiengesellschaft | A method for determining an object perception probability, with which a driver of a motor vehicle perceives objects in an environment of the motor vehicle, and control device for a motor vehicle and motor vehicle |
DE102019201407A1 (en) | 2019-02-04 | 2020-08-06 | Continental Automotive Gmbh | Method and device for controlling a driver's attention |
DE102019108075A1 (en) | 2019-03-28 | 2020-10-01 | Bayerische Motoren Werke Aktiengesellschaft | Method and control device for operating a sensor system of a device and a motor vehicle |
DE102019114206A1 (en) | 2019-05-28 | 2020-12-03 | Valeo Schalter Und Sensoren Gmbh | Method for warning a driver of a vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112018000968B4 (en) | Image display system, image display method and recording medium | |
DE112012006226B4 (en) | Driver assistance device | |
DE112018000479T5 (en) | Event prediction system, event prediction method, recording medium and moving body | |
DE112017001551T5 (en) | Driver assistance method, this use driver assistance device, control device for automatic driving, vehicle and driver assistance system | |
DE112018000477B4 (en) | Event prediction system, event prediction method, program and recording medium on which it is recorded | |
EP2777032A1 (en) | Method and device for warning the driver of a motor vehicle in the event of a lack of attention | |
DE102016003424A1 (en) | Method and device for detecting traffic signs | |
EP4176378A1 (en) | Method for capturing the surroundings using at least two independent imaging surroundings capture sensors, apparatus for performing the method, vehicle and appropriately designed computer program | |
EP3631779A1 (en) | Method, devices, and computer-readable storage medium comprising instructions for determining applicable traffic regulations for a motor vehicle | |
DE102020211970A1 (en) | Method for controlling a vehicle | |
DE102018213600A1 (en) | - gesture recognition device for a vehicle - | |
DE102018206743A1 (en) | A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle | |
AT521724A1 (en) | Method and device for analyzing a sensor data stream and method for driving a vehicle | |
DE112017007248T5 (en) | DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL | |
DE102018213378B4 (en) | Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle | |
DE102019217723A1 (en) | DRIVING SAFETY CONTROL SYSTEM USING AMBIENT NOISE AND CONTROL METHOD THEREFOR | |
DE102018131470A1 (en) | Driver assistance system and method for assisted operation of a motor vehicle | |
WO2019120709A1 (en) | Method and control unit for controlling a function of a vehicle driven at least partially in an automated manner | |
DE102023207518A1 (en) | Detection of an erratic driver | |
DE102020204964A1 (en) | Method for monitoring current attention of a driver during operation of a vehicle | |
DE102019129904A1 (en) | Automatic driving competence analysis | |
DE102022115531A1 (en) | Method for determining the attention of a user of a motor vehicle, computer program, data processing device and motor vehicle | |
DE102020126701A1 (en) | Method and device for determining the attentiveness of a driver | |
DE112017007253T5 (en) | DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL | |
DE102021109496A1 (en) | Method and device for monitoring the tracking of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE Free format text: FORMER OWNER: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE |
|
R081 | Change of applicant/patentee |
Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE Free format text: FORMER OWNERS: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE; TECHNISCHE UNIVERSITAET MUENCHEN, 80333 MUENCHEN, DE |