DE102013210050B4 - Neurokognitive Verarbeitung eines Fahrerzustands - Google Patents

Neurokognitive Verarbeitung eines Fahrerzustands Download PDF

Info

Publication number
DE102013210050B4
DE102013210050B4 DE102013210050.7A DE102013210050A DE102013210050B4 DE 102013210050 B4 DE102013210050 B4 DE 102013210050B4 DE 102013210050 A DE102013210050 A DE 102013210050A DE 102013210050 B4 DE102013210050 B4 DE 102013210050B4
Authority
DE
Germany
Prior art keywords
driver
vehicle
sensors
sensor
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102013210050.7A
Other languages
English (en)
Other versions
DE102013210050A1 (de
Inventor
Michael D. Howard
Rajan Bhattacharyya
Michael J. Daily
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013210050A1 publication Critical patent/DE102013210050A1/de
Application granted granted Critical
Publication of DE102013210050B4 publication Critical patent/DE102013210050B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • B60W2050/0071Controller overrides driver automatically

Abstract

Fahrerassistenzsystem (100) zum Unterstützen eines Fahrers (20) eines Fahrzeugs (40) in einer umgebenden Nachbarschaft (60) des Fahrzeugs (40), wobei das Fahrerassistenzsystem (100) umfasst:mehrere Sensoren (30, 50, 70), die zum Erfassen von Daten ausgestaltet sind, wobei die Sensoren (30, 50, 70) umfassen:mindestens einen Fahrersensor (30), der zum Erfassen von Informationen mit Bezug auf einen Fahrerzustand des Fahrers (20) des Fahrzeugs (40) ausgestaltet ist,mindestens einen Fahrzeugsensor (50), der zum Erfassen von Informationen mit Bezug auf einen Fahrzeugzustand ausgestaltet ist,mindestens einen Umgebungssensor (70), der zum Erfassen von Informationen mit Bezug auf eine das Fahrzeug (40) umgebende Nachbarschaft (60) ausgestaltet ist; undeinen Prozessor, der ausgestaltet ist, um:eine Abweichung zwischen dem Fahrerzustand und dem Fahrzeugzustand auf der Grundlage der Daten, die durch die Sensoren (30, 50, 70) erhalten werden, zu detektieren,auf die Detektion der Abweichung hin eine notwendige Aktion zu bestimmen;gekennzeichnet durchein Fahrerzustandsmodul (120), welches den Fokus der Konzentration und Aufmerksamkeit des Fahrers (20) unter Verwendung eines neurokognitiven Ansatzes modelliert und seine unmittelbar bevorstehenden Aktionen vorhersagt.

Description

  • HINTERGRUND
  • Fahrzeugkollisionen sind oft zumindest teilweise auf das Verhalten, die Seh- und Hörschärfe, die Fähigkeit, Entscheidungen zu treffen, und die Reaktionsgeschwindigkeit des Fahrers zurückzuführen. Ein Bericht aus dem Jahre 1985, der auf britischen und amerikanischen Unfalldaten beruht, hat herausgefunden, dass Fahrerfehler, Rauschzustände und andere menschliche Faktoren ganz oder teilweise zu etwa 93% der Unfälle beitragen.
  • Allgemein kann ein besseres Verständnis dessen, welche menschlichen Faktoren zu Unfällen beitragen, die Entwicklung von Systemen unterstützen, die Fahrern beim Vermeiden von Kollisionen helfen.
  • Die Druckschrift DE 101 26 224 A1 offenbart ein Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 1 sowie ein Verfahren zum Unterstützen eines Fahrers eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 7.
  • In der Druckschrift DE 103 43 683 A1 ist ein Informationssystem für Kraftfahrzeuge offenbart, das Informationen an einen Fahrer des Kraftfahrzeugs in Abhängigkeit von objektiv auf den Fahrer einwirkenden Belastungsfaktoren, von Fahreraktivitäten und von fahrerindividuellen Eigenschaften des Fahrers ausgibt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß einem Beispiel der Erfindung wird ein Fahrerzustandsmodul zur Kopplung mit einem Fahrzeug, mit einer umgebenen Nachbarschaft des Fahrzeugs und mit einem Fahrer des Fahrzeugs bereitgestellt, wobei das Fahrerzustandsmodul umfasst: (i) einen Rahmenspeicher zum Speichern von Repräsentationen von Verhaltensweisen mit zugehörigem Kontext; (ii) ein Bewertungssystem zum Erstellen einer Reihenfolge der Rahmen auf der Grundlage von Zielen und Gegenleistungen; (iii) einen Arbeitsspeicher, der einen Vordergrund-Teilspeicher, einen Hintergrund-Teilspeicher und eine Steuerung zum Sortieren von Rahmen in den Vordergrund-Teilspeicher oder den Hintergrund-Teilspeicher und (iv) einen Erkennungsprozessor zum Identifizieren ausgeprägter Merkmale, die für einen Rahmen im Vordergrund-Teilspeicher oder im Hintergrund-Teilspeicher, der durch das Bewertungssystem am höchsten bewertet wurde, relevant sind.
  • Das Fahrerzustandsmodul kann ausgestaltet sein, um den Konzentrationsfokus und die Aufmerksamkeit des Fahrers zu modellieren und um unmittelbar bevorstehende Aktionen des Fahrers vorherzusagen.
  • Gemäß einigen Beispielen kann das Koppeln mit dem Fahrzeug, der umgebenden Nachbarschaft des Fahrzeugs und dem Fahrer des Fahrzeugs mithilfe von Sensoren erfolgen.
  • Bei einigen Beispielen kann das Fahrerzustandsmodul in einem Fahrzeug montiert sein.
  • Gemäß einem Beispiel kann ein Fahrerassistenzsystem zum Unterstützen eines Fahrers eines Fahrzeugs in einer umgebenden Nachbarschaft des Fahrzeugs umfassen: (i) das Fahrerzustandsmodul; (ii) ein Fahrzeugzustandsmodul zum Beschreiben des Zustands des Fahrzeugs in der umgebenden Nachbarschaft; (iii) ein Abweichungsdetektionsmodul zum Vergleichen des Fahrerzustandsmoduls und des Fahrzeugzustandsmoduls und zum Beurteilen, ob es eine Abweichung zwischen dem Fahrerzustandsmodul und dem Fahrzeugzustandsmodul gibt; (iv) ein Fahrermitarbeiter-Koppelmodul zum Bestimmen einer notwendigen Aktion, wenn das Fahrzeugzustandsmodul eine Abweichung detektiert und (v) ein Sensorvorverarbeitungsmodul zum Zusammenführen von Daten von mehreren Sensoren am Fahrzeug und zum Ausgeben von zusammengeführten Daten in Formaten, die für jedes Modul geeignet sind.
  • Bei einigen Beispielen kann das Fahrerzustandsmodul umfassen: (i) einen Rahmenspeicher zum Speichern von Repräsentationen von Verhaltensweisen mit zugehörigem Kontext; (ii) ein Bewertungssystem zum Erstellen einer Reihenfolge der Rahmen auf der Grundlage von Zielen und Gegenleistungen; (iii) einen Arbeitsspeicher, der einen Vordergrund-Teilspeicher, einen Hintergrund-Teilspeicher und eine Steuerung zum Einsortieren von Rahmen in den Vordergrund-Teilspeicher oder den Hintergrund-Teilspeicher umfasst; und (iv) einen Erkennungsprozessor zum Identifizieren ausgeprägter Merkmale, die für einen Rahmen im Vordergrund-Teilspeicher oder im Hintergrund-Teilspeicher, der durch das Bewertungssystem an höchsten bewertet wurde, relevant sind.
  • Gemäß einigen Beispielen kann das Fahrerassistenzsystem für verschiedene Anwendungen ausgestaltet sein, welche mindestens eine umfassen von: (i) Steuern des Fahrzeugs während kurzer Zeitspannen, in denen der Fahrer abgelenkt ist; (ii) eine semiautonome Steuerung des Fahrzeugs; (iii) Empfangen einer Rückkopplung vom Fahrerverhalten zum Selbstlernen durch Erfahrung; (iv) Lernen von Fahreigenschaften eines speziellen Fahrers, um die Reaktion auf den speziellen Fahrer zu optimieren; (v) Modellieren des Konzentrationsfokus und der Aufmerksamkeit des Fahrers und (vi) Vorhersagen von unmittelbar bevorstehenden Aktionen des Fahrers.
  • Bei einigen Beispielen können die mehreren Sensoren mindestens einen Fahrzeugsensor zum Erfassen von fahrzeugbezogenen Parametern umfassen. Der Fahrzeugsensor kann aus der Gruppe gewählt sein, die aus Sensoren zum Erfassen der Fahrzeuggeschwindigkeit, der Kraftmaschinentemperatur, des Kraftstoffpegels, der Kraftmaschinenumdrehungen (z.B. rpm), Sensoren, die wahrnehmen, ob Scheibenwischer im Betrieb sind, Sensoren, die wahrnehmen, ob Lichter eingeschaltet sind, Sensoren, die wahrnehmen, ob Blinkersysteme aktiviert sind, Sensoren, die die Position des Lenkrads wahrnehmen usw. besteht.
  • Bei einigen Beispielen können die mehreren Sensoren mindestens einen Fahrersensor zum Erfassen von fahrerbezogenen Parametern umfassen. Der Fahrersensor kann aus der Gruppe gewählt sein, die aus Sensoren zum Erfassen der Aufmerksamkeit des Fahrers, Kameras, die eine Rückmeldung der Wachheit des Fahrers aus einem Einnicken bereitstellen, Kameras, die eine Rückmeldung der Wachheit des Fahrers aus einem Schließen der Augen bereitstellen, Einrichtungen zum Verfolgen der Augen zum Verfolgen der Aufmerksamkeit des Fahrers aus einer Blickrichtung, am Lenkrad montierten Drucksensoren, galvanischen Hautreaktionssensoren zum Überwachen der Transpiration und Elektroenzephalographie-Sensoren besteht.
  • Bei einigen Beispielen können die mehreren Sensoren mindestens einen Umgebungssensor umfassen, um Variablen bezüglich der umgebenden Nachbarschaft des Fahrzeugs zu erfassen. Der Umgebungssensor kann aus der Gruppe gewählt sein, die aus nach vorne orientierten Kameras, Spurfolgesensoren, Abstandssensoren, die in alle Richtungen eingesetzt sind, um einen Abstand zu nahegelegenen Objekten zu bestimmen, etwa Radar, LIDAR (Lichtdetektion und Reichweitenbestimmung), Sonar, IR-Sensoren, allgemeinen Positionssensoren, GPS, Umgebungstemperatursensoren und Umgebungslichtsensoren besteht.
  • Gemäß einigen Beispielen kann das Fahrerassistenzsystem zur Verwendung in mindestens einer Anwendung ausgestaltet sein, die aus der Gruppe gewählt ist, die aus einer semiautonomen Steuerung, einer Unfallverhinderung, Alarmierung, Erziehung, Fahrersimulation und Fahrzeugkonstruktionsoptimierung besteht.
  • Bei einigen Beispielen kann das Fahrerassistenzsystem ein Bestandteil eines Fahrzeugs sein oder im Fahrzeug nachgerüstet sein.
  • Gemäß einigen Beispielen kann ein Computersoftwareprodukt bereitgestellt sein, das ein von einem Prozessor lesbares Medium umfasst, wobei in dem Medium gespeichert ist: (i) ein erster Satz von Anweisungen zum Speichern von Repräsentationen von Verhaltensweisen mit zugehörigem Kontext als Rahmen in einem Speicher; (ii) einen zweiten Satz von Anweisungen zum Erstellen einer Reihenfolge der Rahmen auf der Grundlage von Zielen und Gegenleistungen; (iii) einen dritten Satz von Anweisungen zum Halten und Einsortieren der Rahmen in Vordergrundrahmen und Hintergrundrahmen und (iv) einen vierten Satz von Anweisungen zum Identifizieren von ausgeprägten Merkmalen, die für einen Vordergrundrahmen mit der höchsten Bewertung relevant sind.
  • Gemäß einigen Beispielen kann ein Computersoftwareprodukt bereitgestellt werden, das ein von einem Prozessor lesbares Medium umfasst, wobei in dem Medium ein Satz von Anweisungen zum Unterstützen eines Fahrers eines Fahrzeugs in einer umgebenden Nachbarschaft des Fahrzeugs gespeichert ist, der umfasst: (a) einen ersten Satz von Anweisungen, der, wenn er in einen Hauptspeicher geladen und von einem Prozessor ausgeführt wird, den Konzentrationsfokus und die Aufmerksamkeit des Fahrers modelliert, um unmittelbar bevorstehende Aktionen des Fahrers vorherzusagen; (b) einen zweiten Satz von Anweisungen, der, wenn er in einen Hauptspeicher geladen und von einem Prozessor ausgeführt wird, den Zustand des Fahrzeugs in der umgebenden Nachbarschaft beschreibt; (c) einen dritten Satz von Anweisungen, der, wenn er in einen Hauptspeicher geladen und von einem Prozessor ausgeführt wird, das Vergleichen von Ergebnissen beschreibt, die von dem ersten und zweiten Satz von Anweisungen beschafft wurden, um zu beurteilen, ob es eine Abweichung gibt, die eine weitere Maßnahme erfordert; (d) einen vierten Satz von Anweisungen, der, wenn er in einen Hauptspeicher geladen und von einem Prozessor ausgeführt wird, die benötigte Maßnahme bestimmt, wenn der Ablauf des dritten Satzes von Anweisungen eine Abweichung detektiert, und (e) einen fünften Satz von Anweisungen, der, wenn er in einen Hauptspeicher geladen und von einem Prozessor ausgeführt wird, Daten von mehreren Sensoren am Fahrzeug zusammenführt und die zusammengeführten Daten in Formaten ausgibt, die für den ersten, zweiten, dritten und vierten Satz von Anweisungen geeignet sind.
  • Ein Beispiel ist auf ein Verfahren zur Kopplung mit einem Fahrzeug, mit einer umgebenden Nachbarschaft des Fahrzeugs und mit einem Fahrer des Fahrzeugs gerichtet, das umfasst, dass: (i) Repräsentationen von Fahrerverhaltensweisen mit zugehörigem Kontext als Rahmen in einem Rahmenspeicher gespeichert werden; (ii) eine Reihenfolge der Rahmen auf der Grundlage von Zielen und Gegenleistungen erstellt wird; (iii) einen Arbeitsspeicher, der umfasst, dass Rahmen festgehalten werden und in einen Vordergrund-Teilspeicher oder einen Hintergrund-Teilspeicher einsortiert werden, und (iv) ausgeprägte Merkmale identifiziert werden, die für den Rahmen mit einer höchsten Bewertung relevant sind.
  • Ein Beispiel ist auf ein Verfahren zum Verarbeiten von Sensoreingaben von mehreren Sensoren an einem Fahrzeug mit Bezug auf einen Fahrer, das Fahrzeug und eine umgebende Nachbarschaft gerichtet, wobei das Verfahren umfasst, dass: (i) Daten von den mehreren Sensoren zusammengeführt werden und die zusammengeführten Daten in geeigneten Formaten ausgegeben werden; (ii) der Konzentrationsfokus und die Aufmerksamkeit des Fahrers modelliert werden, um unmittelbar bevorstehende Aktionen des Fahrers vorherzusagen; (iii) ein Zustand des Fahrzeugs in seiner umgebenden Nachbarschaft beschrieben wird; (iv) Ergebnisse verglichen werden, die aus den vorhergesagten unmittelbar bevorstehenden Aktionen und dem Zustand des Fahrzeugs erhalten werden, um Abweichungen festzustellen; (v) beurteilt wird, ob es eine Abweichung gibt, die eine weitere Maßnahme erfordert, und (vi) die erforderliche Maßnahme bestimmt wird, wenn eine Abweichung detektiert wird.
  • Figurenliste
  • Der Gegenstand, der als die Erfindung aufgefasst wird, wird im abschließenden Abschnitt der Beschreibung speziell dargelegt und getrennt beansprucht. Beispiele werden in der nachfolgenden genauen Beschreibung beschrieben und in den beiliegenden Zeichnungen veranschaulicht, in denen:
    • 1 eine schematische Darstellung eines Autos, seines Fahrers und der umgebenden Nachbarschaft ist;
    • 2 ein konzeptionelles Blockdiagramm der Kernmodule eines Beispiels eines Fahrerassistenzsystems zur direkten Kopplung mit einem Fahrzeug und mit dem Fahrer ist;
    • 3 ein konzeptionelles Blockdiagramm ist, das die konzeptionellen Teile des Fahrerzustandsverarbeitungsmoduls von 2 in Übereinstimmung mit Beispielen der Erfindung zeigt;
    • 4 ein biologisches Modell der Steuerung und Verarbeitung der neurokognitiven Struktur und Funktion des menschlichen Gehirns ist, das als Inspiration und konzeptionelle Rechtfertigung für das Modul von 3 dient, und
    • 5 ein konzeptionelles Blockdiagramm und Flussdiagramm eines Verfahrens zum Verarbeiten von Sensoreingaben gemäß einem Beispiel der vorliegenden Erfindung ist.
  • Dort, wo es als geeignet erachtet wurde, können Bezugszeichen zwischen den Figuren wiederholt sein, um einander entsprechende oder analoge Elemente zu bezeichnen.
  • GENAUE BESCHREIBUNG
  • In der folgenden genauen Beschreibung sind zahlreiche spezielle Details offengelegt, um ein gründliches Verständnis von Beispielen der Erfindung bereitzustellen. Der Fachmann wird jedoch verstehen, dass die Beispiele der vorliegenden Erfindung ohne diese speziellen Details in die Praxis umgesetzt werden können. In anderen Fällen wurden gut bekannte Verfahren, Prozeduren, Komponenten und Schaltungen nicht im Detail beschrieben, um die vorliegende Erfindung nicht zu verschleiern.
  • Sofern es nicht speziell anders angegeben ist und wie es sich aus den folgenden Erörterungen ergibt, beziehen sich in der gesamten Beschreibung Erörterungen, die Begriffe wie etwa „verarbeiten“, „berechnen“, „speichern“, „bestimmen“ oder dergleichen verwenden, auf die Aktionen und/oder Prozesse eines Computers oder Rechensystems oder einer ähnlichen elektronischen Rechenvorrichtung, die Daten, welche als physikalische, etwa elektronische, Größen in den Registern und/oder Speichern des Rechensystems dargestellt sind, manipulieren und/oder in andere Daten umformen, die auf ähnliche Weise als physikalische Größen in den Speichern, Registern und anderen derartigen Vorrichtungen zur Informationsspeicherung, Übertragung oder Anzeige des Rechensystems dargestellt werden.
  • Unfälle können passieren, wenn gefährliche Straßen- oder Verkehrsbedingungen nicht auf einen Blick offensichtlich sind, oder wenn die Bedingungen zu kompliziert sind, damit sie der Fahrer innerhalb der verfügbaren Zeit und Entfernung wahrnimmt und darauf reagiert.
  • Das Steuern eines Fahrzeugs auf der Straße wird durch Ablenkungen wie etwa Mobiltelefone und Beifahrer und die immer größere Dichte anderer Straßenbenutzer, die sowohl Verkehr als auch Fußgänger umfassen, verkompliziert.
  • Es gibt demographische Unterschiede bei Unfallraten. Obwohl junge Leute dazu neigen, über gute Reaktionszeiten zu verfügen, werden beispielsweise überproportional mehr junge männliche Fahrer in Unfälle verwickelt, wobei Forscher beobachten, dass viele Verhaltensweisen und Einstellungen gegenüber Risiken zeigen, die sie in gefährliche Situationen als andere Straßenbenutzer bringen können. Man könnte erwarten, dass ältere Fahrer mit langsameren Reaktionen in mehr Unfälle verwickelt sind, aber dies war nicht der Fall, da sie dazu neigen, weniger und offensichtlich vorsichtiger zu fahren. Obwohl sie nur 10% der Bevölkerung sind, sind überraschenderweise Linkshänderfahrer in etwa 45% der Fahrzeugkollisionen verwickelt.
  • Jedoch weisen viele Orte, die gefährlich erscheinen, wenig oder keine Unfälle auf. Andererseits kann eine Straße, die nicht gefährlich ausschaut, eine hohe Unfallfrequenz aufweisen. Dies liegt teilweise daran, dass Fahrer, wenn sie einen Ort als gefährlich wahrnehmen, mehr Umsicht walten lassen.
  • Manchmal führen Verbesserungen bei der Autokonstruktion nicht zu einer erheblichen Verbesserung des Verhaltens. Verbesserte Bremssysteme können zu einem aggressiveren Fahren führen und gesetzlich vorgeschriebene Sicherheitsgurtgesetze wurden nicht von einem klar zuzuordnenden Absinken der Gesamttodesfälle begleitet.
  • Der Begriff „Fahrzeug“, umfasst, so wie er hier verwendet wird, alle Transportmittel mit einem Fahrer an Bord, die Flugzeuge, Züge und Schiffe, aber insbesondere verschiedene Autos, Lastwägen und Lieferwägen umfassen.
  • Das Wort „Auto“ ist, so wie es hier verwendet wird, synonym mit Kraftfahrzeug.
  • In Übereinstimmung mit Beispielen wird eine verbesserte Mensch-Maschinen-Kopplung für ein Fahrzeug bereitgestellt. Bei einigen Beispielen wird eine semiautonome Fahrzeugsteuerung ermöglicht. Insbesondere wird hier nachstehend ein Fahrerzustandsmodul zum Modellieren des Verhaltens des Fahrers eines Fahrzeugs beschrieben. Das Fahrerzustandsmodul modelliert den Fokus der Konzentration und der Aufmerksamkeit des Fahrers und sagt seine unmittelbar bevorstehenden Aktionen voraus. Das Fahrerzustandsmodul kann in ein Fahrerassistenzsystem integriert sein, das Sensoreingaben empfängt, die den Fahrer, das Fahrzeug und die Umgebung betreffen, und sagt den Zustand des Fahrers voraus. Beispiele können das Fahrzeug längere Zeitspannen lang steuern, indem sie einen sicheren Betrieb aufrecht erhalten (z.B. das Fahrzeug in der Spur halten, einen sicheren Abstand zu anderen Autos halten, Hindernisse vermeiden usw.). Diese Fähigkeit bedeutet, dass der Fahrer das Fahrzeug gegenwärtig nicht steuert. Andere Beispiele können zur Erziehung, zur Fahrersimulation und bei Autokonstruktionsanwendungen verwendet werden.
  • Obwohl es für die Neurowissenschaft ziemlich neu ist, werden Denkprozesse in der Psychologie manchmal so betrachtet, dass sie im Vordergrund oder im Hintergrund des Bewusstseins ablaufen. Daher kann beispielsweise ein Fahrer eines Fahrzeugs gerade über etwas völlig anders nachdenken, etwa über eine Diskussion, die er zuvor mit einer Gattin oder einem Kollegen hatte. Der Fahrer nimmt die Straße und die Umgebung wahr, aber seine Aufmerksamkeit ist woanders. Wenn beispielsweise etwas vor dem Fahrzeug vorbeiläuft, etwa ein Kind, wird die Aufmerksamkeit des Fahrers zum Kind umschalten. Dem Kind wird eine höhere Priorität zugewiesen und durch den Vordergrundspeicher wahrgenommen, und die Diskussion wird nach hinten in den Hintergrundspeicher verschoben. Sobald das Kind sicher vorbeigelaufen ist, wird die Wahrnehmung desselben in ihrer Bedeutung verringert und später aus dem Speicher des Fahrers vergessen, wodurch die Aufmerksamkeit des Fahrers freigemacht wird, um wieder über die Diskussion nachzudenken.
  • In Übereinstimmung mit einigen Beispielen können Veränderungen, Parameter und Variablen, die den Fahrer, das Fahrzeug und die Umgebung betreffen, detektiert und priorisiert werden, um die Reaktion des Fahrers zu modellieren. Das Fahrerzustandsmodul und das Fahrerassistenzsystem können, wenn sie in einem Fahrzeug installiert sind, den Fahrer warnen oder sie können die Fahrersteuerung überschreiben, indem sie beispielsweise bei Bedarf automatisch bremsen. Andere Beispiele, etwa diejenigen, die in einem Simulator verwendet werden können, können anderen Zwecken dienen. Zum Beispiel können Simulatorbeispiele verwendet werden, um die Wahl des geeigneten Fahrzeugs für einen speziellen Fahrer zu unterstützen.
  • Mit Bezug auf 1 ist ein Fahrer 20 eines Fahrzeugs 40 in seiner Umgebung 60 gezeigt.
  • Das Fahrzeug 40 ist allgemein mit mindestens einem und vorzugsweise mit mehreren Fahrersensoren 30 zum Erfassen von Variablen und Parametern bezüglich des Fahrers 20 versehen, zum Beispiel etwa der allgemeinen Aufmerksamkeit des Fahrers. Die Fahrersensoren 30 können Kameras umfassen, die eine Rückmeldung der Aufmerksamkeit des Fahrers aus einem Einnicken oder Schließen der Augen und dergleichen liefern. Die Fahrersensoren 30 können beispielsweise eine Vorrichtung zur Verfolgung der Augen umfassen, um die Konzentration des Fahrers durch die Richtung, in die er gerade schaut, zu verfolgen.
  • Die Fahrersensoren 30 können am Lenkrad montierte Drucksensoren und galvanische Hautreaktionssensoren umfassen, um eine Transpiration zu überwachen, wodurch sie eine Anzeige des Stresspegels des Fahrers liefern. Die Fahrersensoren 30 können andere nervenähnliche Sensoren umfassen. Zum Beispiel können als eine Unterstützung beim Wählen eines geeigneten Fahrzeugs für einen Fahrer oder zu Fahrzeugkonstruktionszwecken beispielsweise bei Simulatoranwendungen die Fahrersensoren 30 einen Elektroenzephalographie-Sensor (EEG-Sensor) umfassen, der das Messen von elektrischen Aktivitäten entlang der Kopfhaut ermöglicht und verwendet wird, um Spannungsschwankungen zu messen, die aus lonenstromflüssen in den Neuronen des Gehirns resultieren.
  • Die Fahrersensoren 30 können taktile Belastungssensoren am Lenkrad umfassen, um einen Stress des Fahrers 20 zu erfassen.
  • Das Fahrzeug 40 ist mit mindestens einem Fahrzeugsensor 50 und vorzugsweise einer Reihe von Fahrzeugsensoren versehen, um den Zustand des Fahrzeugs 40 zu erfassen, welche unter anderem Geschwindigkeitsmessinstrumente, Kraftmaschinentemperaturmessinstrumente, Kraftstoffmessinstrumente, Umdrehungszähler und dergleichen umfassen.
  • Die Fahrzeugsensoren 50 können außerdem Sensoren umfassen, die bemerken, ob Scheibenwischer, Lichter und andere Blinker verwendet werden, und die Position des Lenkrads wahrnehmen. Es ist festzustellen, dass derartige Sensoren nicht nur Informationen mit Bezug auf das Fahrzeug 40 liefern, sondern auch Informationen hinsichtlich des Fahrers 20 und der Umgebung 60 liefern können.
  • Das Fahrzeug 40 ist auch allgemein mit Umgebungssensoren 70 versehen, um die unmittelbare Umgebung 60 oder die Nachbarschaft des Fahrzeugs 40 zu erfassen. Derartige Umgebungssensoren 70 können Daten mit Hinblick auf externe Zustände wie etwa den Zustand der Straße und nahegelegene Objekte, welche andere Fahrzeuge und Fußgänger umfassen, liefern und können eine vorwärts gerichtete Kamera, Spurfolgesensoren und Abstandssensoren, die in alle Richtungen verwendet werden, umfassen, um den Abstand zu nahegelegenen Objekten zu bestimmen.
  • Die Umgebungssensoren 70 können Sensoren zum Erfassen nahegelegener Objekte umfassen, die unter Verwendung einer Vielfalt möglicher Technologien arbeiten, etwa Radar, LIDAR, Sonar, nach vorne ausgerichtete Kameras und IR-Sensoren. Die Umgebungssensoren 70 können auch Sensoren zur allgemeinen Positionierung wie etwa GPS und andere Sensortypen umfassen, um Parameter im Hinblick auf die Umgebung zu erfassen, welche Umgebungstemperatursensoren, Umgebungslichtsensoren und dergleichen umfassen.
  • Es können Sensoren mit Bezug auf die Fähigkeit des Fahrers, die Spur zu halten, oder zum Detektieren eines Schlingerns des Fahrzeugs 40 vorgesehen sein. Diese Sensoren können Informationen hinsichtlich des Wachheitsgrads des Fahrers 20 und/oder des Zustands des Fahrzeugs 40 bereitstellen. Die Handlung des Fahrens umfasst, dass das Fahrzeug 40 in Ansprechen auf die Umgebung 60 gesteuert wird und die Beschleunigung und Verzögerung, die Absolutgeschwindigkeit, ein Schlingern und Rutschen sind alle einfach zu bestimmende Reaktionen auf den Zustand des Fahrers 20, des Fahrzeugs 40 und der Umgebung 60. Es ist daher festzustellen, dass, obwohl die vorstehenden Sensoren, die nur als Beispiel bereitgestellt sind, in Fahrersensoren 30, Fahrzeugsensoren 50 und Umgebungssensoren 70 eingeteilt sind, diese Einteilung zu einem gewissen Grad willkürlich ist, und dass der gleiche Sensor Informationen mit Bezug auf zwei oder mehr von dem Fahrer 20, dem Fahrzeug 40 und der umgebenden Nachbarschaft 60 liefern kann. Zudem können einige der Sensoren in Beziehung mit einer automatischen Geschwindigkeitsregelung ACC, Spurhaltesystemen und semiautonomen Systemen stehen, welche den Betrieb des Fahrzeugs steuern.
  • Andere Sensoren können eine Eingabe erfassen, welche die Verwendung eines Mobiltelefons und andere interne Ablenkungen betreffen können.
  • Mit Bezug auf 2 ist ein Fahrerassistenzsystem 100 in Übereinstimmung mit einem Beispiel zeigt. Das Fahrerassistenzsystem 100 enthält fünf Module: (i) ein Fahrerzustandsmodul 120, welches den Fokus der Konzentration und Aufmerksamkeit des Fahrers 20 modelliert und seine unmittelbar bevorstehenden Aktionen vorhersagt; (ii) ein Fahrzeugzustandsmodul 140, welches den Zustand des Fahrzeugs 40 in der Welt beschreibt; (iii) ein Abweichungsdetektionsmodul 160, welches das Fahrerzustandsmodul 120 mit dem Fahrzeugzustandsmodul 140 vergleicht, um zu beurteilen, ob es etwas gibt, das erfordert, dass der Fahrer 20 gewarnt wird; (iv) ein Fahrermitarbeiter-Schnittstellenmodul 180, das die benötigte Aktion bestimmt, wenn das Fahrzeugzustandsmodul 140 eine Abweichung detektiert, und (v) ein Sensorvorverarbeitungsmodul 200, das Daten von mehreren Sensoren am Fahrzeug 40 zusammenführt, welche allgemein die Fahrersensoren 30, die Fahrzeugsensoren 50 und die Umgebungssensoren 70 umfassen, und diese in Formaten ausgibt, die für jedes Modul geeignet sind. Zusammengenommen bilden die Module ein semiautonomes Fahrerassistenzsystem 100, das, wenn es in einem Trägerfahrzeug 40 montiert ist, zu einem semiautonomen Steuern des Fahrzeugs 40 für kurze Zeitspannen in der Lage ist, während der Fahrer 20 abgelenkt ist. Darüber hinaus ist das autonome Fahrerassistenzsystem 100 in der Lage, auf der Grundlage einer Rückmeldung mit Bezug auf das Verhalten des Fahrers 20 zu lernen um sich auf einen speziellen Fahrer 20 zu personalisieren.
  • Das Sensorvorverarbeitungsmodul 200 kann Eingaben von drei Gruppen von Sensoren empfangen:
    1. (a) Fahrersensoren 30, die Informationen mit Bezug auf den Fahrer 20 liefern
    2. (b) Fahrzeugsensoren 50, die das Fahrzeug 40 betreffen
    3. (c) Umgebungssensoren 70, die Details im Hinblick auf die umgebende Umwelt 60 des Fahrzeugs 40 liefern, etwa den Zustand der Straße und nahegelegene Objekte.
  • Beispiele für derartige Sensoren sind hier vorstehend bereitgestellt.
  • Mit Bezug auf 3 umfasst das Fahrerzustandsmodul 120 die folgenden Komponenten und Teilsysteme: (i) einen Rahmenspeicher 122, der Repräsentationen von Verhaltensweisen mit zugehörigem Kontext speichern kann; (ii) ein Bewertungssystem 124, welches eine Reihenfolge der Rahmen auf der Grundlage von Zielen und Gegenleistungen erstellen kann, (iii) einen Arbeitsspeicher 126, der eine Steuerung 129 zum Festhalten und Einsortieren von Rahmen in Vordergrund-Teilspeicher 128 und Hintergrund-Teilspeicher 130 umfasst, und (iv) einen Erkennungs-Präprozessor 132, der ausgeprägte Merkmale identifizieren kann, die für den am höchsten bewerteten Rahmen im Vordergrundspeicher 128 relevant sind.
  • Das Fahrerzustandsmodul 120 kann mit der Umgebung 60 unter Verwendung einer Umgebungsschnittstelle 134 koppeln, welche Eingaben hinsichtlich der Umgebung 60 empfangen kann, und kann als Ausgabe 136 Verhaltenswahrscheinlichkeiten und Reaktionszeiten für den Fahrer 20 liefern.
  • Das Fahrerzustandsmodul 120 von 3 ist zur Integration als Teil eines größeren Fahrerassistenzsystems geeignet, etwa desjenigen, das in 2 gezeigt ist.
  • Im Allgemeinen verwendet das Fahrerzustandsmodul 120 einen neurokognitiven Ansatz, der auf der Struktur und Funktion der Gehirnregionen modelliert ist, die an Konzentration und Ausführungssteuerung des Verhaltens beteiligt sind. Um das Verständnis des Verhaltens und der Funktionalität des Fahrerzustandsmoduls 120 gemäß einem Beispiel zu erleichtern, wird auf 4 Bezug genommen, in der eine biologisches Modell gezeigt ist.
  • Mit Bezug nun auf 4 ist eine biologische Inspiration für Beispiele des Fahrerzustandsmoduls 120 ein detailliertes Modell der neurokognitiven Struktur und Funktion der Ausführungssteuerung des menschlichen Gehirns (3, Bezugszeichen 144) und von Konzentrationsnetzen (3, Bezugszeichen 123), wodurch es zu einer guten Vorhersagevorrichtung von menschlichen Vorlieben und Ablenkungen bei neuen Fahrsituationen wird. Daher ist festzustellen, dass 4 im Wesentlichen eine Abstraktion von Schlüsselteilen des Fahrerzustandsmoduls 120 von 3 ist, und das Fahrerzustandsmodul 120 kann als ein physikalisches Beispiel des theoretischen Modells von 4 aufgefasst werden.
  • 4 ist folglich ein kognitives Modell eines Fahrers 20, das eine Fahrerzustandsanalyse (d.h. Wahrscheinlichkeiten von aktuellen Vordergrund- und Hintergrund-Verhaltensweisen, die aktuelle und unmittelbar bevorstehende zukünftige Aktionen des Fahrers lenken) unter Verwendung eines neurokognitiven Modells bereitstellt, das ein Fahrerverhalten ausgibt.
  • In Übereinstimmung mit Beispielen können das Fahrerzustandsmodul und das Fahrerassistenzsystem von 2 und 3 ein konzeptuell analoges System verwenden, das auf dem kognitiven Modell von 4 modelliert ist. Es ist daher festzustellen, dass die in 2 und 3 gezeigten Systeme einen Ansatz zum semiautonomen Fahren eines Fahrzeugs 40 in Ansprechen auf eine Ausgabe vom Fahrerzustandsmodul 120 verkörpern können, der sich von früheren Ansätzen durch sein beispielloses detailliertes Modell der Struktur und Funktion der Gehirnregionen unterscheidet, die an Konzentration und Ausführungssteuerung des Verhaltens beteiligt sind.
  • Fahrer 20 empfangen wie andere Menschen eine visuelle, akustische und taktile sensorische Eingabe hinsichtlich ihrer Umwelt 60, d.h. ihrer Umgebung oder Nachbarschaft.
  • Das in 4 gezeigte kognitive Modell zeigt, wie eine sensorische Eingabe A, die aus einer visuellen Eingabe B, akustischen Eingabe C und taktilen Eingabe D besteht, empfangen wird. Die sensorische Eingabe A kann von einer Erkennungsvorrichtung E erkannt werden, die aus Top-Down-Vorliebenfiltern F und Bottom-Up-Ausprägungsfiltern G besteht.
  • Die Eingabe kann durch eine Klassifizierungsvorrichtung H, die allgemein ventrale Teile des Gehirns verwendet, um zu bestimmen, „was“, und einen Sucher I, der dorsale Teile des Gehirns verwendet, um zu bestimmen, „wo“, klassifiziert werden, allgemein unter Verwendung des parietalen Lappens, um sensorische Informationen von verschiedenen Modalitäten zu integrieren, speziell zum Bestimmen der räumlichen Wahrnehmung und der Navigation. Dies ermöglicht, dass Regionen des parietalen Cortexes Objekte, die visuell wahrgenommen werden, in Körperkoordinatenpositionen abbilden. Der Sucher I führt daher die erfassten Daten zu einem Bild des Orts oder der Umgebung, d.h. der Nachbarschaft des Fahrers ( 1, Bezugszeichen 60) zusammen.
  • Ausgaben von sowohl der Klassifierungsvorrichtung H als auch dem Sucher I können einem Langzeitspeicher J zugeführt werden, welcher dann Daten an einen Vergleicher K liefern kann, um die Realität mit den Plänen des Fahrers 20 zu vergleichen. Der Sucher I kann auch direkt Warnungen an den Vergleicher K liefern, wenn etwas fehlt.
  • Der Vergleicher K zusammen mit einer Verhaltenswählvorrichtung L können eine Bewertungsvorrichtung M bilden und eine Verhaltensausgabe N liefern. Die Verhaltenswählvorrichtung L wählt und klassifiziert Verhaltensweisen allgemein in Vordergrund-Verhaltensweisen O, welche im präfrontalen Cortex-Arbeitsspeicher gespeichert werden, und in Hintergrund-Verhaltensweisen P. Die Vordergrund-Verhaltensweise O aus dem Arbeitsspeicher des präfrontalen Cortexes wird zu dem Top-Down-Vorliebenfilter F für eine Top-Down-Vorliebe zurückgeführt.
  • Die Ausprägung der erfassten Daten kann sich auf den Zustand oder die Qualität beziehen, um welche sie relativ zum Hintergrund herausragen. Die Detektion der Ausprägung kann als ein Schlüsselkonzentrationsmechanismus aufgefasst werden, der das Lernen und Überleben ermöglichen kann, indem er Organismen in die Lage versetzt, ihre begrenzten Wahrnehmungs- und Kognitivressourcen auf den am besten zutreffenden Teilsatz der verfügbaren sensorischen Daten A zu fokussieren, welche visuelle B, akustische C und taktile D sensorische Daten umfassen.
  • Im Gehirn, das in 4 modelliert ist, kann der Arbeitsspeicher L so aufgefasst werden, dass er sowohl einen Vordergrund- Arbeitsspeicher O als auch einen Hintergrund- Arbeitsspeicher P enthält. Der Arbeitsspeicher L wird durch den anterioren cingulären Cortex dynamisch aktualisiert und durch die basalen Ganglien angesteuert, wodurch die am höchsten klassifizierten Verhaltensweisen im Vordergrund-Arbeitsspeicher gehalten werden. Beruhend auf den neuesten neurokognitiven Theorien zum präfrontalen Cortex speichert der Vordergrund-Arbeitsspeicher O in dem Modell Verhaltensweisen, die über einen speziellen Zugang zu Konzentrationsressourcen verfügen. Der Hintergrund-Arbeitsspeicher P speichert potentiell relevante Verhaltensweisen mit geringerem Nutzen und begrenzter Fähigkeit zu martialischer Konzentration.
  • Wenn der Einsatz der Konzentration durch ausgeprägte Stimuli angetrieben wird, wird er als bottom-up, speicherfrei und reagierend betrachtet.
  • Die Konzentration kann jedoch auch durch top-down, speicherabhängige oder antizipierende Mechanismen geleitet werden, etwa wenn Ausschau nach sich bewegenden Objekten gehalten oder zur Seite geschaut wird, bevor Straßen überquert werden. Es ist festzustellen, dass Menschen allgemein und Fahrer 20 im Besonderen die Konzentration nicht auf mehr als einen oder sehr wenige Gegenstände gleichzeitig richten können, sodass sie mit der Herausforderung konfrontiert werden, kontinuierlich unterschiedliche Bottom-Up- und Top-Down-Einflüsse zu integrieren und zu priorisieren.
  • Wieder mit Bezug auf 2 kann das Fahrerzustandsmodul 120 bei einigen Beispielen lernen, seine Reaktionen auf den Fahrer 20 auf der Grundlage einer Rückmeldung des Verhaltens des Fahrers 20, die durch das Sensorvorverarbeitungsmodul 200 bereitgestellt wird, mithilfe einer Ausführungssteuerung 144 anzupassen, und es umfasst einen Dienstcomputer 464 zum Lernen, wie Diensten Assoziationen zwischen einem Situationskontext und einem Verhalten zugeordnet werden sollen; um sich auf einen speziellen Fahrer 20 zu personalisieren.
  • Mit Bezug auf 5 ist ein konzeptionelles Blockdiagramm mit einem integrierten Flussdiagramm 500, das den Modulen von 3 entspricht, dargestellt. Das konzeptionelle Blockdiagramm mit integriertem Flussdiagramm 500 zeigt, wo jeder Prozess stattfinden kann. Der Prozess der Erfindung kann allgemein in einem Regelkreis arbeiten, wobei kontinuierlich die Situation erfasst und bewertet wird, d.h. der Zustand des Fahrers 20, des Fahrzeugs 40 und der Umgebung 60, und eine Ausgabe für das Fahrzeug 40 oder den Fahrer 20 aufweisen, um die Interaktion mit der Umgebung 60 zu optimieren.
  • Die Fahrersensoren 30, die Fahrzeugsensoren 50 und die Umgebungssensoren 70, welche die Umgebungsschritte 134 bilden, liefern eine Eingabe periodisch oder kontinuierlich an das Erkennungsvorverarbeitungsmodul 420, welches die Ausgaben von den verschiedenen Sensoren 30, 50, 70 filtern kann und eine Ausgabe, die den Fahrerzustand und den Fahrzeugzustand betrifft, an die jeweiligen in 2 gezeigten Fahrer- und Fahrzeugzustandsmodule liefern kann. Das Filtern kann ziemlich komplex sein. Ein Teil des Filterns kann von einem Top-Down-Vorliebenfilter 422 durchgeführt werden, das einem Top-Down-Vorliebenmodell folgt, welches zielorientiert ist. Eine andere Filterung kann von einem Bottom-Up-Ausprägungsfilter 424 durchgeführt werden, das ausgeprägte Merkmale aus der Sensoreingabe der Umgebungsschnittstelle 410 erkennt. Das Erkennungsvorverarbeitungsmodul 420 kann auch Konzentrationswarnungen 426 erzeugen, die an eine Warnungshandhabungsvorrichtung 462 der Bewertungsvorrichtung 460 gesendet werden können, welche diese Warnungen handhaben kann.
  • Eine Ausgabe aus dem Erkennungsvorverarbeitungsmodul 420 kann an den Rahmenspeicher 430 gesendet werden, welcher die Rahmenaktivierung 432 aktualisiert und relevante Rahmen 434 melden kann. Dies kann eine Kopplung mit dem Arbeitsspeicher 450 herstellen, welcher eine Kopplungsvorrichtung 452 zum Koppeln mit aktiven Rahmen und eine Erfassungsprioritätsextraktionsvorrichtung 454 zum Extrahieren von Erfassungsprioritäten enthalten kann, welche an das Top-Down-Vorliebenfilter 422 zurückgespeist werden können. Die Kopplungsvorrichtung 452 kann außerdem ein Signal an die Ranggebungsvorrichtung 465 des Bewertungssystems 460 liefern, welche Sensoreingaben von den Sensoren 30, 50, 70 und Warnungen 462 bewerten kann und als Ansteuersystem wirken kann. Das Bewertungssystem 460 kann das wahrscheinliche Verhalten und Reaktionszeiten des Fahrers 20 bewerten und kann diese Informationen 470 ausgeben.
  • Allgemein gesprochen werden daher Rohdaten von den Sensoren 30, 50, 70 der Umgebungsschnittstelle 410 im Erkennungspräprozessor 420 in Übereinstimmung mit einer zugeordneten Bedeutung gefiltert, was dazu führt, dass erfasste Informationen als vordergrund- oder hintergrundbezogen kategorisiert werden und dann im Hinblick auf ihre Bedeutung in eine Reihenfolge gebracht werden. Daher wird als Beispiel einem detektierten STOP-Zeichen eine höhere Bedeutung zugewiesen als einer detektierten Werbetafel. Bei einigen Beispielen können Baumstrukturen verwendet werden, um die hierarchischen Beziehungen zwischen Sensoreingaben abzubilden.
  • Ein Merkmal von einigen Beispielen besteht darin, dass diese selbstlernend sein können und die Reaktionen des Fahrers in Erfahrung bringen können und Probleme vorhersagen können, bevor sie eintreten.
  • Der in 5 gezeigte Prozess ist eine Implementierung. Es ist festzustellen, dass andere Implementierungen andere Reihen von Operationen verwenden können.
  • Die Ausgabe 470 der Bewertungsvorrichtung 460 kann eine Warnung für den Fahrer 20 oder eine semiautonome Steuerung des Fahrzeugs 40, wie zum Beispiel ein automatisches Bremsen oder auch eine Warnung an das umgebende Umfeld 60 sein, etwa ein automatisches Aufblinken der Scheinwerfer oder das Ertönen lassen der Fahrzeughupe, um beispielsweise andere Fahrer und Fußgänger zu warnen.
  • Bei einigen Beispielen können das Fahrerassistenzsystem 100 im Allgemeinen und das Fahrerzustandsmodul 120 im Besonderen mit einem dedizierten oder einem Universalprozessor implementiert werden. Der Rahmenspeicher 430, der Arbeitsspeicher 450 (126), der einen Vordergrund-Teilspeicher 128 und einen Hintergrund-Teilspeicher 130 umfasst, können unter Verwendung einer Vielfalt von Speichertechnologien implementiert sein, etwa flüchtigen Speichern. Die gelernten Fahrereigenschaften können vorzugsweise in einem dauerhafteren Speicher gespeichert werden. Die Speicher können von einem Computer lesbare oder von einem Prozessor lesbare nicht vorübergehende Speichermedien, beliebige Plattentypen, die Disketten, optische Platten, CD-ROMs, magneto-optische Platten, Festwertspeicher (ROMs), Speicher mit wahlfreiem Zugriff (RAMs), elektrisch programmierbare Festwertspeicher (EPROMs), elektrisch löschbare und programmierbare Festwertspeicher (EEPROMs), magnetische oder optische Karten, Flashspeicher oder einen beliebigen anderen Medientyp, der zum Speichern elektronischer Anweisungen geeignet ist, verwenden.
  • Beispiele können Vorrichtungen zum Durchführen der hier beschriebenen Operationen umfassen. Derartige Vorrichtungen können speziell für die gewünschten Zwecke konstruiert sein oder können Computer oder Prozessoren umfassen, die von einem Computerprogramm, das in den Computern gespeichert ist, selektiv aktiviert oder neu konfiguriert werden. Derartige Computerprogramme können in einem von einem Computer lesbaren oder von einem Prozessor lesbaren nicht vorübergehenden Speichermedium gespeichert sein, einer beliebigen Plattenart, die Disketten, optische Platten, CD-ROMs, magneto-optische Platten, Festwertspeicher (ROMs), Speicher mit wahlfreiem Zugriff (RAMs), elektrisch programmierbare Festwertspeicher (EPROMs), elektrisch löschbare und programmierbare Festwertspeicher (EEPROMs), magnetische oder optische Karten oder einen beliebigen anderen Typ von Medien, der zum Speichern elektronischer Anweisungen geeignet ist, umfassen. Es ist festzustellen, dass eine Vielfalt von Programmiersprachen verwendet werden kann, um die Lehren der Erfindung wie hier beschrieben zu implementieren. Beispiele der Erfindung können einen Artikel umfassen, etwa ein nicht vorübergehendes computer- oder prozessorlesbares nicht vorübergehendes Speichermedium, wie zum Beispiel einen Arbeitsspeicher, ein Plattenlaufwerk oder einen USB-Flashspeicher, der Anweisungen kodiert, enthält oder speichert, z.B. von einem Computer ausführbare Anweisungen, welche, wenn sie von einem Prozessor oder einem Controller ausgeführt werden, veranlassen, dass der Prozessor oder Controller hier offenbarte Verfahren ausführt. Die Anweisungen können veranlassen, dass der Prozessor oder Controller Prozesse ausführt, die hier offenbare Verfahren ausführen.
  • Hier wurden unterschiedliche Beispiele offenbart. Merkmale von bestimmten Beispielen können mit Merkmalen von anderen Beispielen kombiniert werden; daher können bestimmte Beispiele Kombinationen von Merkmalen von mehreren Beispielen sein. Die vorstehende Beschreibung der Beispiele der Erfindung wurde zum Zweck der Darstellung und Beschreibung präsentiert. Sie soll nicht umfassend sein oder die Erfindung auf die genaue offenbarte Form begrenzen. Der Fachmann wird feststellen, dass viele Modifikationen, Variationen, Substitutionen, Veränderungen und Äquivalente im Hinblick auf die vorstehende Lehre möglich sind. Es ist daher zu verstehen, dass die beigefügten Ansprüche dazu gedacht sind, alle derartigen Modifikationen und Veränderungen abzudecken, sofern sie in den tatsächlichen Geist der Erfindung fallen.

Claims (10)

  1. Fahrerassistenzsystem (100) zum Unterstützen eines Fahrers (20) eines Fahrzeugs (40) in einer umgebenden Nachbarschaft (60) des Fahrzeugs (40), wobei das Fahrerassistenzsystem (100) umfasst: mehrere Sensoren (30, 50, 70), die zum Erfassen von Daten ausgestaltet sind, wobei die Sensoren (30, 50, 70) umfassen: mindestens einen Fahrersensor (30), der zum Erfassen von Informationen mit Bezug auf einen Fahrerzustand des Fahrers (20) des Fahrzeugs (40) ausgestaltet ist, mindestens einen Fahrzeugsensor (50), der zum Erfassen von Informationen mit Bezug auf einen Fahrzeugzustand ausgestaltet ist, mindestens einen Umgebungssensor (70), der zum Erfassen von Informationen mit Bezug auf eine das Fahrzeug (40) umgebende Nachbarschaft (60) ausgestaltet ist; und einen Prozessor, der ausgestaltet ist, um: eine Abweichung zwischen dem Fahrerzustand und dem Fahrzeugzustand auf der Grundlage der Daten, die durch die Sensoren (30, 50, 70) erhalten werden, zu detektieren, auf die Detektion der Abweichung hin eine notwendige Aktion zu bestimmen; gekennzeichnet durch ein Fahrerzustandsmodul (120), welches den Fokus der Konzentration und Aufmerksamkeit des Fahrers (20) unter Verwendung eines neurokognitiven Ansatzes modelliert und seine unmittelbar bevorstehenden Aktionen vorhersagt.
  2. Fahrerassistenzsystem (100) nach Anspruch 1, wobei der mindestens eine Fahrersensor (30) aus der Gruppe von Sensoren gewählt ist, die aus Kameras, Drucksensoren, galvanischen Hautreaktionssensoren und Elektroenzephalographie-Sensoren besteht.
  3. Fahrerassistenzsystem (100) nach Anspruch 1, wobei der mindestens eine Fahrzeugsensor (50) aus der Gruppe gewählt ist, die aus Geschwindigkeitsmessgeräten, Kraftmaschinentemperaturmessgeräten, einem Kraftstoffmessgerät, einem Umdrehungszähler, Scheibenwischerverwendungssensoren, einem Lichtverwendungssensor, einem Blinkerverwendungssensor und einem Lenkradpositionssensor besteht.
  4. Fahrerassistenzsystem (100) nach Anspruch 1, wobei der mindestens eine Umgebungssensor (70) aus der Gruppe gewählt ist, die aus einer nach vorne gerichteten Kamera, einem Spurverfolgungssensor, einem Abstandssensor, einem Radarsensor, einem Sonarsensor, einem allgemeinen Positionssensor, GPS, einem Umgebungstemperatursensor und einem Umgebungslichtsensor besteht.
  5. Fahrerassistenzsystem (100) nach Anspruch 1, wobei die notwendige Aktion aus der Gruppe gewählt wird, die aus einem automatischen Bremsen, dem Ertönenlassen einer Hupe des Fahrzeugs (40) und dem Aufleuchten lassen von Scheinwerfern des Fahrzeugs (40) besteht.
  6. Fahrerassistenzsystem (100) nach Anspruch 1, das ferner einen Prozessor umfasst, der ausgestaltet ist, um Fahreigenschaften eines speziellen Fahrers (20) aus den Daten zu lernen.
  7. Verfahren zum Unterstützen eines Fahrers (20) eines Fahrzeugs (40) in einer das Fahrzeug (40) umgebende Nachbarschaft (60), wobei das Verfahren umfasst, dass: mehrere Sensoren (30, 50, 70) verwendet werden, um Daten zu beschaffen, wobei die Daten umfassen: Parameter mit Bezug auf einen Fahrerzustand des Fahrers (20), Parameter mit Bezug auf einen Fahrzeugzustand des Fahrzeugs (40), Parameter mit Bezug auf eine Nachbarschaft (60), die das Fahrzeug (40) umgibt; und ein Prozessor verwendet wird, der ausgestaltet ist, um: eine Abweichung zwischen dem Fahrerzustand und dem Fahrzeugzustand auf der Grundlage der Daten, die von den Sensoren (30, 50, 70) beschafft werden, zu detektieren, eine notwendige Aktion auf die Detektion der Abweichung hin zu bestimmen; dadurch gekennzeichnet, dass der Konzentrationsfokus und die Aufmerksamkeit des Fahrers (20) unter Verwendung eines neurokognitiven Ansatzes modelliert werden, um unmittelbar bevorstehende Aktionen des Fahrers (20) vorherzusagen.
  8. Verfahren zum Unterstützen eines Fahrers (20) nach Anspruch 7, wobei die mehreren Sensoren (30, 50, 70) einen Fahrersensor (30) umfassen, der aus der Gruppe von Sensoren gewählt ist, die aus Kameras, Drucksensoren, galvanischen Hautreaktionssensoren und Elektroenzephalographie-Sensoren besteht.
  9. Verfahren zum Unterstützen eines Fahrers (20) nach Anspruch 7, wobei die mehreren Sensoren (30, 50, 70) einen Fahrzeugsensor (50) umfassen, der aus der Gruppe gewählt ist, die aus Geschwindigkeitsmessgeräten, Kraftmaschinentemperaturmessgeräten, einem Kraftstoffmessgerät, einem Umdrehungszähler, Scheibenwischerverwendungssensoren, einem Lichtverwendungssensor, einem Blinkerverwendungssensor und einem Lenkradpositionssensor besteht.
  10. Verfahren zum Unterstützen eines Fahrers (20) nach Anspruch 7, wobei die mehreren Sensoren (30, 50, 70) einen Umgebungssensor (70) umfassen, der aus der Gruppe gewählt ist, die aus einer nach vorne gerichteten Kamera, einem Spurfolgesensor, einem Abstandssensor, Radar, Sonar, einem allgemeinen Positionssensor, GPS, einem Umgebungstemperatursensor und einem Umgebungslichtsensor besteht.
DE102013210050.7A 2012-06-01 2013-05-29 Neurokognitive Verarbeitung eines Fahrerzustands Expired - Fee Related DE102013210050B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/486,224 2012-06-01
US13/486,224 US20130325202A1 (en) 2012-06-01 2012-06-01 Neuro-cognitive driver state processing

Publications (2)

Publication Number Publication Date
DE102013210050A1 DE102013210050A1 (de) 2013-12-12
DE102013210050B4 true DE102013210050B4 (de) 2022-03-31

Family

ID=49626047

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013210050.7A Expired - Fee Related DE102013210050B4 (de) 2012-06-01 2013-05-29 Neurokognitive Verarbeitung eines Fahrerzustands

Country Status (3)

Country Link
US (1) US20130325202A1 (de)
CN (1) CN103448719B (de)
DE (1) DE102013210050B4 (de)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11511757B2 (en) * 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
JP5598411B2 (ja) * 2011-04-20 2014-10-01 日産自動車株式会社 車両用情報提供装置
US20140007010A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for determining sensory data associated with a user
US9355123B2 (en) * 2013-07-19 2016-05-31 Nant Holdings Ip, Llc Fast recognition algorithm processing, systems and methods
US9096199B2 (en) * 2013-10-09 2015-08-04 Ford Global Technologies, Llc Monitoring autonomous vehicle braking
KR101539302B1 (ko) * 2013-12-11 2015-07-30 현대자동차주식회사 차량 및 그 제어방법
EP2907730B1 (de) 2014-01-29 2017-09-06 Steering Solutions IP Holding Corporation Erkennung von Händen am Lenkrad
WO2015123647A1 (en) 2014-02-14 2015-08-20 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
US10046793B2 (en) * 2014-02-26 2018-08-14 GM Global Technology Operations LLC Methods and systems for automated driving
US10664749B1 (en) * 2014-03-28 2020-05-26 Hrl Laboratories, Llc Prefrontal modulation of context-specific memory encoding and retrieval in the hippocampus
US20150302718A1 (en) * 2014-04-22 2015-10-22 GM Global Technology Operations LLC Systems and methods for interpreting driver physiological data based on vehicle events
US9262924B2 (en) 2014-07-09 2016-02-16 Toyota Motor Engineering & Manufacturing North America, Inc. Adapting a warning output based on a driver's view
US9365218B2 (en) 2014-07-14 2016-06-14 Ford Global Technologies, Llc Selectable autonomous driving modes
JP6327994B2 (ja) * 2014-07-28 2018-05-23 ルネサスエレクトロニクス株式会社 制御システムおよび半導体装置
US9747812B2 (en) 2014-10-22 2017-08-29 Honda Motor Co., Ltd. Saliency based awareness modeling
US9904362B2 (en) * 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
DE102015003348A1 (de) * 2015-03-14 2016-09-15 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und zugehöriges Kraftfahrzeug
US10351159B2 (en) 2015-05-01 2019-07-16 Steering Solutions Ip Holding Corporation Retractable steering column with a radially projecting attachment
US10589774B2 (en) 2015-05-01 2020-03-17 Steering Solutions Ip Holding Corporation Counter rotation steering wheel
US10031522B2 (en) 2015-05-27 2018-07-24 Dov Moran Alerting predicted accidents between driverless cars
WO2016189495A1 (en) 2015-05-27 2016-12-01 Van Dyke, Marc Alerting predicted accidents between driverless cars
US9919724B2 (en) 2015-05-29 2018-03-20 Steering Solutions Ip Holding Corporation Retractable steering column with manual retrieval
US10343706B2 (en) 2015-06-11 2019-07-09 Steering Solutions Ip Holding Corporation Retractable steering column system, vehicle having the same, and method
US11560169B2 (en) 2015-06-11 2023-01-24 Steering Solutions Ip Holding Corporation Retractable steering column system and method
DE102016110791A1 (de) 2015-06-15 2016-12-15 Steering Solutions Ip Holding Corporation Gestensteuerung für ein einfahrbares Lenkrad
CN106256651B (zh) 2015-06-16 2019-06-04 操纵技术Ip控股公司 可缩回转向柱组件及方法
US9493118B1 (en) * 2015-06-24 2016-11-15 Delphi Technologies, Inc. Cognitive driver assist with variable warning for automated vehicles
US9828016B2 (en) 2015-06-24 2017-11-28 Steering Solutions Ip Holding Corporation Retractable steering column system, vehicle having the same, and method
DE102016111473A1 (de) 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Stationäre lenkradbaugruppe und verfahren
US20160375931A1 (en) 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Rotation control system for a steering wheel and method
US20160378112A1 (en) * 2015-06-26 2016-12-29 Intel Corporation Autonomous vehicle safety systems and methods
US9944307B2 (en) 2015-06-26 2018-04-17 Steering Solutions Ip Holding Corporation Steering assembly and method of monitoring a space within vehicle
US10112639B2 (en) 2015-06-26 2018-10-30 Steering Solutions Ip Holding Corporation Vehicle steering arrangement and method of making same
US9840271B2 (en) 2015-06-29 2017-12-12 Steering Solutions Ip Holding Corporation Retractable steering column with rake limiter
US9845103B2 (en) 2015-06-29 2017-12-19 Steering Solutions Ip Holding Corporation Steering arrangement
US9849904B2 (en) 2015-07-31 2017-12-26 Steering Solutions Ip Holding Corporation Retractable steering column with dual actuators
CN105172598A (zh) * 2015-08-13 2015-12-23 杭州纬恩电子科技有限公司 一种考虑个体反应时间的智能汽车碰撞预警装置及方法
US9845106B2 (en) 2015-08-31 2017-12-19 Steering Solutions Ip Holding Corporation Overload protection for belt drive mechanism
KR102147361B1 (ko) 2015-09-18 2020-08-24 삼성전자주식회사 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법
US9809158B2 (en) 2015-09-29 2017-11-07 Toyota Motor Engineering & Manufacturing North America, Inc. External indicators and notifications for vehicles with autonomous capabilities
US10160472B2 (en) 2015-10-20 2018-12-25 Steering Solutions Ip Holding Corporation Steering column with stationary hub
US9809155B2 (en) 2015-10-27 2017-11-07 Steering Solutions Ip Holding Corporation Retractable steering column assembly having lever, vehicle having retractable steering column assembly, and method
DE102015221367A1 (de) 2015-11-02 2017-05-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln von Prior-Werten einer Überwachungsvorrichtung eines Fahrers eines Kraftfahrzeuges
KR102137213B1 (ko) * 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US10053093B2 (en) 2015-11-24 2018-08-21 Bendix Commercial Vehicle Systems Llc Method and system for controlling a cruise control system
US10029725B2 (en) 2015-12-03 2018-07-24 Steering Solutions Ip Holding Corporation Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle
US10322682B2 (en) 2016-03-03 2019-06-18 Steering Solutions Ip Holding Corporation Steering wheel with keyboard
US9849828B2 (en) 2016-04-04 2017-12-26 Cnh Industrial America Llc Status indicator for an autonomous agricultural vehicle
WO2017177128A1 (en) 2016-04-08 2017-10-12 The Trustees Of Columbia University In The City Of New York Systems and methods for deep reinforcement learning using a brain-artificial intelligence interface
US10496102B2 (en) 2016-04-11 2019-12-03 Steering Solutions Ip Holding Corporation Steering system for autonomous vehicle
DE102017108692A1 (de) 2016-04-25 2017-10-26 Steering Solutions Ip Holding Corporation Steuerung einer elektrischen Servolenkung unter Verwendung von Systemzustandsvorhersagen
US10065658B2 (en) * 2016-05-23 2018-09-04 International Business Machines Corporation Bias of physical controllers in a system
US10351161B2 (en) 2016-05-27 2019-07-16 Steering Solutions Ip Holding Corporation Steering column with manual retraction
US10421476B2 (en) 2016-06-21 2019-09-24 Steering Solutions Ip Holding Corporation Self-locking telescope actuator of a steering column assembly
US10457313B2 (en) 2016-06-28 2019-10-29 Steering Solutions Ip Holding Corporation ADAS wheel locking device
US10363958B2 (en) 2016-07-26 2019-07-30 Steering Solutions Ip Holding Corporation Electric power steering mode determination and transitioning
US10160477B2 (en) 2016-08-01 2018-12-25 Steering Solutions Ip Holding Corporation Electric power steering column assembly
US10189496B2 (en) 2016-08-22 2019-01-29 Steering Solutions Ip Holding Corporation Steering assembly having a telescope drive lock assembly
US10384708B2 (en) 2016-09-12 2019-08-20 Steering Solutions Ip Holding Corporation Intermediate shaft assembly for steer-by-wire steering system
US10160473B2 (en) 2016-09-13 2018-12-25 Steering Solutions Ip Holding Corporation Steering column decoupling system
US10144383B2 (en) 2016-09-29 2018-12-04 Steering Solutions Ip Holding Corporation Steering wheel with video screen and airbag
US10399591B2 (en) 2016-10-03 2019-09-03 Steering Solutions Ip Holding Corporation Steering compensation with grip sensing
US10239552B2 (en) 2016-10-14 2019-03-26 Steering Solutions Ip Holding Corporation Rotation control assembly for a steering column
US10481602B2 (en) 2016-10-17 2019-11-19 Steering Solutions Ip Holding Corporation Sensor fusion for autonomous driving transition control
CN106502177A (zh) * 2016-11-01 2017-03-15 合肥洛维信息科技有限公司 一种驾驶培训教练车的预警系统
US10310605B2 (en) 2016-11-15 2019-06-04 Steering Solutions Ip Holding Corporation Haptic feedback for steering system controls
US10421475B2 (en) 2016-11-15 2019-09-24 Steering Solutions Ip Holding Corporation Electric actuator mechanism for retractable steering column assembly with manual override
US9862403B1 (en) 2016-11-29 2018-01-09 Steering Solutions Ip Holding Corporation Manually retractable steering column assembly for autonomous vehicle
US10351160B2 (en) 2016-11-30 2019-07-16 Steering Solutions Ip Holding Corporation Steering column assembly having a sensor assembly
US10780915B2 (en) 2016-12-07 2020-09-22 Steering Solutions Ip Holding Corporation Vehicle steering system having a user experience based automated driving to manual driving transition system and method
US10370022B2 (en) 2017-02-13 2019-08-06 Steering Solutions Ip Holding Corporation Steering column assembly for autonomous vehicle
US10385930B2 (en) 2017-02-21 2019-08-20 Steering Solutions Ip Holding Corporation Ball coupling assembly for steering column assembly
EP3370085B1 (de) * 2017-03-01 2021-10-13 Aptiv Technologies Limited Verfahren zur verfolgung mehrerer objekte in der umgebung eines host-fahrzeugs
CN110381831B (zh) * 2017-03-03 2022-08-02 福特全球技术公司 车辆事件识别
US10449927B2 (en) 2017-04-13 2019-10-22 Steering Solutions Ip Holding Corporation Steering system having anti-theft capabilities
DE102017206585B4 (de) * 2017-04-19 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Insassenunterstützungsverfahren, Insassenunterstützungssystem und Fahrzeug
CN107229973B (zh) * 2017-05-12 2021-11-19 中国科学院深圳先进技术研究院 一种用于车辆自动驾驶的策略网络模型的生成方法及装置
DE102017208971A1 (de) 2017-05-29 2018-11-29 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur unterstützung eines in einem fahrzeug befindlichen fahrzeuginsassen
US10357195B2 (en) 2017-08-01 2019-07-23 Panasonic Intellectual Property Management Co., Ltd. Pupillometry and sensor fusion for monitoring and predicting a vehicle operator's condition
US10739774B2 (en) 2017-10-06 2020-08-11 Honda Motor Co., Ltd. Keyframe based autonomous vehicle operation
US10379535B2 (en) 2017-10-24 2019-08-13 Lear Corporation Drowsiness sensing system
EP3486140B1 (de) 2017-11-20 2021-01-20 Steering Solutions IP Holding Corporation Sichtbasiertes aktives lenksystem
US10836403B2 (en) 2017-12-04 2020-11-17 Lear Corporation Distractedness sensing system
JP7223758B2 (ja) * 2017-12-08 2023-02-16 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 車両の望ましくない動作を決定すること
CN108146252A (zh) * 2017-12-22 2018-06-12 南京越博电驱动系统有限公司 一种基于卫星信号的电动车辆能量回收系统
US10210409B1 (en) * 2018-02-07 2019-02-19 Lear Corporation Seating system with occupant stimulation and sensing
IT201700132925A1 (it) * 2018-03-09 2019-09-09 Davide Venditti Sistema integrato di telemetria
US10875566B2 (en) 2018-03-22 2020-12-29 Steering Solutions Ip Holding Corporation Stow release assembly for a manually adjustable steering column assembly
WO2019186560A1 (en) * 2018-03-28 2019-10-03 Adam Cogtech Ltd. Cognitive state-based seamless stimuli
US10867218B2 (en) 2018-04-26 2020-12-15 Lear Corporation Biometric sensor fusion to classify vehicle passenger state
US10974756B2 (en) 2018-07-31 2021-04-13 Steering Solutions Ip Holding Corporation Clutch device latching system and method
CN109121108A (zh) * 2018-08-01 2019-01-01 佛山市苔藓云链科技有限公司 一种基于物联网的感知控制系统
US10347132B1 (en) * 2018-10-30 2019-07-09 GM Global Technology Operations LLC Adjacent pedestrian collision mitigation
DE102018128550B4 (de) * 2018-11-14 2022-03-17 B-Horizon GmbH Verfahren zum Überwachen eines Fahrers eines Fahrzeugs mittels eines Messsystems
WO2021003636A1 (en) * 2019-07-08 2021-01-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus applied in autonomous vehicle
US11524691B2 (en) 2019-07-29 2022-12-13 Lear Corporation System and method for controlling an interior environmental condition in a vehicle
JP7314813B2 (ja) * 2020-01-29 2023-07-26 トヨタ自動車株式会社 車両制御方法、車両用制御装置及びサーバ
CN111291812B (zh) * 2020-02-11 2023-10-17 浙江大华技术股份有限公司 属性类别的获取方法及装置、存储介质、电子装置
US11335104B2 (en) * 2020-03-31 2022-05-17 Toyota Research Institute, Inc. Methods and system for predicting driver awareness of a feature in a scene
WO2022182578A1 (en) * 2021-02-23 2022-09-01 Board Of Trustees Of Michigan State University Systems, apparatus, and methods for assessing cognitive decline based upon monitored driving performance
US11760318B2 (en) * 2021-03-11 2023-09-19 GM Global Technology Operations LLC Predictive driver alertness assessment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10126224A1 (de) 2001-05-30 2002-12-12 Bosch Gmbh Robert Verfahren und Vorrichtung zur Charakterisierung des Zustandes des Fahrers eines Kraftfahrzeuges
DE10343683A1 (de) 2003-09-20 2005-04-21 Daimler Chrysler Ag Informationssystem für Kraftfahrzeuge

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8085139B2 (en) * 2007-01-09 2011-12-27 International Business Machines Corporation Biometric vehicular emergency management system
TWI332454B (en) * 2008-09-10 2010-11-01 Univ Nat Chiao Tung Intelligent vehicle traffic safety supply system
CN101537835A (zh) * 2009-04-24 2009-09-23 清华大学 具有驾驶辅助功能的集成式电控制动系统
EP2316705B1 (de) * 2009-10-28 2012-06-20 Honda Research Institute Europe GmbH Verhaltensbasiertes Lernen visuellen Verhaltens aus realen Verkehrssituationen für Fahrerunterstützungssystem
CN201882075U (zh) * 2010-12-31 2011-06-29 惠州天缘电子有限公司 一种驾驶辅助系统
CN102390320B (zh) * 2011-08-22 2013-06-12 武汉理工大学 基于车载传感网络的车辆防撞预警系统及用途

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10126224A1 (de) 2001-05-30 2002-12-12 Bosch Gmbh Robert Verfahren und Vorrichtung zur Charakterisierung des Zustandes des Fahrers eines Kraftfahrzeuges
DE10343683A1 (de) 2003-09-20 2005-04-21 Daimler Chrysler Ag Informationssystem für Kraftfahrzeuge

Also Published As

Publication number Publication date
DE102013210050A1 (de) 2013-12-12
US20130325202A1 (en) 2013-12-05
CN103448719A (zh) 2013-12-18
CN103448719B (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
DE102013210050B4 (de) Neurokognitive Verarbeitung eines Fahrerzustands
DE102013019424B4 (de) Verfahren zum Betrieb eines Fahrzeugsystems zur Überwachung eines Fahrers und Kraftfahrzeug
DE112019004597T5 (de) Informationsverarbeitungseinrichtung, bewegungsvorrichtung, verfahren und programm
DE102022112708A1 (de) Fahrer- und umgebungsüberwachung zur vorhersage menschlicher fahrmanöver und zur reduzierung menschlicher fahrfehler
DE102017130414A1 (de) Fahrzeug-systeme zur kontextabhängigen beurteilung
DE112017007252T5 (de) Fahrerüberwachungsvorrichtung, fahrerüberwachungsverfahren, lernvorrichtung und lernverfahren
DE102017103971A1 (de) Autonome Fahrzeugsteuerung mit Vertrauensfaktor
DE102017103973A1 (de) Autonome Fahrzeugsteuerung unter Berücksichtigung der Fahreraufmerksamkeit
DE102017103972A1 (de) Autonome Fahrzeugsteuerung unter Berücksichtigung eines Wahrscheinlichkeitsfaktors
DE102017103969A1 (de) Autonome Fahrzeugsteuerung mit Risikofaktor
DE102017103970A1 (de) Übergang zwischen autonomen Fahrzeugsteuerungsleveln
DE102004022581B4 (de) Fahrerassistenzsystem
DE102017211005A1 (de) Fahrerzustandsüberwachung unter verwendung der hornhautreflexionserfassung
WO2014029738A1 (de) Verfahren zum ergänzen einer einem objekt zugeordneten objektinformation und verfahren zum selektieren von objekten in einem umfeld eines fahrzeugs
DE102017107816A1 (de) Fahrunterstützungsvorrichtung
DE102014201036A1 (de) Bildbasierte Klassifikation des Fahrerzustands und/oder des Fahrerverhaltens
DE112020006551T5 (de) Datenverarbeitungsvorrichtung, datenverarbeitungssystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
WO2019174830A1 (de) Verfahren zum betreiben eines regelsystems zur automatisierten fahrzeugführung
DE102014204137A1 (de) Informationsterminal
DE102015210782A1 (de) Fahrerassistenzsystem zur Bestimmung einer kognitiven Beschäftigung eines Führers eines Fortbewegungsmittels
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
DE102019201407A1 (de) Verfahren und Vorrichtung zum Steuern der Aufmerksamkeit eines Fahrers
DE102022123930A1 (de) System und verfahren zum managen einer fahrerübernahme von einem autonomen fahrzeug auf der basis eines überwachten fahrerverhaltens
DE112016007335T5 (de) Autonome fahrzeugsteuerung durch komparative übergangsprognose
DE102016121279A1 (de) Auf konnektivität einer tragbaren vorrichtung basierende fahrzeugsteuerung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee