DE60115940T2 - Verfahren und vorrichtung zur beurteilung und verbesserung der leistung eines fahrzeugführers - Google Patents

Verfahren und vorrichtung zur beurteilung und verbesserung der leistung eines fahrzeugführers Download PDF

Info

Publication number
DE60115940T2
DE60115940T2 DE60115940T DE60115940T DE60115940T2 DE 60115940 T2 DE60115940 T2 DE 60115940T2 DE 60115940 T DE60115940 T DE 60115940T DE 60115940 T DE60115940 T DE 60115940T DE 60115940 T2 DE60115940 T2 DE 60115940T2
Authority
DE
Germany
Prior art keywords
driver
vehicle
data
performance
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60115940T
Other languages
English (en)
Other versions
DE60115940D1 (de
Inventor
Michael Kevin BROOKS
Kenneth Douros
Lee Judith GARDNER
Michael Robert Gardner
B. Joshua HURWITZ
H. Robert LEIVIAN
Jens Nagel
Donald Remboski
John David WHEATLEY
A. Clifford WOOD
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of DE60115940D1 publication Critical patent/DE60115940D1/de
Application granted granted Critical
Publication of DE60115940T2 publication Critical patent/DE60115940T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf das Gebiet eines Fahrzeugbetriebs und im Besonderen auf ein Verfahren und eine Vorrichtung zum Beurteilen und Verbessern der Leistung eines Fahrzeugführers.
  • Hintergrund der Erfindung
  • Die Flut von Informationen, die Fahrer erreichen – Telematik, Infotainment, Kollisionswarnung und andere – erfordert einen neuen Ansatz für die Fahrzeugführer-Fahrzeug-Schnittstelle. Zur Zeit werden Informationen (wie zum Beispiel Navigationsanweisungen, Zellentelefon- und E-Mail-Messages, Verkehrswarnungen, Infotainmentoptionen, Fahrzeugzustandsüberwachung, und so weiter) dem Fahrzeugführer nicht synchron präsentiert, wobei nicht berücksichtigt wird, wie anspruchsvoll die Fahraufgabe in einem gegebenen Moment sein kann. Zum Beispiel kann ein "Motor prüfen"-Anzeigerlicht, zu der selben Zeit unter den Instrumenten aufleuchten, zu der ein Fahrer eine CD in das Stereosystem einlegt, während der Bildschirm des Navigationssystems eine bevorstehende Abbiegung anzeigt und eine verbale Beschreibung dieser Abbiegung gibt, wenn ein Zellentelefonanruf in dem Auto ankommt und der Fahrer sich in einem Gespräch mit einem oder mehreren Mitfahrern befindet.
  • Menschen verfügen über eine begrenzte Fähigkeit ihre Umgebung wahrzunehmen, auf Elemente der Umgebung zu achten, die aufgenommenen Stimuli kognitiv zu verarbeiten, eine angemessene Bedeutung aus den Wahrnehmungen zu beziehen und sich angemessen nach solchen wahrgenommenen Bedeutungen zu richten. Weiterhin gibt es eine große Variation in der fahrenden Bevölkerung hinsichtlich sowohl natürlicher als auch entwickelter Fähigkeiten, zu fahren. Somit unterliegen Fahrzeugführer einer Irritation, Ablenkung und Ignoranz, was durch das Bombardement an Stimuli, dem sie unterliegen, während sie ein Fahrzeug führen, verschlimmert wird. Training, Erfahrung und Technologie können verwendet werden, um Irritation, Ablenkung und Ignoranz abzumildern. Leider gibt es in den Vereinigten Staaten nach der Periode, wenn Leute erstmals ihren Führerschein beantragen, nur selten ein formales oder formloses Training von Fahrfertigkeiten. Weder haben sich Fahrertrainingsprogramme als besonders wirksam erwiesen, noch wird Training während der Fahrkarriere fortgesetzt. Tatsächlich sehen im Besonderen in den Vereinigten Staaten die meisten Menschen Fahren als ein Recht anstatt als ein Privileg an. Weiterhin zeigen Studien, dass sich die meisten selbst für gute Fahrer halten und die "anderen Personen" für die halten, die Probleme erzeugt. Außer wenn und bis kulturelle oder gesetzliche Änderungen eintreten, die Fahrer ermuntern, ihre Fahrfähigkeiten verbessern zu wollen, scheint es, dass technologische Lösungen, die konstruiert werden, um Irritation, Ablenkung und Ignoranz zu minimieren, über das beste Potential verfügen, um die Sicherheit des Bundesstraßentransportsystems zu verbessern, ein System, das wahrscheinlich voller und dadurch, dass es wahrscheinlich nur wenig oder keine Erweiterung der Streckeninfrastruktur geben wird, in der Zukunft außerdem gefährlicher werden wird.
  • Um diese und andere Sicherheitsbelange anzugehen, ist ein integriertes Sicherheitssystem basierend auf einem Zustandsübergangsmodell vorgeschlagen worden. Das zugrundeliegende Konzept ist ein "Gefährdungshierarchie"-Modell, das durch eine Reihe von Zuständen geht, wobei jeder eine Abschätzung der Gefahr einer bevorstehenden Kollision basierend auf Informationen von externen Objektdetektoren und Sensoren im Fahrzeug darstellt. Die Zustände sind "normales-Fahren-Zustand", "Warnungszustand", "Kollision-vermeidbar-Zustand", "Kollision-nicht-vermeidbar-Zustand", "Postkollisionszustand". Sensor- und Datenfusionsalgorithmen kombinieren Informationen von den Sensoren und bestimmen das Ausmaß, bis zu dem die Gefahr einer Kollision existiert. Wenn das System die Gefahr einer Kollision detektiert, gibt es Warnungen an den Fahrer aus, oder übernimmt in einigen Fällen die Steuerung des Fahrzeugs und initiiert automatisches Bremsen, automatischen Fahrspurwechsel, oder andere Formen einer Fahrzeugsteuerung. Dieses System stellt einen Versuch dar, zuvor nicht in Beziehung stehende Sensorinformationen in einen integrierten Zustand zu bringen, von dem ein nützlicher Rückschluss auf die Gefahr einer Kollision gezogen werden kann, und Warnungen an den Fahrer oder eine tatsächliche Steuerung des Fahrzeugs, können verwendet werden, um den Schaden aus einer Kollision vollständig zu vermeiden oder abzumildern.
  • Außerdem ist ein System vorgeschlagen worden, das eine ausgedehnte Überwachung des Fahrzeugs und der Verkehrssituation zur Verfügung stellt, um eine Präsentation von Informationen an den Fahrer zu priorisieren. Das Ziel dieses Systems ist es, den Informationsstrom an den Fahrer zu bewerkstelligen, während die Fahraufgabe, Fahrerzustände und die körperlichen, Wahrnehmungs- und kognitiven Fähigkeiten des Fahrers mit einberechnet werden. Die bereit gestellte Unterstützung ist konstruiert, um den Fokus des Fahrers zu verbessern und um die Aufmerksamkeit eines abgelenkten Fahrers neu zu fokussieren, wenn er/sie eine Navigation, ein Manövrieren und eine Steuerung des Fahrzeugs durchführt. Die Gesamtsystemarchitektur umfasst einen Analysten/Planer, der Eingaben von Sensoren akzeptiert, umfasst ein gespeichertes Repertoire von Fahrsituationen und zeichnet Informationen über den Fahrer auf. Zusätzlich umfasst das System eine Dialogsteuerung zum Bewerkstelligen einer Kommunikation mit dem Fahrer. Das System überwacht außerdem den Fahrer und integriert den Zustand des Fahrers in die durch die Warn- und Steuersysteme gefällten Entscheidungen.
  • Keines der existierenden Systeme führt die Überwachung eines Bereichs von Sensordaten durch, noch stellen sie eine Bewertung der kognitiven Belastung des Fahrers zur Verfügung. Zusätzlich misslingt es solchen Systemen, die Aktivität des Fahrers in dem Cockpit zu berücksichtigen, die nicht direkt zu der Fahraufgabe in Beziehung steht, wie zum Beispiel Öffnen und Schließen von Fenstern, Einstellen des Radios, und so weiter. Existierende Systeme überwachen zum Beispiel entweder den Fahrer überhaupt nicht, oder überwachen den Fahrer hinsichtlich eines statischen "Modell"-Verhaltens, anstatt hinsichtlich tatsächlicher dynamischer Fahrerleistungen und/oder -gewohnheiten. Somit stellen diese Systeme keine Informationen in Synchronisation mit der Fahraufgabe zur Verfügung, noch versuchen sie Ablenkungen zu minimieren und/oder die Aufmerksamkeit eines abgelenkten Fahrers auf kritische Ereignisse neu auszurichten.
  • Zusätzlich sind bisherige Systeme, die versucht haben, eine Fahrerleistung zu beurteilen, auf Fahrspurfolgungsfähigkeiten beschränkt gewesen, das heißt, auf ein Auswerten, wie gut der Fahrer die Position des Fahrzeugs relativ zu den Rändern der Fahrspur halten kann, um einen Parameter zu erzeugen, der die Fahrspurfolgungsfähigkeit des Fahrers darstellt. Der Parameter wird periodisch bestimmt und wenn er unter einen eingerichteten Pegel fällt, wird dem Fahrer eine Warnung, wie zum Beispiel ein Summen oder ein visueller Hinweis, präsentiert. Dieses System ist insofern begrenzt, als es nur eine Fahrspurfolgenbewertung zur Verfügung stellt und keine absichtlichen Fahrspurabweichungen, um zum Beispiel eine Gefahr zu vermeiden, berücksichtigt, nicht integriert ist, um ein Spektrum von Sensoreingaben zu empfangen und keine Fahrerzustands- und Fahreraktivitätsdaten umfasst. Obwohl ein solches Maß eine verschlechterte Fahrzeugsteuerung identifiziert, ist fraglich, ob es eine kognitive oder mentale Ablenkung identifiziert.
  • Weiterhin stellt keines dieser Systeme eine Rückkopplung zu dem Fahrer bezüglich seiner Gesamtleistung zur Verfügung, noch stellen sie eine Rückkopplung bezüglich einer Verbesserung der Fahrerleistung zur Verfügung.
  • Die WO-A-0 007 150 offenbart eine Überwachung von Fahrzeugfaktoren, um so zu berechnen, um wie viel ein tatsächlicher Fahrstil von einem vorbestimmten normativen Fahrstil abweicht, um so den Treibstoffverbrauch zu minimieren.
  • Somit gibt es einen Bedarf, dem Fahrzeugführer Informationen in Synchronisation mit der Fahraufgabe zur Verfügung zu stellen, um so den Fokus des Fahrzeugführers zu verbessern, Ablenkungen zu minimieren und die Fähigkeit des Fahrzeugführers sicher zu stellen, die Informationen aufzunehmen und zu verwenden. Es gibt einen weiteren Bedarf, eine abgelenkte Aufmerksamkeit des Fahrzeugführers von kritischen nicht zur Aufgabe gehörigen Aktivitäten auf priorisierte Informationen und/oder Aufgaben neu auszurichten, die notwendig sind, um einen sicheren Betrieb des Fahrzeugs aufrechtzuerhalten. Es gibt einen zusätzlichen Bedarf, dem Fahrzeugführer eine Rückkopplung bezüglich der Leistung zur Verfügung zu stellen und eine zusätzliche Rückkopplung zur Verfügung zu stellen, die konstruiert ist, um dem Fahrzeugführer bei einer Verbesserung der Leistung zu helfen.
  • Zusammenfassung der Erfindung
  • In einem ersten Aspekt stellt die vorliegende Erfindung ein Verfahren zum Beurteilen der Fahrzeugführerleistung gemäß Anspruch 1 zur Verfügung.
  • In einem weiteren Aspekt stellt die vorliegende Erfindung eine Vorrichtung zum Beurteilen der Fahrzeugführerleistung gemäß Anspruch 7 zur Verfügung.
  • Weitere Aspekte werden in den abhängigen Ansprüchen dargelegt.
  • Kurze Beschreibung der Zeichnungen
  • Die Erfindung wird hinsichtlich verschiedener bevorzugter Ausführungsformen mit Bezug auf die angehängten Abbildungen beschrieben, in denen gleiche Bezugszeichen durchgängig gleiche Elemente bezeichnen.
  • 1 ist ein Blockdiagramm eines Systems zur Beurteilung einer Fahrzeugführerleistung gemäß einer bevorzugten Ausführungsform der Erfindung.
  • 2 ist ein Blockdiagramm, das eine Schnittstelle des Fahrers mit dem Fahrzeug darstellt, gemäß einer bevorzugten Ausführungsform der Erfindung.
  • 3 ist eine Blockdiagrammdarstellung einer drahtlosen Kommunikationsvorrichtung gemäß einer bevorzugten Ausführungsform der Erfindung.
  • 4 ist ein Flussdiagramm, das die Schritte eines Verfahrens zur Beurteilung einer Fahrzeugführerleistung gemäß einer bevorzugten Ausführungsform der Erfindung darstellt.
  • 5 ist ein Flussdiagramm, das die Schritte eines Verfahrens zur Verbesserung einer Fahrzeugführerleistung gemäß einer bevorzugten Ausführungsform der Erfindung darstellt.
  • 6 ist ein Flussdiagramm, das die Schritte eines Verfahrens zur Erzeugung einer Reaktion auf Fahrzeugführerzustände gemäß einer bevorzugten Ausführungsform der Erfindung darstellt.
  • 7 ist ein Flussdiagramm, das die Schritte eines Verfahrens zur Bereitstellung einer Rückkopplung an einen Fahrzeugführer gemäß einer bevorzugten Ausführungsform der Erfindung darstellt.
  • 8 ist ein Flussdiagramm, das die Schritte eines Verfahrens zur Konfigurierung eines Dienstzustandes einer drahtlosen Kommunikationsvorrichtung gemäß einer bevorzugten Ausführungsform der Erfindung darstellt.
  • Beschreibung einer bevorzugten Ausführungsform
  • Ein System ist eingerichtet, um bei einem Fahrzeugführer eingehende Informationen zu beurteilen, um die Informationen basierend auf einer Zahl von Zuständen bezüglich des Fahrzeugbetriebs, der Betriebsumgebung, der Aktivität des Fahrzeugführers und des körperlichen Zustandes des Fahrzeugführers zu priorisieren und um dem Fahrzeugführer die passendsten Informationen für den gegebenen Satz von Zuständen zur Verfügung zu stellen. Wie in dieser Spezifizierung durchgängig verwendet, werden die Ausdrücke Fahrzeugführer und Fahrer abwechselnd verwendet und verwendet, um auf die Person hinzuweisen, die das Fahrzeug so betreibt, wie es betrieben werden soll.
  • In einer anderen Ausführung der Erfindung überwacht das System verschiedene Datenquellen, die den Fahrzeugbetrieb, die Betriebsumgebung, die Aktivität des Fahrzeugführers und den Zustand des Fahrzeugführers umfassen, und stellt eine Beurteilung der Leistung des Fahrzeugführers zur Verfügung. Dabei kann das System zusätzlich den bestimmten Fahrzeugführer identifizieren, so dass die Beurteilung bezüglich Fahrzeugführerpräferenzen, früherer Fahrleistungen und -gewohnheiten vorgenommen werden kann.
  • Das System ist weiterhin adaptierbar, um dem Fahrzeugführer bei einer Leistungsverbesserung zu helfen. Das System überwacht verschiedene Datenquellen, die den Fahrzeugbetrieb, die Betriebsumgebung, die Aktivität und den Zustand des Fahrzeugführers umfassen, über eine Periode eines Betriebs und zeichnet die Leistung des Fahrzeugführers auf. Die Leistung kann mit akzeptierten guten Praktiken verglichen werden und dem Fahrzeugführer kann ein Bericht darüber zur Verfügung gestellt werden, wie sich die Leistung des Fahrzeugführers mit den akzeptierten guten Praktiken und/oder mit den vorherigen Fahrleistungen und/oder dem gewohnheitsmäßigem Verhalten des Fahrzeugführers vergleicht. Das System kann eine Fahrzeugführerleistung über eine Zahl von Perioden eines Betriebs aufzeichnen und Vergleiche von Fahrzeugführerleistungen von Periode zu Periode zur Verfügung stellen.
  • Das System ist weiterhin adaptierbar, um in Reaktion auf eine Beurteilung des Fahrzeugbetriebs, der Betriebsumgebung, der Aktivität des Fahrzeugführers und des Zustandes des Fahrzeugführers zu agieren, um eine mit dem Betrieb des Fahrzeugs verknüpfte Problemsituation zu vermeiden oder abzuschwächen.
  • Es wird nun auf 1 Bezug genommen, darin umfasst ein System 100 ein Sensorfusionsmodul 102, ein Antwortselektormodul 104 und einen Aktionsgenerator 106. Zum Zwecke der Klarheit und Diskussion sind das Sensorfusionsmodul 102, das Antwortselektormodul 104 und der Aktionsgenerator 106 in 1 als getrennte Elemente dargestellt. Es ist klar, dass diese Module in einem einzelnen Modul integriert sein können. Es ist außerdem klar, dass jedes dieser Module oder ein integriertes Modul, eine geeignete Verarbeitungs vorrichtung, wie zum Beispiel einen Mikroprozessor, einen digitalen Signalprozessor, und so weiter, eine oder mehrere Speichervorrichtungen, die in geeigneter Weise konfigurierte Datenstrukturen umfassen, und Schnittstellen, um das System 100 an verschiedene Fahrzeugsensoren zu koppeln und um sich mit einem Fahrer 108 zu verbinden, umfassen kann.
  • Das Sensorfusionsmodul 102 empfängt Daten von zahlreichen in dem Fahrzeug befindlichen und das Fahrzeug umgebenden Quellen. Wie in 1 dargestellt, empfängt das Sensorfusionsmodul 102 die Fahrzeugbetriebsdaten 112, die Fahrzeugumgebungsdaten 114, die Fahrerzustandsdaten 116 und die Fahreraktivitätsdaten 118.
  • Die Fahrzeugbetriebsdaten 112 umfassen durch die verschiedenen Fahrzeugsensoren erzeugten Daten. Fahrzeugzustandsüberwachungssensoren sind in einem Automobil überall vorhanden. Diese Sensoren überwachen zahlreiche Parameter, wie zum Beispiel Motorbetriebsparameter, die Fahrzeuggeschwindigkeit, Übertragungs- und Radgeschwindigkeit, Fahrzeugbeschleunigung in drei Achsen, Chassis-Funktion, Emissionssteuerfunktion, und so weiter. Diese Sensoren können außerdem Daten bezüglich einer Fahrzeugdiagnose zur Verfügung stellen.
  • Die Fahrzeugumgebungsdaten 114 umfassen Daten bezüglich der Umgebung, in der das Fahrzeug arbeitet, das heißt, des Straßenzustandes, der Verkehrszustände, des Wetters, und so weiter. Die Fahrzeugumgebungsdaten 114 können durch Sensoren zur Verfügung gestellt werden, die außerdem die Fahrzeugbetriebsdaten 112 zur Verfügung stellen. Zum Beispiel können Straßenoberflächen- und Traktionsschätzwerte durch Antiblockierbremsen-, Traktionssteuerungs- und Chassis-Steuersystemsensoren zur Verfügung gestellt werden. Die Fahrzeugposition kann durch ein Bordnavigationssystem, das die globale Positionsbestimmungssystem(GPS)-Technologie verwendet, zur Verfügung gestellt werden, oder Positionsinformationen können durch eine drahtlose Kommunikationsvorrichtung (zum Beispiel einem Zellulartelefon) und einem verknüpften drahtlosen Kommunikationsnetz zur Verfügung gestellt werden. Radar-, Laser-, Ultraschall- und Videosysteme können eine Karte von Objekten in der Nähe des Fahrzeugs und ihrer Bewegung bezüglich des Fahrzeugs zur Verfügung stellen. Das Wetter und die Tageszeit können außerdem direkt überwacht oder aus berichteten Quellen abgeleitet werden.
  • Die Fahrerzustandsdaten 116 und die Fahreraktivitätsdaten 118 können durch verschiedene Cockpit-Überwachungssysteme zur Verfügung gestellt werden. Sitzsensoren und/oder Infrarotsensoren können die Zahl und Plätze von Passagieren in dem Fahrzeug erfassen. Boden- und Lenkradsensoren können die Position der Füße und Hände des Fahrers anzeigen. Video- oder Abbildungssensoren können Kopf-, Körper-, Hand- und Fußbewegungen des Fahrers überwachen und außerdem können die Betriebszustände und die Fahrerverwendung von Infotainment- und Telematiksystemen überwacht werden.
  • Es ist klar, dass es zahlreiche Datenquellen in dem Fahrzeug und der Fahrzeugumgebung gibt, die durch das System 100 verwendet werden können. Mehrere Datenarten sind oben beschrieben worden, andere werden im Zusammenhang mit dem Betrieb des Systems 100 beschrieben werden und noch andere, auf die hierin nicht spezifisch Bezug genommen wird, können verwendet werden, ohne dass dabei vom Umfang und Geist der Erfindung abgewichen wird. Es ist klar, dass wenn neue Technologien neue Arten und Quellen von Daten und neue Arten und Quellen von Informationen in das Fahrzeug einführen, das System 100 adaptiert werden kann, um diese zusätzlichen Datenquellen zu verwenden, um zu handhaben, wie die existierenden und neuen Quellen von Informationen dem Fahrer präsentiert werden.
  • Mit anderen Worten, das System 100 überwacht jede beliebige technische Vorrichtung, die der Fahrer in dem Cockpit des Fahrzeugs berühren oder verwenden mag, so dass das System 100 so viel wie möglich darüber weiß, was der Fahrer zu jedem gegebenen Moment tut. Weiterhin erlaubt die Verwendung von Video oder einer Abbildungstechnologie, Sitzsensoren und Mikrofonen in dem Cockpit dem System 100, den Platz und die Position des Fahrers, den Rauschpegel und die Gegenwart von Passagieren und andere mögliche Quellen von Ablenkungen zu bestimmen. Die im Umkreis des Fahrzeugs eingesetzten Radar, Laser, Video und Infrarotsensoren überwachen Verkehrs- und Wetterzustände, Hindernisse, Fahrspurmarkierungen, und so weiter. Auf den gegenwärtigen Zustand und die Fahrleistung des Fahrers wird von direkten Maßen, wie zum Beispiel Video, und einem Vergleich einer aktuellen Leistung mit einer früheren Leistung und bekannten guten Leistungspraktiken geschlossen.
  • Zusätzlich zu einem Erhalten von Daten von einer Vielfalt von Quellen ist das System 100 mit dem Fahrzeugführer/Fahrer 108 verbunden. Während er das Fahrzeug betreibt, ist der Fahrer 108 mit einer Zahl verschiedener Aktionen befasst, wie zum Beispiel, aber natürlich ohne Begrenzung, Betätigen des Gaspedals oder der Bremsen, Drehen des Lenkrads, Prüfen von toten Winkeln, Einstellen des Radios, Empfangen eines Zellulartelefonanrufs, Erhalten von Navigati onsinformationen, Weiterführen eines Gesprächs mit einem Passagier, Beruhigen der Kinder auf dem Rücksitz, und so weiter. Jede der Aktionen des Fahrers, die zu Diskussionszwecken als Box 110 in 1 dargestellt werden, werden über die Sensoren zu dem Sensorfusionsmodul 102 rückgekoppelt. Zusätzlich, wie ausführlicher beschrieben werden wird, präsentiert das System 100 dem Fahrer 108 über den Aktionsgenerator 106 Informationen, Aktionen und Aufgaben. Dieser "geschlossene" Rückkopplungsschleife-Betrieb kann für eine gegebene Situation fortgeführt werden, bis die Situation aufgelöst ist. In einem sehr begrenzten Beispiel, um das Konzept darzustellen, kann eine "bald Öl wechseln"-Anzeige durch das Kraftübertragungsweg-Managementsystem in dem Fahrzeug erzeugt werden. Vorher bewirkt diese Anzeige, dass auf der Fahrzeuginstrumententafel eine "Motor warten"- oder "Motoröl wechseln"-Leuchte illuminiert wird, sobald das Kraftübertragungsweg-Managementsystem die Anzeige erzeugt hat. Das plötzlich unter den Instrumenten erscheinende Licht kann den Fahrer vorübergehend ablenken. Wenn sich der Fahrer zu der Zeit, wenn das Licht aufleuchtet, im Verkehr zurechtfindet oder sich anderweitig in einer Situation befindet, die seine volle Aufmerksamkeit hinsichtlich der Fahraufgabe erfordert, kann die Ablenkung eine Gefährdung darstellen. Gemäß den bevorzugten Ausführungsformen der Erfindung können die unkritischen Daten bezüglich des Motorölwechsels gespeichert werden, bis die Zustände es zulassen, dass die Information dem Fahrer zu einer Zeit präsentiert wird, die weniger wahrscheinlich eine gefährliche Situation erzeugt. Diesbezüglich arbeitet das System 100, indem es kontinuierlich Daten aufnimmt und ihre Präsentation an den Fahrer neu timet. Außerdem bewertet das System 100 kontinuierlich die an den Fahrer zur Verfügung zu stellenden Informationen, um zu bestimmen, wann und wie sie dem Fahrer am besten zur Verfügung gestellt werden können. Dieser Betrieb des Systems 100 kann durch ein zusätzliches Beispiel dargestellt werden. Ein "Treibstoff knapp"-Warnsignal kann ursprünglich bezüglich der aktuellen Fahrzustände eine unkritische Information sein, kann aber eine kritische Information werden, wenn der Fahrer im Begriff ist, die letzte Tankstelle in dem verbleibenden Bereich des Fahrzeugs zu passieren, worüber das System 100 durch das Bordnavigationssystem informiert wird.
  • Es wird auf 2 Bezug genommen, darin gibt es eine Zahl von Schnittstellen zwischen dem Fahrer 108 und dem Fahrzeug und somit dem System 100. Unten werden verschiedene Schnittstellen diskutiert, die die Fahreridentifizierung 200, die Instrumentierung und die Warnsignale 202, die Fahrzeugsteuerungen 204, die Fahrerzustandssensoren 206 und die Fahreraktivitätssensoren 208 umfassen können.
  • Aufgrund der breiten Variation in menschlichen Geschicklichkeitspegeln, physischer Größe und persönlichen Präferenzen und Geschmäckern, gibt es viele Situationen, wo es für das System 100 nützlich wäre, zu "erkennen", wer versucht, das Fahrzeug zu besteigen und/oder zu führen. Diesbezüglich kann die Fahreridentifizierungsschnittstelle 200 als eine persönliche tragbare Anwenderschnittstelle (PPUI) konfiguriert werden. Eine PPUI kann in vielen Formen existieren, erfasst aber im Wesentlichen mit einem bestimmten Fahrer verknüpfte Präferenz-, Leistungs- und Gewohnheitsdaten. Die PPUI kann auf einer Chipkarte codiert oder in dem Fahrzeug eingebaut sein, um durch ein Fingerabdruck lesegerät, Spracherkennungssystem, optisches Erkennungssystem oder andere solche Mittel aktiviert zu werden.
  • In verschiedenen Ausführungsformen kann die PPUI als ein Sicherheitssystem funktionieren, das einen Zugriff auf das Fahrzeug oder das Zündungssystem des Fahrzeugs gestattet oder begrenzt und einen Zugriff durch nicht autorisierte Personen versperrt oder das Fahrzeug sperrt, wenn eine nicht autorisierte Person versucht, das Fahrzeug zu fahren. Die PPUI kann außerdem Fahrerpräferenzen erfassen, während sie mit einer Zahl von aktiven Sicherheitsmerkmalen in Beziehung steht. Durch die PPUI (Fahreridentifizierungsschnittstelle 200) ist das System 100 über die Fahrerpräferenzen informiert. Zum Beispiel kann der Fahrer auswählen, welche Arten von Warnsignalen unter welchen Bedingungen und wie kommuniziert werden. Zum Beispiel kann ein Fahrer bevorzugen, ein Warnsignal jedes Mal zu erhalten, wenn das System 100 ein in Beziehung zu einer Reisegeschwindigkeit zu kurzer Fahrzeugfolgeabstand detektiert. Für einen anderen Fahrer kann ein hoher Warnsignalpegel als Belästigung empfunden werden, was dazu führt, dass die Warnsignale ignoriert werden und/oder das System 100 gesperrt wird. Ebenso kann ein Fahrer wünschen, über einen sofortigen Zugriff auf alle ankommenden Zellentelefonanrufe zu verfügen, während ein anderer Fahrer wünschen kann, dass nur bestimmte Anrufe durchgestellt werden. Als Teil der Fahreridentifizierungsschnittstelle 200 erlaubt die PPUI jedem Fahrzeugführer vorzeitig eine Auswahl einzurichten.
  • Die PPUI kann außerdem in einer Fahrerleistungsumgebung und/oder einem Fahrbeschränkungsvollzugstools funktionieren. Die PPUI kann verwendet werden, um eine Fahrleistung zu überwachen und an eine Verkehrsvollzugsdirektion zu melden. Diese würde einem gewohnheitsmäßigen Verkehrsstraftäter erlauben, Fahrberechtigungen auf eine gerichtlich überwachte Art und Weise zu behalten. Fahrleistungen können für eine nachfolgende Bewertung aufgezeichnet werden und ein Verfahren zur Verbesserung der Fahrerleistung wird hierin beschrieben. Zusätzlich kann die PPUI verwendet werden, um Steuerungen der Verwendung des Fahrzeugs zu implementieren. Zum Beispiel kann ein Elternteil die Entfernungen und Orte, bis zu denen ein Fahrzeug in Anspruch genommen werden kann, oder die Tageszeit, zu der das Fahrzeug durch einen Führerscheinneuling betrieben werden kann, beschränken.
  • Unter Betriebsbedingungen ist das System 100 programmiert, um basierend auf den empfangenen Daten, "Situationen" und "Zustände" zu erkennen, die während des Betriebs eines Fahrzeugs auftreten können. Das System 100 kann konfiguriert sein, um, bezüglich Prioritäten für die Präsentation von Informationen und der Schwellenwerte für die Warnsignalpegel, Warnungen und Alarmierungen auszulösen. Die Fahreridentifizierungsschnittstelle 200, die die PPUI umfasst, stellt dem Fahrer eine Auswahl bezüglich der Prioritäten, Schwellenwerte und Schnittstellen zur Verfügung und arbeitet, um die Auswahl mit dem geeigneten Fahrer zu synchronisieren.
  • Die Instrumentations- und Warnsignalschnittstelle 202 wird durch das System 100 verwendet, um den Fahrer 108 zu informieren, anzuweisen und in den geeigneten Situationen zu alarmieren und zu warnen. Die Instrumentations- und Warnsignalschnittstelle 202 kann visuelle, Audio-, haptische oder andere geeignete Anzeiger umfassen. Visuelle Anzeiger können Anzeigeinstrumente, beleuchtete Anzeiger, graphische und alphanumerische Displays umfassen. Diese visuellen Anzeiger können zentral in der Instrumententafel des Fahrzeugs, in dem Fahrzeug verteilt, in einem Heads-Up-Display konfiguriert, mit Rück- und Seitenspiegeln integriert oder anderweitig eingerichtet angeordnet sein, um die Informationen zweckmäßigerweise an den Fahrer 108 zu übertragen. Die Audioanzeiger können Summer oder Alarmierungen, Sprach- oder andere hörbare Warnsignale sein. Die haptischen Warnsignale können ein Verwenden des Chassis-Steuersystems, um simulierte Rumpelstreifen zur Verfügung zu stellen, Pedal- oder Lenkradrückkopplungsdruck, Sitzbewegungen und dergleichen umfassen. Die Auslösung eines oder mehrerer beliebiger der Anzeiger oder Warnsignale wird durch das System 100 gesteuert, um das Timing von Informationen zu synchronisieren, während sie dem Fahrer zur Verfügung gestellt werden.
  • Die Fahrzeugsteuerungen-Schnittstelle 204 umfasst die primären Steuerungen, die durch den Fahrer verwendet werden, um das Fahrzeug zu führen. Diese Steuerungen umfassen das Lenkrad, das Gaspedal, das Bremspedal, die Kupplung (wenn ausgestattet), die Gangschaltung, und so weiter. Diese Steuerungen können geeignete Positions- und/oder Ingangsetzungssensoren umfassen und können weiterhin, mindestens in dem Falle des Gaspedals, des Bremspedals und des Lenkrades, Eingangsraten- und/oder Eingangskraftsensoren umfassen. Zusätzliche Sensordaten können die Gierung des Fahrzeugs, die Fahrzeuggeschwindigkeit anzeigende Radgeschwindigkeit und Traktion, den Reifendruck, die Scheibenwischeraktivierung und -geschwindigkeit, die Front- und Heckscheibenentfrosteraktivierung, die Audiosystemlautstärkensteuerung und Sicherheitsgurtverwendungssensoren umfassen.
  • Die Fahrerzustand-Schnittstelle 206 verwendet verschiedene Sensoren, um den Fahrerzustand abzuleiten. Zum Beispiel führt ein aufmerksamer Fahrer kontinuierlich Lenkkorrekturen durch, um das Fahrzeug in seiner Fahrspur zu halten. Durch Überwachen von Lenkradsensoren sammelt das System 100 Daten über die Frequenz und Amplitude der Korrekturen, um abzuleiten, ob der Fahrer beeinträchtigt worden ist. Außerdem können Geschwindigkeitssensoren auf ähnliche Art und Weise abgefragt werden. Video oder andere Abbildungssensoren stellen eine direkte Messung des Zustandes des Fahrers durch Überwachen solcher Kriterien, wie zum Beispiel Fahrerblinzelrate und -blicke, zur Verfügung.
  • Die Fahreraktivität-Schnittstelle 208 verwendet verschiedene Sensoren und eine Abbildungstechnologie, um die Aktivität des Fahrers zu bestimmen. Das heißt, um zu bestimmen, ob der Fahrer zusätzlich zum Fahren des Fahrzeugs, das Radio oder die Heizungs-, Lüftungs- und Klimatechnik(HVAC)-Steuerungen einstellt, eine drahtlose Kommunikation einrichtet oder empfängt, Navigationsinformationen empfängt, und dergleichen. Diese Sensoren können Sitzdrucksensoren, um die Zahl von Passagieren in dem Fahrzeug und die Aktivität der Passagiere zu bestimmen, und Video oder eine andere Abbildungstechnologie, um die Bewegungen des Fahrers zu beobachten, umfassen.
  • Es wird erneut auf 1 Bezug genommen, darin empfängt, wie zuvor angemerkt, das Sensorfusionsmodul 102 all die verschiedenen Sensoreingaben, die solche umfassen, die einen Fahrzeugzustand, einen Fahrerzustand, eine Fahreraktivität und eine Betriebsumgebung (zum Beispiel Wetter, Straßen- und Verkehrszustände) messen, und erzeugt einen Satz von Zuständen oder eine Masterzustandsliste. Die Zu stände stellen den aktuellen diskreten Zustand einer jeden Sache dar, die das Sensorfusionsmodul 102 überwacht. Zum Beispiel kann der Geschwindigkeitszustand zu jedem Zeitpunkt in einem der folgenden Zustände sein: "gestoppt", "langsam", "normal", "schnell" und "beschleunigend". Die Zustände werden basierend auf gelernten Schwellenwerten zwischen den Zuständen und basierend auf einer Geschichte und einer bekannten guten Praxis bestimmt. Das Sensorfusionsmodul 102 bewertet, bei gegebener Masterzustandsliste, die aktuellen Aufgaben und Aktivitäten des Fahrers, wie zum Beispiel Einstellen des Radios, Anhören von E-Mails, oder andere möglicherweise ablenkende Aufgaben, um eine abgeschätzte kognitive Belastung des Fahrens zu erzeugen. Die kognitive Belastung jeder statischen Aufgabe kann extern durch kontrollierte Experimente mit einem Satz von Prüfgegenständen bestimmt werden (zum Beispiel kann ein Einstellen des Radios 15,4 Prozent der Aufmerksamkeit eines Fahrers verwenden). Die gesamte kognitive Belastung ist die gewichtete Summe jeder der individuellen Aufgaben. Das Gewichten kann fest sein oder sich, je nach der Zahl gleichzeitiger Aufgaben, zum Beispiel exponentiell ändern.
  • Die Masterzustandsliste und die abgeschätzte kognitive Belastung des Fahrers werden dann dem Antwortselektormodul 104 zur Verfügung gestellt. Das Antwortselektormodul betrachtet die Zustände, die aktuelle Fahrsituation und die kognitive Belastung, um zu bestimmen, ob es ein Problem gibt, und beurteilt weiterhin den Ernst des Problems. Das Antwortselektormodul 104 berücksichtigt weiterhin Fahrerpräferenzen, um eine Antwort auszuwählen, die der gegenwärtigen Aufgabe des Fahrers angemessen ist, und priorisiert die Präsentation von Warnsignalen, Warnungen und anderen Informationen an den Fahrer. Das Antwortselektormodul 104 kann einen Reflexagenten enthalten, der einen Entscheidungsbaum oder Referenztabellen verwendet, um Zustände mit gewünschten Aktionen abzugleichen. Alternativ kann ein adaptiver, das heißt lernender, zielsuchender Agent verwendet werden. Somit synthetisiert das Antwortselektormodul 104 Sensordaten und summiert sie, wobei eine richtige Antwort auf jede beliebige Zustandsänderung erzeugt wird.
  • In einer möglichen Implementierung kann das Antwortselektormodul 104 durch einen Programmierer eingegebene Parameter umfassen, die verwendet werden, um zu bestimmen, ob eine Zustandsänderung a) ein Problem erzeugt, b) ein Problem löst, c) ein Problem eskaliert, d) eine Fahreraufgabe initiiert, e) eine Agentenaufgabe initiiert, f) eine Fahrer- oder Agentenaufgabe beendet, g) die Situation ändert, oder h) harmlos ist. Die abgeschätzte kognitive Belastung kann verwendet werden, um eine Dringlichkeit eines identifizierten Problems zu bestimmen, oder zu bestimmen, ob eine Antwort auf das Problem durch den Fahrer oder durch einen Agenten initiiert werden soll. Zum Beispiel kann ein ankommendes Zellulartelefongespräch an den Fahrer gerichtet sein, wenn die abgeschätzte kognitive Belastung des Fahrers unter einem Schwellenwert zum Empfangen von Zellulartelefonanrufen liegt. Wenn die kognitive Belastung des Fahrers den Schwellenwert zum Empfangen von Zellulartelefongesprächen übersteigt, kann der Zellulartelefonanruf an die Voicemail (das heißt, eine Agentenvorrichtung) übermittelt werden.
  • Der Antwortselektor 104 aktiviert den Aktionsgenerator 106, um die ausgewählte Antwort zu bewerkstelligen. Der Aktionsgenerator 106 kann eine Sammlung von Aktionen sein, die durchzuführen das System ausgestattet ist, wie zum Beispiel in dem obigen Beispiel dem Übermitteln eines Zellulartelefonanrufs an die Voicemail. Die Sammlung kann Aktionen zusammen mit Anweisungen umfassen, die Softwareanweisungen zum Bewirken, dass der verknüpfte Prozessor in Aktion tritt, sein können, das heißt, um alle möglichen Warnsignale und Warnungen auszulösen, die dem Fahrer potentiell zur Verfügung gestellt werden können.
  • Eine Fusion von Sensordaten, die Daten bezüglich des Zustandes und der Aktivität des Fahrers umfassen, erlaubt dem System 100 zu arbeiten, um die Fahrerleistung zu beurteilen. Wie angemerkt, ist das System 100 betreibbar, um einen Fahrer durch die Fahreridentifizierung-Schnittstelle 200 zu identifizieren. Während des Betriebs des Fahrzeugs durch den Fahrer überwacht das System 100 verschiedene Aspekte der Fahrerleistung um zu einem Fahrerleistungsbeurteilungswert zu gelangen.
  • In einer Ausführungsform kann das System 100 die Fahrspurfolgungsfähigkeit des Fahrers überwachen. Informationen über Fahrspurüberschreitungen werden bezüglich der Verwendung von Blinkern und einer nachfolgenden Bewegung des Fahrzeugs aufgezeichnet, um zu bestimmen, ob der Fahrspurwechsel absichtlich oder unabsichtlich war. Zusätzlich kann das System 100 die Blickrichtung, Blinzelraten, Blickfrequenz und -dauer überwachen, um das visuelle Abtastverhalten des Fahrers zu bestimmen, das die Verwendung von Spiegeln und "Kopfkontrollen", wenn Fahrspuren gewechselt werden, umfasst. Die Informationen können in einem Vergleich mit bekannten "guten Angewohnheiten" verwendet werden, um eine Leistung zu beurteilen, und können gleichzeitig verwendet werden, um eine Metrik zu entwickeln, die die norma len Muster des Fahrers widerspiegelt, die als eine Basislinie verwendet werden kann, um Änderungen im Fahrverhalten zu vergleichen, sowie eine Verschlechterung oder Verbesserung in der Fahrgeschicklichkeit zu überwachen.
  • Zusätzliche Informationen, die berücksichtigt werden können, um die Fahrerleistung zu beurteilen, umfassen eine Anwendung des Gaspedals und der Bremsen. Die Verwendung des Gaspedals und der Bremsen durch den Fahrer wird aufgezeichnet und ihr wird ein numerischer Wert gegeben. Abermals kann, durch Verwenden von Vergleichsalgorithmen auf bekannte "gute Angewohnheiten" und früherer Leistung, eine Beurteilung darüber, wie sanft der Fahrer bremst und/oder beschleunigt, sowie der Zahl und des Ernstes von Notstopps durchgeführt werden. Gas- und Bremspedaldaten können außerdem in Verbindung mit Metriken über die Aufrechterhaltung des Fahrzeugfolgeabstandes, wie durch das System 100 überwacht, angewendet werden. Dies erlaubt dem System 100, zu bestimmen, ob der Fahrer bezüglich Hindernissen in Fahrtrichtung des Fahrzeuges zu lange wartet, um zu bremsen, und sogar zu bestimmen, ob der Fahrer zu einem unsicheren Fahrzeugfolgeabstand neigt, wenn ein Tempomat verwendet wird.
  • Zusätzlich zum Beurteilen der Fahrerleistung kann das System 100 adaptiert sein, um bei der Verbesserung der Fahrerleistung zu helfen. Eine Kommunikation der Fahrerbeurteilung an den Fahrer ermutigt den Fahrer, besser abzuschneiden. Das System 100 kann außerdem eine spezifische Anweisung bezüglich einem Verbessern der Fahrerleistung zur Verfügung stellen. Zum Beispiel kann sich das Überwachen der Fahrerleistung zeitlich (Aufzeichnen und Vergleichen der Leistung des Fahrers über die Zeit) und räumlich (eine Leistungsschwankung auf vertrauten, häufig gefahrenen Rou ten berücksichtigend) erstrecken, um all die Male zu umfassen, die ein bestimmter Fahrer das ausgerüstete Fahrzeug gefahren hat. Die Fahrerbeurteilung, das heißt die Fahrerleistung, die Warnsignale, Warnungen und Vorschläge für eine verbesserte Leistung umfasst, wird dann dem Instrumentierung/Warnsignale-Modul 202 zur Kommunikation an den Fahrer zur Verfügung gestellt. Durch das System 100 kann auf eine Sammlung von voraufgezeichneten Messages an den Fahrer zugegriffen werden und geeignete Messages, die Berichte und Vorschläge darstellen, werden ausgewählt. Zum Beispiel kann das System 100 detektiert haben, dass der Fahrer vor Wechseln der Fahrspur keine Kopfkontrollen durchgeführt hat, und kann die Aufmerksamkeit des Fahrers auf diese Tatsache richten und begründen, dass lediglich in den Spiegel zu schauen kein guter Ersatz für eine Kopfkontrolle ist. Zusätzlich können Messages Erinnerungen enthalten, die Kraftstoffsparsamkeit zu verbessern, oder identifizieren spezifisch einen Bereich einer Fahrleistung, der sich über den Verlauf der Reise verschlechterte.
  • Eine Kommunikation von Leistungsverbesserungsinformationen kann in Echtzeit durchgeführt werden; um ein Erzeugen weiterer Ablenkungen für den Fahrer zu vermeiden, können die Informationen jedoch gespeichert und im Anschluss an eine Fahraktivität an den Fahrer kommuniziert werden. Triggerereignisse und/oder Schwellenwerte können verwendet werden, um eine Abgabe der Leistungsverbesserungmessages auszulösen. Alternativ kann der Fahrer optional auswählen, die Schnittstelle zu aktivieren. Die gespeicherten Leistungsinformationen können auch von dem Fahrzeug heruntergeladen werden und als Teil eines klassenraum- oder simulatorbasierten Fortbildungsprogramms, eines Fahrereignungsbe urteilungsprogramms oder eines Verkehrsdurchführungsprogramms angewendet werden.
  • Um die Verwendung des Systems 100 zur Verbesserung einer Fahrleistung zu fördern, kann die Rückkopplung konfiguriert sein, um sich an bestimmte Kategorien von Fahrern zu richten. Für jüngere Fahrer können zum Beispiel voraufgezeichnete Messages verwendet werden, die die Stimmen und Gestalten von Persönlichkeiten aus dem Rennsport verwenden, um die Informationen zu übertragen, während für andere Fahrer voraufgezeichnete Messages verwendet werden können, die gut bekannte und zuverlässige Persönlichkeiten verwenden. Alternativ kann das System 100 Messages durch Verwenden von Sprachsynthese erzeugen.
  • Ein besonderes Beispiel einer möglichen Fahrerablenkung bezieht sich auf die Verwendung von Zellulartelefonen. Wie beschrieben, synthetisiert und priorisiert das System 100 alle ankommenden Informationen, die Zellulartelefonanrufe umfassen. Zum Beispiel kann das System 100 einem Fahrer zwei mögliche Abschaltungen von Zellulartelefonanrufen zur Verfügung stellen, ohne dass dabei Anrufe vollständig verhindert werden. In dem ersten Fall wird der Anrufer durch eine voraufgezeichnete Message darüber informiert, dass der Anruf an eine Person ausgeführt wird, die gerade ein Fahrzeug führt. Dem Anrufer wird dann die Option gegeben, den Anruf direkt an die Voicemail zu senden, oder den Anruf zu dem Fahrer durchzustellen. Bevor der Anruf an den Fahrer ausgeführt wird, bewertet das System 100 die Situation, die Zustände und die kognitive Belastung des Fahrers, um zu bestimmen, ob die Antwort, den Anruf durchzustellen, angemessen ist. Wenn das System 100 bestimmt, dass das Potential für eine Fahrerablenkung jenseits bestimmter er wünschter Grenzen liegt, zum Beispiel dass die erforderliche kognitive Belastung des Fahrers einen Schwellenwert übersteigt, kann der ankommende Anruf gehalten und/oder automatisch an die Voicemail mit einer geeigneten voraufgezeichneten Message überführt werden.
  • Das System 100 kann konfiguriert sein, um die Zahl von Anrufen, die bei dem Fahrer ankommen, wesentlich zu begrenzen. Häufig weiß ein Anrufer nicht, dass die Person, die er anruft gerade fährt, und es kann es sein, dass er nicht angerufen hätte, wenn er es wüsste. Wie oben beschrieben, stellt das System 100 einen Mechanismus zum Informieren des Anrufers zur Verfügung, dass er einen Fahrer anruft, und stellt die Option zur Verfügung, den Anruf an die Voicemail umzuleiten. Alternativ kann das System 100 konfiguriert sein, um dem Fahrer die Option zu geben, Anrufe zu akzeptieren, deren Anrufer erkennbar ist. In einer solchen Anordnung wird der ankommende Anruf über eine Freihand-Sprachschnittstelle an den Fahrer identifiziert. Der Fahrer kann dann den Anruf akzeptieren, den Anruf an die Voicemail übergeben, den Anruf an eine weiterleitende Nummer übergeben, oder den Anruf beenden, was alles ohne Kenntnis des Anrufers ausgeführt werden kann. Alternativ kann die Anrufausführung kurz verzögert werden, wobei dem Anrufer eine geeignete Message zur Verfügung gestellt wird. Das System 100 kann dann den Anruf nach der kurzen Verzögerung ausführen, nachdem bestimmt worden ist, dass die kognitive Belastung des Fahrers auf einem akzeptablen Pegel ist.
  • Das System 100 kann außerdem adaptiert sein, eine "korrigierende" Aktion in dem Fall durchzuführen, dass ein aktueller Anruf an eine Verschlechterung einer Fahrleistung gekoppelt ist. Wenn das System 100 nach einem Akzeptieren eines Zellulartelefonanrufs bestimmt, dass die kognitive Belastung des Fahrers über einen Schwellenwert angestiegen ist und wenn es eine Verschlechterung in einer Fahrleistung unter einen Schwellenwertpegel gibt, kann das System 100 den Zellulartelefonanruf automatisch unterbrechen. In einem solchen Fall wird eine Message zur Verfügung gestellt, die den Anrufer darüber informiert, dass er vorübergehend in der Warteschleife gehalten wird. Das System 100 kann dem Anrufer außerdem eine Option anbieten, eine Voicemailmessage zu hinterlassen. Zusätzlich wird dem Fahrer, so dass ihm die Rufunterbrechung bewusst wird, eine geeignete Message zur Verfügung gestellt, die anzeigt, dass der Anruf in die Warteschleife gegeben worden ist. Der Fahrer kann den Anrufer ebenso auf die Voicemail verweisen.
  • Wie hinsichtlich anderer Aspekte des Betriebs des Systems 100, werden dem System 100 die Präferenzen des Fahrers bezüglich einer Zellulartelefonverwendung über die Fahreridentifizierungsschnittstelle 200 zur Verfügung gestellt. Das System 100 kann außerdem mit anderen drahtlosen Kommunikationsvorrichtungen arbeiten, die persönliche digitale Assistenten (PDAs) und Pager zum Empfangen von E-Mails und Text- und Datenmessages umfassen.
  • Um die Fähigkeit des Systems 100 auszunützen, ankommende Zellulartelefonanrufe mit anderen Informationen, die dem Fahrer präsentiert werden, zu priorisieren, ist es erforderlich, dass das Zellulartelefon kommunikativ an das System 100 gekoppelt und durch das System 100 steuerbar ist. Ein autonomes Zellulartelefon, das nicht an das System 100 adaptierbar sein mag, kann adaptiert sein, um auf eine kontextunterrichtete Art und Weise zu arbeiten.
  • 3 stellt ein tragbares Zellulartelefon 300 dar, das einen Prozessor 302, einen Speicher 304, ein Sensorfusionsmodul 306 und eine Mehrzahl von Sensoren, von denen einer als der Sensor 308 dargestellt ist, umfasst. Obwohl als getrennte Elemente gezeigt, ist klar, dass diese Elemente des Zellulartelefons 300 in einer/einem einzelnen Einheit oder Modul integriert sein kann. Alternativ kann ein Sensorfusionsmodul, das eine angemessene Verarbeitungsfähigkeit umfasst, als eine Nachrüstvorrichtung für existierende Zellulartelefone zur Verfügung gestellt werden. Der (die) Sensor(en) 308 kann (können) solche Daten, wie zum Beispiel Außenbeleuchtung, Temperatur, Bewegung und Geschwindigkeit, Datum und Zeit und Standort erfassen. Natürlich können, wo das Zellulartelefon 300 in einem drahtlosen Kommunikationsnetz betrieben wird, die Umgebungsinformationen, wie zum Beispiel Standort, Geschwindigkeit, Datum und Zeit, durch das Netzwerk zur Verfügung gestellt werden. Der Sensor 308 kann jedoch eine GPS-Vorrichtung sein, die fähig ist, den Standort, die Geschwindigkeit, die Zeit und den Tag durch Verwenden des GPS-Satellitensystems zu bestimmen.
  • Das Sensorfusionsmodul 306 empfängt die Daten von den verschiedenen Sensoren und erzeugt eine Masterzustandsliste, die an den Prozessor 302 kommuniziert wird, der den Betrieb des Zellulartelefons steuert. Der Prozessor 302 arbeitet gemäß einem Steuerprogramm, das in dem Speicher 304 gespeichert ist, und durch Verwenden der Masterzustandsliste, um einen kontextunterrichteten Betrieb des Zellulartelefons 300 zur Verfügung zu stellen. Ein kontextunterrichteter Betrieb des Zellulartelefons 300 kann durch die folgenden Beispiele dargestellt werden.
  • In einem Beispiel eines kontextunterrichteten Betriebs ist das Zellulartelefon bestimmt, sich bei einer Geschwindigkeit von 60 Kilometer pro Stunde (km/h) zu bewegen. Dieser Zustand wird durch das Sensorfusionsmodul 306 als Teil der Masterzustandsliste an den Prozessor 302 gemeldet. Der Prozessor 302 entnimmt diesem Geschwindigkeitszustand, dass das Zellulartelefon von einem Fahrer eines Fahrzeugs mitgeführt wird, und tritt somit in einen Dienstzustand ein, wo ankommende Anrufe ausgesiebt werden. Eine Form von Sieb ist die oben beschriebene, wobei der Anrufer zuerst darauf aufmerksam gemacht wird, dass er einen Fahrer anruft, und ihm die Option angeboten wird, eine Sprachmessage zu hinterlassen.
  • In einem anderen Beispiel eines kontextunterrichteten Betriebs wird das Zellulartelefon bestimmt, ungefähr über eine menschliche Körpertemperatur zu verfügen. Dieser Zustand wird durch das Sensorfusionsmodul 306 als Teil der Masterzustände an den Prozessor 302 gemeldet. Der Prozessor 302 arbeitet gemäß dem Steuerprogramm und ein Verwenden der Masterzustandsliste bestimmt, dass das Zellulartelefon 300 wahrscheinlich dicht am Körper des Anwenders angeordnet ist. Anstatt in einem Klingeldienstzustand zu arbeiten, wird das Zellulartelefon 300 veranlasst, in einem Rütteldienstzustand zu arbeiten, um einen ankommenden Anruf anzukündigen.
  • Die folgende Tabelle 1 legt verschiedene Sensormechanismen, Kontextabschätzungen und Betriebsdienstzustände dar.
  • Figure 00290001
  • Figure 00300001
  • Figure 00310001
    Tabelle 1: kontextunterrichtete Dienstzustände von drahtlosen Vorrichtungen
  • Gemäß der bevorzugten Ausführungsformen der Erfindung werden die folgenden Verfahren in Verbindung mit 48 beschrieben: Beurteilung der Leistung des Fahrzeugführers, Informieren des Fahrzeugführers, um die Leistung des Fahrzeugführers zu verbessern, Antwortsynthese in einem Fahrerassistentensystem, Verbessern der Leistung des Fahrzeugführers durch Leistungsrückkopplung und kontextunterrichtetem Vorrichtungsbetrieb.
  • Es wird auf 4 Bezug genommen, darin beginnt ein Verfahren 400 zur Beurteilung der Leistung eines Fahrzeugführers bei dem Schritt 402 mit dem Empfangen von Fahrzeugbetriebsdaten von dem Fahrzeug bezüglich des Fahrzeugbetriebszustandes. Der Schritt 402 umfasst ein Empfangen von Daten bezüglich des Betriebs des Fahrzeugs von den verschiedenen Sensoren, Systemen und Vorrichtung in dem Fahrzeug bei dem Sensorfusionsmodul 102. Diese Daten können umfassen: Fahrzeuggeschwindigkeit und -beschleunigung, Drosselklappenbetätigung, Bremsenbetätigung, Lenkradeingabe, Drosselklappenstellung, Änderungsrate der Drosselklappenstellung, zusätzliche verfügbare Drosselklappeneingabe und Drosselklappenbetätigungsdruck, Bremsenstellung, Änderungsrate der Bremsenstellung, zusätzlich verfügbare Bremseingabe und Bremsenbetätigungsdruck, Lenkradstellung, Änderungsrate des Lenkrades, an das Lenkrad angelegter Fahrzeugführerdruck, zusätzlich zur Verfügung stehende Lenkeingabe und andere Betriebsparameter des Fahrzeugs, wie zum Beispiel Öltemperatur, Öldruck, Kühlmitteltemperatur, Luftdruck, Bremsflüssigkeitstemperatur, Bremsflüssigkeitsdruck, Übertragungstemperatur, Fehlzündung, Scheibenwischeraktivierung, Vorder-/Rückscheibendefrosteranwendung, Diagnosesysteme, und so weiter.
  • Bei dem Schritt 404 wird ein innerer Teil des Fahrzeugs überwacht, um dem Sensorfusionsmodul 102 Daten bezüglich der Aktivitäten des Fahrers zur Verfügung zu stellen. Überwachte Aktivitäten können umfassen: Überwachen der Verwendung von Fahrzeugsystemsteuerungen durch den Fahrer, wie zum Beispiel Fahrsteuerungen, Telematiksysteme, Infotainmentsysteme, Insassenkomfortsteuerungen, die HVAC umfassen, Sitzstellung, Lenkradstellung, Pedalstellung, Fensterstellung, Sonnenblenden, Schiebedach und Fensterschatten und Kommunikationssteuerungen. Überwachungsaktivitäten können außerdem ein Überwachen von Aktivitäten der Fahrzeugpassagiere umfassen.
  • Bei dem Schritt 406 wird die Fahrzeugumgebung außerhalb des Fahrzeugs überwacht, um dem Sensorfusionsmodul 102 Daten bezüglich der Betriebsumgebung des Fahrzeugs zur Verfügung zu stellen. Die Betriebsumgebungsdaten können umfassen: Straßenzustand, Fahrspurfolgen, Fahrzeugfolgeabstandsdaten, Verkehrssteuerdaten und Verkehrszustandsdaten.
  • Bei dem Schritt 408 wird der Fahrzeugführer überwacht, um dem Fusionsmodul 102 Daten bezüglich des Zustandes des Fahrers zur Verfügung zu stellen. Der körperliche Zustand des Fahrers kann umfassen: Ermüdung, oder Rausch, oder einen psychologischen Zustand des Fahrers. Zusätzlich kann ein Ablenkungspegel des Fahrers überwacht werden.
  • Bei dem Schritt 410 wird die Fahrerleistung beurteilt. Die Leistung des Fahrers kann durch Folgern einer Fahrerleistung aus den Fahrzeugbetriebsdaten, den Fahrzeugführeraktivitätsdaten, den Umgebungsdaten und den Fahrzeugführerzustandsdaten beurteilt werden. Eine solche Folgerung kann durch Verwenden einer Inferenzeinheit oder einer regelbasierten Entscheidungseinheit gezogen werden. Alternativ können Fuzzy-Logik oder adaptive Zielsuche verwendet werden.
  • Es wird auf 5 Bezug genommen, darin beginnt bei dem Schritt 502 ein Verfahren 500 zum Informieren eines Fahrers, die Fahrerleistung zu verbessern, mit einem Empfangen von Fahrzeugsbetriebsdaten aus dem Fahrzeug bezüglich des Fahrzeugbetriebszustandes. Der Schritt 502 umfasst ein Empfangen von Daten bezüglich des Betriebs des Fahrzeugs von den verschiedenen Sensoren, Systemen und Vorrichtung in dem Fahrzeug bei dem Sensorfusionsmodul 102. Diese Daten können umfassen: Fahrzeuggeschwindigkeit und -beschleunigung, Drosselklappenbetätigung, Bremsenbetätigung, Lenkradeingabe, Drosselklappenstellung, Änderungsrate der Drosselklappenstellung, zusätzliche verfügbare Drosselklappeneingabe und Drosselklappenbetätigungsdruck, Bremsenstellung, Änderungsrate der Bremsenstellung, zusätzlich verfügbare Bremseingabe und Bremsenbetätigungsdruck, Lenkradstellung, Änderungsrate des Lenkrades, an das Lenkrad angelegter Fahrzeugführerdruck, zusätzlich zur Verfügung stehende Lenkeingabe und andere Betriebsparameter des Fahr zeugs, wie zum Beispiel Öltemperatur, Öldruck, Kühlmitteltemperatur, Luftdruck, Bremsflüssigkeitstemperatur, Bremsflüssigkeitsdruck, Übertragungstemperatur, Fehlzündung, Scheibenwischeraktivierung, Vorder-/Rückscheibendefrosteranwendung, Diagnosesysteme, und so weiter.
  • Bei dem Schritt 504 wird ein innerer Teil des Fahrzeugs überwacht, um dem Sensorfusionsmodul 102 Daten bezüglich Aktivitäten des Fahrers zur Verfügung zu stellen. Überwachte Aktivitäten können umfassen: Überwachen der Verwendung von Fahrzeugsystemsteuerungen durch den Fahrer, wie zum Beispiel Fahrsteuerungen, Telematiksysteme, Infotainmentsysteme, Insassenkomfortsteuerungen, die HVAC umfassen, Sitzstellung, Lenkradstellung, Pedalstellung, Fensterstellung, Sonnenblenden, Schiebedach und Fensterschatten und Kommunikationssteuerungen. Überwachungsaktivitäten können außerdem ein Überwachen von Aktivitäten der Fahrzeugpassagiere umfassen.
  • Bei dem Schritt 506 wird die Fahrzeugumgebung außerhalb des Fahrzeugs überwacht, um dem Sensorfusionsmodul 102 Daten bezüglich der Betriebsumgebung des Fahrzeugs zur Verfügung zu stellen. Die Betriebsumgebungsdaten können umfassen: Straßenzustand, Fahrspurfolgen, Fahrzeugfolgeabstandsdaten, Verkehrssteuerdaten und Verkehrszustandsdaten.
  • Bei dem Schritt 508 wird der Fahrzeugführer überwacht, um dem Fusionsmodul 102 Daten bezüglich des Zustandes des Fahrers zur Verfügung zu stellen. Der körperliche Zustand des Fahrers kann umfassen: Ermüdung, oder Rausch, oder einen psychologischen Zustand des Fahrers. Zusätzlich kann ein Ablenkungspegel des Fahrers überwacht werden.
  • Bei dem Schritt 510 wird die kognitive Belastung des Fahrers abgeschätzt. Die kognitive Belastung des Fahrers kann Fahrerpräferenzen, frühere Leistungen und Angewohnheiten berücksichtigen. Dann werden Fahrzeuginformationen bei dem Schritt 512 basierend auf der kognitiven Belastung des Fahrers für eine Kommunikation an den Fahrer priorisiert.
  • Es wird auf 6 Bezug genommen, darin beginnt bei dem Schritt 602 ein Verfahren 600 zum Synthetisieren einer Antwort auf eine Betriebsbedingung eines Fahrzeugs mit der Erzeugung einer Masterzustandsliste. Die Masterzustandsliste wird durch das Sensorfusionsmodul 102 erzeugt und ist eine Fusion der verschiedenen Sensordaten, die in dem Fahrzeug verfügbar sind. Die Sensordaten können jede verfügbaren Daten in dem Fahrzeug sein, umfassend: Fahrzeugbetriebsdaten, Fahreraktivitätsdaten, Umgebungsdaten, Fahrerzustandsdaten, Fahrerpräferenzdaten, Fahreraktionsrückkopplungsdaten.
  • Aus der Materzustandsliste wird bei dem Schritt 604 eine Betriebssituation bestimmt. Der Betriebszustand kann sein: der Existenz-eines-Problems-Zustand, die Existenz-eines-Problems-Korrektur, die Existenz-eines-Problems-Eskalation, die Existenz eines Fahrzeugführeraufgabenerfordernisses, die Existenz eines Agentenaufgabenerfordernisses, die Existenz einer Durchführung einer Fahrzeugführeraufgabe, die Existenz einer Durchführung einer Agentenaufgabe. Zusätzlich wird bei dem Schritt 606 eine kognitive Belastung des Fahrzeugführens bestimmt.
  • Bei dem Schritt 608 wird eine Antwort auf die Betriebssituation basierend auf der kognitiven Belastung des Fahrzeugführers bestimmt. Die Antwort kann sein: Synchronisieren eines Informationsflusses an den Fahrer, Erzeugen eines Warnsignals an den Fahrer, Bereitstellen eines Warnsignals, das Audiowarnsignale, visuelle und haptische Warnsignale umfasst, Unterbrechen oder Beenden des Betriebs von ausgewählten Diensten in dem Fahrzeug.
  • Es wird auf 7 Bezug genommen, darin beginnt bei dem Schritt 702 ein Verfahren 700 zum Verbessern der Fahrerleistung durch eine Leistungsrückkopplung mit einem Empfangen von Fahrzeugbetriebsdaten aus dem Fahrzeug bezüglich des Fahrzeugbetriebszustandes. Der Schritt 702 umfasst ein Empfangen von Daten bezüglich des Betriebs des Fahrzeugs von den verschiedenen Sensoren, Systemen und Vorrichtung in dem Fahrzeug bei dem Sensorfusionsmodul 102. Diese Daten können umfassen: Fahrzeuggeschwindigkeit und -beschleunigung, Drosselklappenbetätigung, Bremsenbetätigung, Lenkradeingabe, Drosselklappenstellung, Änderungsrate der Drosselklappenstellung, zusätzliche verfügbare Drosselklappeneingabe und Drosselklappenbetätigungsdruck, Bremsenstellung, Änderungsrate der Bremsenstellung, zusätzlich verfügbare Bremseingabe und Bremsenbetätigungsdruck, Lenkradstellung, Änderungsrate des Lenkrades, an das Lenkrad angelegter Fahrzeugführerdruck, zusätzlich zur Verfügung stehende Lenkeingabe und andere Betriebsparameter des Fahrzeugs, wie zum Beispiel Öltemperatur, Öldruck, Kühlmitteltemperatur, Luftdruck, Bremsflüssigkeitstemperatur, Bremsflüssigkeitsdruck, Übertragungstemperatur, Fehlzündung, Scheibenwischeraktivierung, Vorder-/Rückscheibendefrosteranwendung, Diagnosesysteme, und so weiter.
  • Bei dem Schritt 704 wird ein innerer Teil des Fahrzeugs überwacht, um dem Sensorfusionsmodul 102 Daten bezüglich Aktivitäten des Fahrers zur Verfügung zu stellen. Überwachte Aktivitäten können umfassen: Überwachen der Ver wendung von Fahrzeugsystemsteuerungen durch den Fahrer, wie zum Beispiel Fahrsteuerungen, Telematiksysteme, Infotainmentsysteme, Insassenkomfortsteuerungen, die HVAC umfassen, Sitzstellung, Lenkradstellung, Pedalstellung, Fensterstellung, Sonnenblenden, Schiebedach und Fensterschatten und Kommunikationssteuerungen. Überwachungsaktivitäten können außerdem ein Überwachen von Aktivitäten der Fahrzeugpassagiere umfassen.
  • Bei dem Schritt 706 wird die Fahrzeugumgebung außerhalb des Fahrzeugs überwacht, um dem Sensorfusionsmodul 102 Daten bezüglich der Betriebsumgebung des Fahrzeugs zur Verfügung zu stellen. Die Betriebsumgebungsdaten können umfassen: Straßenzustand, Fahrspurfolgen, Fahrzeugfolgeabstandsdaten, Verkehrssteuerdaten und Verkehrszustandsdaten.
  • Bei dem Schritt 708 wird der Fahrzeugführer überwacht, um dem Fusionsmodul 102 Daten bezüglich des Zustandes des Fahrers zur Verfügung zu stellen. Der körperliche Zustand des Fahrers kann umfassen: Ermüdung, oder Rausch, oder einen psychologischen Zustand des Fahrers. Zusätzlich kann ein Ablenkungspegel des Fahrers überwacht werden.
  • Bei dem Schritt 710 wird die Beurteilung der Fahrerleistung bestimmt und aufgezeichnet, so dass bei dem Schritt 712 die Beurteilung der Fahrerleistung an den Fahrer gemeldet werden kann. Der Schritt 712 umfasst ein Melden der Beurteilung der Fahrerleistung nach einer Durchführung eines Fahrzeugbetriebs oder ein Melden der Beurteilung der Leistung des Fahrzeugführers während des Betriebs des Fahrzeugs. Darüber hinaus kann die Beurteilung der Fahrerleistung für eine erste Periode eines Fahrzeugbetriebs und für eine zweite Periode des Fahrzeugbetriebs aufgezeichnet werden und einen Vergleich der zwei Leistungen umfassen.
  • Das Verfahren kann weiterhin den Schritt des Empfangens von Fahrerpräferenzdaten und Aufzeichnens der Beurteilung der Fahrerleistung basierend auf den Fahrerpräferenzdaten umfassen. Zusätzlich kann die Beurteilung der Fahrerleistung eine Einstufung für jeden aus einer Mehrzahl von Aspekten eines Fahrzeugbetriebs umfassen. Das Melden der Beurteilung der Fahrerleistung kann durch eine visuelle Anzeige, Audioanzeige oder haptische Anzeige vorgenommen werden.
  • Es wird auf 8 Bezug genommen, darin beginnt bei dem Schritt 802 ein Verfahren 800 zur Konfiguration eines Dienstzustandes einer drahtlosen Kommunikationsvorrichtung mit einem Empfangen eines Satzes von Vorrichtungsbetriebsparametern, die einen bevorzugten Dienstzustand der drahtlosen Kommunikationsvorrichtung für einen Vorrichtungsbetreiber definieren. Bei dem Schritt 804 werden Kontextdaten von mindestens einer Kontextdatenquelle empfangen. Die Vorrichtungsbetriebsparameter umfassen mindestens einen Kontextparameter. Die Kontextparameter und Kontextdaten können sich jeweils beziehen auf: eine Geschwindigkeit der drahtlosen Kommunikationsvorrichtung, einen Standort der drahtlosen Kommunikationsvorrichtung, die Zeit, eine Aktivität des Vorrichtungsbetreibers, eine kognitive Belastung des Vorrichtungsbetreibers, einen Betrieb eines Fahrzeugs, der Fahrzeugbetriebsdaten und -umgebungsdaten umfasst, Außenbeleuchtung, Höhe und Außenklang. Die empfangenen Daten können eine Fusion von Daten aus einer Vielfalt von Quellen sein, wie zum Beispiel aus dem Inneren des Fahrzeugs, wo die drahtlose Kommunikationsvorrichtung kommunikativ an das Fahrzeug gekoppelt ist. Die Vorrichtungsbetriebsparameter können über eine persönliche tragbare Anwenderschnittstel le, wie zum Beispiel eine Fahrzeugidentifikationsschnittstelle 200 zur Verfügung gestellt werden.
  • Bei dem Schritt 806 wird ein Dienstzustand der drahtlosen Kommunikationsvorrichtung gesetzt. Der Dienstzustand kann sein: Anrufweiterleitung, Anrufweiterleitung an die Voicemail, sprachaktivierte Klingelbetriebsart, Anrufdurchführungsverzögerung und Anrufparteiidentifizierung, und so weiter.
  • Die drahtlose Kommunikationsvorrichtung kann ein Zellulartelefon, ein Pager, ein persönlicher digitaler Assistent, oder ein anderer Rechner sein, der Personalcomputer und Webbrowser umfasst.
  • Die Erfindung ist hinsichtlich mehrerer bevorzugter Ausführungsformen und im Besonderen hinsichtlich von Systemen und Verfahren zum Synthetisieren und Zusammenfassen von Informationen und der Präsentation von Informationen an einen Fahrer beschrieben worden. Angesichts der vorangehenden Beschreibung kommen dem Fachmann auf dem Gebiet Modifikationen und alternative Ausführungsformen in den Sinn. Diese Beschreibung soll nur als erläuternd ausgelegt werden und dient dem Zweck, dem Fachmann auf dem Gebiet die beste Betriebsart, die Erfindung auszuführen, zu offenbaren.

Claims (14)

  1. Verfahren zum Beurteilen der Leistung eines Fahrzeugführers, wobei das Verfahren die folgenden Schritte umfasst: Empfangen von Fahrzeugbetriebsdaten von dem Fahrzeug in Bezug auf den Fahrzeugbetriebszustand; Überwachen eines inneren Teils des Fahrzeugs und Empfangen von Fahrzeugführeraktivitätsdaten (118) aus dem inneren Teil des Fahrzeugs in Bezug auf Aktivitäten des Fahrzeugführers (108) in dem inneren Teil; Empfangen von Fahrzeugumgebungsdaten von der äußeren Umgebung des Fahrzeugs; und Überwachen des Fahrzeugführers (108) und Empfangen von Fahrzeugführerzustandsdaten (116) in Bezug auf einen Zustand des Fahrzeugführers (108); gekennzeichnet durch: Abschätzen einer kognitiven Belastung des Fahrzeugführers (108); und Bestimmen eines Fahrzeugführerbeurteilungswertes, wobei der Fahrzeugführerbeurteilungswert auf den Fahrzeugbetriebsdaten, den Fahrzeugführeraktivitätsdaten (118), den Umgebungsdaten, der kognitiven Belastung des Fahrzeugführers und den Fahrzeugführerzustandsdaten (116) basiert und die Fahrzeugführerleistung anzeigt.
  2. Verfahren gemäß Anspruch 1, wobei der Schritt des Empfangens von Fahrzeugzustandsdaten ein Empfangen von Daten umfasst, die sich mindestens auf einen der folgenden Punkte beziehen: Fahrzeuggeschwindigkeit, Fahrzeugbeschleunigung, Drosselklappenbetätigung, Bremsenbetätigung, Lenkradeingabe, Drosselklappenstellung, Änderungsrate der Drosselklappenstellung, zusätzliche verfügbare Drosselklappeneingabe, Drosselklappenbetätigungsdruck, Bremsenstellung, Änderungsrate der Bremenstellung, zusätzlich verfügbare Bremseingabe, Bremsenbetätigungsdruck, Lenkradstellung, Änderungsrate der Lenkradstellung, an das Lenkrad angelegter Fahrzeugführerdruck und zusätzlich zur Verfügung stehende Lenkeingabe.
  3. Verfahren gemäß Anspruch 1, wobei der Schritt des Empfangens von Fahrzeugführeraktivitätsdaten ein Empfangen von Daten umfasst, die sich mindestens auf einen der folgenden Punkte beziehen: Fahrsteuerungen, Telematiksteuerungen, Insassenkomfortsteuerungen, Infotainmentsteuerungen und Kommunikationssteuerungen.
  4. Verfahren gemäß Anspruch 1, wobei der Schritt des Empfangens von Fahrzeugführerzustandsdaten ein Empfangen von Daten umfasst, die sich auf mindestens einen der folgenden Punkte beziehen: Ermüdung, Rausch und Ablenkung.
  5. Verfahren gemäß Anspruch 1, wobei der Schritt des Empfangens von Fahrzeugumgebungsdaten ein Empfangen von Daten umfasst, die sich auf mindestens einen der folgenden Punkte beziehen: Straßenzustand, Fahrspurfolgen, Vorausfahrt, Verkehrssteuerung und Verkehrszustand.
  6. Verfahren gemäß Anspruch 1, wobei der Schritt des Bestimmens des Fahrzeugführerleistungsbeurteilungswertes ein Ableiten einer Fahrzeugführerleistungsbeurteilung umfasst.
  7. Vorrichtung zum Beurteilen einer Fahrzeugführerleistung, wobei die Vorrichtung umfasst: ein Sensorfusionsmodul (102), wobei das Sensorfusionsmodul (102) an einen Fahrzeugzustandssensor gekoppelt ist, ein Fahrzeugaußensensor, ein Fahrzeugführerzustandssensor (206) und einen Fahrzeugführeraktivitätssensor (208), die dem Sensorfusionsmodul (102) dementsprechend Fahrzeugzustandsdaten, Fahrzeugumgebungsdaten (114), Fahrzeugführerzustandsdaten (116) und Fahrzeugführeraktivitätsdaten (118) zur Verfügung stellen, wobei das Sensorfusionsmodul (102) betrieben werden kann, um eine Masterzustandsliste basierend auf den durch das Sensorfusionsmodul empfangenen Daten zur Verfügung zu stellen; wobei die Vorrichtung gekennzeichnet ist durch: eine tragbare persönliche Anwenderschnittstelle, um eine abgeschätzte kognitive Belastung des Fahrzeugführers (108) zur Verfügung zu stellen; und einen Antwortselektor (104), der an das Sensorfusionsmodul (102) und die tragbare persönliche Anwenderschnittstelle gekoppelt ist, wobei der Antwortselektor betrieben werden kann, um einen aktuellen Betriebszustand basierend auf der Masterzustandsliste und der abgeschätzten kognitiven Belastung des Fahrzeugführers (108) zu bestimmen und um eine Fahrzeugführeraktion in Reaktion auf den aktuellen Betriebszustand zu beurteilen, um einen Fahrzeugführerleis tungsbeurteilungswert basierend auf der Masterzustandsliste, der abgeschätzten kognitiven Belastung und der Fahrzeugführeraktion zur Verfügung zu stellen.
  8. Vorrichtung gemäß Anspruch 7, wobei die Fahrzeugzustandsdaten mindestens einen der folgenden Punkte umfassen: Fahrzeuggeschwindigkeit, Fahrzeugbeschleunigung, Drosselklappenbetätigung, Bremsenbetätigung, Lenkradeingabe, Drosselklappenstellung, Änderungsrate der Drosselklappenstellung, zusätzliche verfügbare Drosselklappeneingabe, Drosselklappenbetätigungsdruck, Bremsenstellung, Änderungsrate der Bremenstellung, zusätzlich verfügbare Bremseingabe, Bremsenbetätigungsdruck, Lenkradstellung, Änderungsrate der Lenkradstellung, an das Lenkrad angelegter Fahrzeugführerdruck und zusätzlich zur Verfügung stehende Lenkeingabe.
  9. Vorrichtung gemäß Anspruch 7, wobei die Fahrzeugführeraktivitätsdaten eine Verwendung von Daten umfassen, die sich mindestens auf einen der folgenden Punkte beziehen: Fahrsteuerungen, Telematiksteuerungen, Insassenkomfortsteuerungen, Infotainmentsteuerungen und Kommunikationssteuerungen.
  10. Vorrichtung gemäß Anspruch 7, wobei die Fahrzeugführerzustandsdaten Daten umfassen, die sich mindestens auf einen der folgenden Punkte beziehen: Ermüdung, Rausch und Ablenkung.
  11. Vorrichtung gemäß Anspruch 7, wobei die Fahrzeugumgebungsdaten Daten umfassen, die sich mindestens auf einen der folgenden Punkte beziehen: Straßenzustand, Fahrspurfolgen, Vorausfahrt, Verkehrssteuerung und Verkehrszustand.
  12. Vorrichtung gemäß Anspruch 7, wobei der Fahrzeugführerleistungsbeurteilungswert einen Rückschlusswert umfasst.
  13. Vorrichtung gemäß Anspruch 7, wobei der Fahrzeugaußensensor mindestens einen der folgenden Punkte umfasst: Radar, Laser, Video und Sonar.
  14. Vorrichtung gemäß Anspruch 7, wobei der Fahrzeugführeraktivitätssensor Video umfasst.
DE60115940T 2000-10-14 2001-10-15 Verfahren und vorrichtung zur beurteilung und verbesserung der leistung eines fahrzeugführers Expired - Lifetime DE60115940T2 (de)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US240444P 2000-10-13
US240553P 2000-10-13
US240560P 2000-10-13
US240443P 2000-10-13
US240493P 2000-10-13
US24055300P 2000-10-14 2000-10-14
US24044300P 2000-10-14 2000-10-14
US24049300P 2000-10-14 2000-10-14
US24044400P 2000-10-14 2000-10-14
US24056000P 2000-10-16 2000-10-16
US977173 2001-10-12
US09/977,173 US6925425B2 (en) 2000-10-14 2001-10-12 Method and apparatus for vehicle operator performance assessment and improvement
PCT/US2001/032101 WO2002034571A2 (en) 2000-10-14 2001-10-15 Method and apparatus for vehicle operator performance assessment and improvement

Publications (2)

Publication Number Publication Date
DE60115940D1 DE60115940D1 (de) 2006-01-19
DE60115940T2 true DE60115940T2 (de) 2006-07-06

Family

ID=27559298

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60115940T Expired - Lifetime DE60115940T2 (de) 2000-10-14 2001-10-15 Verfahren und vorrichtung zur beurteilung und verbesserung der leistung eines fahrzeugführers

Country Status (10)

Country Link
US (1) US6925425B2 (de)
EP (1) EP1328421B1 (de)
JP (1) JP2004512609A (de)
KR (1) KR100872000B1 (de)
AT (1) ATE313127T1 (de)
AU (1) AU2002224373A1 (de)
DE (1) DE60115940T2 (de)
DK (1) DK1328421T3 (de)
ES (1) ES2256319T3 (de)
WO (1) WO2002034571A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015221367A1 (de) * 2015-11-02 2017-05-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln von Prior-Werten einer Überwachungsvorrichtung eines Fahrers eines Kraftfahrzeuges

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587068B2 (en) * 2001-10-09 2003-07-01 Escort Inc. Police radar/laser detector with integral vehicle parameter display
DE10103401A1 (de) * 2001-01-26 2002-08-01 Daimler Chrysler Ag Gefahrenabwendungssystem für ein Fahrzeug
DE10144359A1 (de) * 2001-09-10 2003-04-03 Siemens Ag Vorrichtung zum Messen des Reifendrucks eines jeden Rades eines Kraftfahrzeug und Verfahren zum Betreiben der Vorrichtung
US8301108B2 (en) 2002-11-04 2012-10-30 Naboulsi Mouhamad A Safety control system for vehicles
DE10153987B4 (de) * 2001-11-06 2018-05-30 Daimler Ag Informationssystem in einem Fahrzeug
AUPS017302A0 (en) * 2002-01-25 2002-02-14 Tritronics (Australia) Pty Ltd Performance monitoring system and method
DE10223214A1 (de) * 2002-05-24 2003-12-18 Siemens Ag Verfahren zum Zuordnen von Reifenmodulen zu Radpositionen eines Reifendrucküberwachungssytems für ein Kraftfahrzeug und Vorrichtung zum Überwachen des Reifendrucks
US6980099B2 (en) * 2002-07-01 2005-12-27 Siemens Aktiengesellschaft Arrangement for monitoring at least one parameter for a number of motor vehicle wheels
NO317200B1 (no) * 2002-08-09 2004-09-13 Best Practice Deployment As System for trafikkopplaering i et kjoretoy
US6961644B2 (en) 2002-12-12 2005-11-01 Alps Automotive, Inc. Dual haptic vehicle control and display system
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US6931309B2 (en) * 2003-05-06 2005-08-16 Innosurance, Inc. Motor vehicle operating data collection and analysis
US7639148B2 (en) * 2003-06-06 2009-12-29 Volvo Technology Corporation Method and arrangement for controlling vehicular subsystems based on interpreted driver activity
US7292152B2 (en) * 2003-06-12 2007-11-06 Temic Automotive Of North America, Inc. Method and apparatus for classifying vehicle operator activity state
DE10335741A1 (de) * 2003-08-05 2005-03-17 Robert Bosch Gmbh Verfahren zur Ermittlung eines kritischen Fahrverhaltens
US9311676B2 (en) 2003-09-04 2016-04-12 Hartford Fire Insurance Company Systems and methods for analyzing sensor data
US7610210B2 (en) * 2003-09-04 2009-10-27 Hartford Fire Insurance Company System for the acquisition of technology risk mitigation information associated with insurance
US7711584B2 (en) 2003-09-04 2010-05-04 Hartford Fire Insurance Company System for reducing the risk associated with an insured building structure through the incorporation of selected technologies
WO2005055046A1 (en) * 2003-11-20 2005-06-16 Volvo Technology Corporation Method and system for interact between a vehicle driver and a plurality of applications
JP2005173929A (ja) * 2003-12-10 2005-06-30 Denso Corp 覚醒度判定装置
US7783505B2 (en) 2003-12-30 2010-08-24 Hartford Fire Insurance Company System and method for computerized insurance rating
US8090599B2 (en) 2003-12-30 2012-01-03 Hartford Fire Insurance Company Method and system for computerized insurance underwriting
US7482911B2 (en) * 2004-03-11 2009-01-27 Bayerische Motoren Werke Aktiengesellschaft Process for the output of information in a vehicle
US7269504B2 (en) * 2004-05-12 2007-09-11 Motorola, Inc. System and method for assigning a level of urgency to navigation cues
DE102004039305A1 (de) * 2004-08-12 2006-03-09 Bayerische Motoren Werke Ag Vorrichtung zur Auswertung der Aufmerksamkeit eines Fahrers bei einem Kollisionsvermeidungssystem in Kraftfahrzeugen
US7146276B2 (en) * 2004-09-13 2006-12-05 Delphi Technologies, Inc. Method for determining driving task demand based on speed variability
US7253724B2 (en) * 2004-11-05 2007-08-07 Ford Global Technologies, Inc. Vehicle pre-impact sensing and control system with driver response feedback
US20060212195A1 (en) * 2005-03-15 2006-09-21 Veith Gregory W Vehicle data recorder and telematic device
US7636626B2 (en) * 2005-03-28 2009-12-22 General Motors Company Method and system for monitoring and retrieving device usage
DE102006015332A1 (de) * 2005-04-04 2006-11-16 Denso Corp., Kariya Gastservice-System für Fahrzeugnutzer
US7386377B2 (en) * 2005-04-07 2008-06-10 Sorensen David I Vehicle and equipment monitoring apparatus
US7403124B2 (en) * 2005-05-10 2008-07-22 Fuji Jukogyo Kabushiki Kaisha Driving support equipment for vehicles
US7532958B2 (en) 2005-06-24 2009-05-12 General Motors Corporation Method for real-time assessment of driver workload by a navigation or telematics device
JP4743496B2 (ja) * 2005-07-08 2011-08-10 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション方法
US7394393B2 (en) * 2005-08-02 2008-07-01 Gm Global Technology Operations, Inc. Adaptive driver workload estimator
WO2007016731A1 (en) * 2005-08-05 2007-02-15 Vigil Systems Pty Ltd Computerised information collection and training method and apparatus
EP1965693B1 (de) * 2005-12-23 2013-02-27 Koninklijke Philips Electronics N.V. Stressorensensor und stressverwaltungssystem
DE112006003589B4 (de) * 2005-12-31 2019-07-18 General Motors Llc ( N. D. Ges. D. Staates Delaware ) Verfahren zum Bereitstellen einer Fahrzeuginformation durch eine Fahrzeug-Email-Benachrichtigung unter Verwendung von Daten von verschiedenen Quellen
GB2434346B (en) * 2006-01-18 2011-01-05 Airmax Group Plc Method and system for driver style monitoring and analysing
US9129233B2 (en) * 2006-02-15 2015-09-08 Catepillar Inc. System and method for training a machine operator
DE102006008981A1 (de) * 2006-02-23 2007-08-30 Siemens Ag Assistenzsystem zur Unterstützung eines Fahrers
GB0605069D0 (en) * 2006-03-14 2006-04-26 Airmax Group Plc Method and system for driver style monitoring and analysing
JP2007261432A (ja) * 2006-03-28 2007-10-11 Toyota Motor Corp 車両用制御装置
JP2007295524A (ja) * 2006-03-28 2007-11-08 Denso Corp 情報通信システム、施設側装置、ユーザ側装置、管理装置、車両側装置、施設側プログラム、ユーザ側プログラム、管理プログラム及び車両側プログラム
US8630768B2 (en) 2006-05-22 2014-01-14 Inthinc Technology Solutions, Inc. System and method for monitoring vehicle parameters and driver behavior
US9067565B2 (en) 2006-05-22 2015-06-30 Inthinc Technology Solutions, Inc. System and method for evaluating driver behavior
US7603228B2 (en) * 2006-05-25 2009-10-13 Ford Global Technologies, Llc Haptic apparatus and coaching method for improving vehicle fuel economy
US7692551B2 (en) * 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
US7692548B2 (en) * 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
US7899610B2 (en) 2006-10-02 2011-03-01 Inthinc Technology Solutions, Inc. System and method for reconfiguring an electronic control unit of a motor vehicle to optimize fuel economy
US7765058B2 (en) * 2006-11-20 2010-07-27 Ford Global Technologies, Llc Driver input analysis and feedback system
US8359209B2 (en) 2006-12-19 2013-01-22 Hartford Fire Insurance Company System and method for predicting and responding to likelihood of volatility
US7945497B2 (en) * 2006-12-22 2011-05-17 Hartford Fire Insurance Company System and method for utilizing interrelated computerized predictive models
US7880621B2 (en) * 2006-12-22 2011-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Distraction estimator
WO2008093712A1 (ja) * 2007-02-01 2008-08-07 Denso Corporation ドライバ管理装置および運行管理システム
JP4985428B2 (ja) * 2007-02-01 2012-07-25 株式会社デンソー ドライバ管理装置および運行管理システム
US7895135B2 (en) * 2007-02-12 2011-02-22 Deere & Company Human perception model for speed control performance
US8195364B2 (en) * 2007-02-12 2012-06-05 Deere & Company Perception model for trajectory following autonomous and human augmented steering control
US8498796B2 (en) * 2007-02-12 2013-07-30 Deere & Company Perception model for trajectory following autonomous and human augmented speed control
US7769512B2 (en) * 2007-02-12 2010-08-03 Deere & Company Vehicle steering control method and performance
WO2008110739A1 (en) * 2007-03-14 2008-09-18 Airmax Group Plc Method and system for driver style monitoring a analysing
US7652583B2 (en) * 2007-03-20 2010-01-26 Deere & Company Method and system for maintaining operator alertness
US20080243558A1 (en) * 2007-03-27 2008-10-02 Ash Gupte System and method for monitoring driving behavior with feedback
DE102007018517A1 (de) * 2007-04-19 2008-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Signalisierung der Komplexität einer Fahrsituation und Informationsanzeigeeinrichtung
US7982620B2 (en) * 2007-05-23 2011-07-19 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for reducing boredom while driving
US8825277B2 (en) 2007-06-05 2014-09-02 Inthinc Technology Solutions, Inc. System and method for the collection, correlation and use of vehicle collision data
US20080306706A1 (en) * 2007-06-07 2008-12-11 Nenad Markovic Accelerometer System
US8666590B2 (en) 2007-06-22 2014-03-04 Inthinc Technology Solutions, Inc. System and method for naming, filtering, and recall of remotely monitored event data
US9129460B2 (en) 2007-06-25 2015-09-08 Inthinc Technology Solutions, Inc. System and method for monitoring and improving driver behavior
US7999670B2 (en) 2007-07-02 2011-08-16 Inthinc Technology Solutions, Inc. System and method for defining areas of interest and modifying asset monitoring in relation thereto
US9117246B2 (en) 2007-07-17 2015-08-25 Inthinc Technology Solutions, Inc. System and method for providing a user interface for vehicle mentoring system users and insurers
US8818618B2 (en) 2007-07-17 2014-08-26 Inthinc Technology Solutions, Inc. System and method for providing a user interface for vehicle monitoring system users and insurers
US8577703B2 (en) 2007-07-17 2013-11-05 Inthinc Technology Solutions, Inc. System and method for categorizing driving behavior using driver mentoring and/or monitoring equipment to determine an underwriting risk
US20090043615A1 (en) * 2007-08-07 2009-02-12 Hartford Fire Insurance Company Systems and methods for predictive data analysis
US8108136B2 (en) * 2007-08-09 2012-01-31 Ford Global Technologies, Llc. Driver advisory system for fuel economy improvement of a hybrid electric vehicle
JP4687698B2 (ja) * 2007-09-06 2011-05-25 トヨタ自動車株式会社 省燃費運転支援装置
US7876205B2 (en) 2007-10-02 2011-01-25 Inthinc Technology Solutions, Inc. System and method for detecting use of a wireless device in a moving vehicle
US9726088B2 (en) * 2007-10-30 2017-08-08 Ford Global Technologies, Llc System and method for obtaining an adjustable accelerator pedal response in a vehicle powertrain
US7699129B2 (en) * 2007-10-31 2010-04-20 Ford Global Technologies, Llc Method and system for alerting a driver that a motive power system is about to be activated
US9665910B2 (en) 2008-02-20 2017-05-30 Hartford Fire Insurance Company System and method for providing customized safety feedback
US7864029B2 (en) * 2008-05-19 2011-01-04 Gm Global Technology Operations, Inc. Vehicle-setting-based driver identification system
US20090284361A1 (en) * 2008-05-19 2009-11-19 John Boddie Driver scoring system with lane changing detection and warning system
JP5203841B2 (ja) * 2008-08-01 2013-06-05 株式会社デンソー 運転アドバイス提供装置
US9710816B2 (en) * 2008-08-05 2017-07-18 Ford Motor Company Method and system of measuring customer satisfaction with purchased vehicle
US8688180B2 (en) 2008-08-06 2014-04-01 Inthinc Technology Solutions, Inc. System and method for detecting use of a wireless device while driving
CA2736168C (en) 2008-09-09 2018-04-10 United Parcel Service Of America, Inc. Systems and methods of utilizing telematics data to improve fleet management operations
US11482058B2 (en) 2008-09-09 2022-10-25 United Parcel Service Of America, Inc. Systems and methods for utilizing telematics data to improve fleet management operations
US8781688B2 (en) * 2008-11-07 2014-07-15 Volvo Lastvagnar Ab Method and system for combining sensor data
US8188887B2 (en) 2009-02-13 2012-05-29 Inthinc Technology Solutions, Inc. System and method for alerting drivers to road conditions
US8892341B2 (en) 2009-02-13 2014-11-18 Inthinc Technology Solutions, Inc. Driver mentoring to improve vehicle operation
US8963702B2 (en) 2009-02-13 2015-02-24 Inthinc Technology Solutions, Inc. System and method for viewing and correcting data in a street mapping database
US20120135382A1 (en) * 2009-05-12 2012-05-31 The Children's Hospital Of Philadelphia Individualized mastery-based driver training
US8369608B2 (en) * 2009-06-22 2013-02-05 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
JP5444898B2 (ja) 2009-07-09 2014-03-19 アイシン精機株式会社 状態検出装置、状態検出方法及びプログラム
US20110032098A1 (en) * 2009-08-06 2011-02-10 Cheng-Yun Yang Portable electronic apparatus with a user physical status sensing and warning circuit
US8224300B2 (en) * 2009-12-11 2012-07-17 Alpine Electronics, Inc. Method and apparatus to enhance navigation user experience for a smart phone device
US8909414B2 (en) * 2009-12-14 2014-12-09 Volkswagen Ag Three-dimensional corporeal figure for communication with a passenger in a motor vehicle
US9273978B2 (en) * 2010-01-08 2016-03-01 Blackberry Limited Methods, device and systems for delivery of navigational notifications
US8355934B2 (en) * 2010-01-25 2013-01-15 Hartford Fire Insurance Company Systems and methods for prospecting business insurance customers
US8190319B2 (en) 2010-06-08 2012-05-29 Ford Global Technologies, Llc Adaptive real-time driver advisory control for a hybrid electric vehicle to achieve fuel economy improvement
US9460471B2 (en) 2010-07-16 2016-10-04 Hartford Fire Insurance Company System and method for an automated validation system
KR101199154B1 (ko) * 2010-07-29 2012-11-12 기아자동차주식회사 하이브리드 차량의 변속 제어 시스템 및 그의 제어 방법
US9213522B2 (en) 2010-07-29 2015-12-15 Ford Global Technologies, Llc Systems and methods for scheduling driver interface tasks based on driver workload
GB2496765B (en) 2010-07-29 2014-04-16 Ford Global Tech Llc Systems and methods for scheduling driver interface tasks based on driver workload
US8972106B2 (en) * 2010-07-29 2015-03-03 Ford Global Technologies, Llc Systems and methods for scheduling driver interface tasks based on driver workload
US20120072322A1 (en) * 2010-09-20 2012-03-22 Agco Corporation Self-provisioning by a machine owner
US8880282B2 (en) * 2010-10-04 2014-11-04 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for risk prediction for a support actuation system
US9020669B2 (en) 2010-12-29 2015-04-28 Cummins Inc. Hybrid vehicle driver coach
US8863256B1 (en) * 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
US9251546B2 (en) 2011-03-22 2016-02-02 The Boeing Company System and method for evaluating operation of a vehicle with respect to a plurality of environmental factors
US9953468B2 (en) 2011-03-31 2018-04-24 United Parcel Service Of America, Inc. Segmenting operational data
US9208626B2 (en) 2011-03-31 2015-12-08 United Parcel Service Of America, Inc. Systems and methods for segmenting operational data
WO2012159195A1 (en) * 2011-05-20 2012-11-29 Otodata Wireless Network Inc. Method and system for monitoring interactions with a vehicle
US8915738B2 (en) * 2012-01-24 2014-12-23 Toyota Motor Engineering & Manufacturing North America, Inc. Driver quality assessment for driver education
US20140005886A1 (en) * 2012-06-29 2014-01-02 Microsoft Corporation Controlling automotive functionality using internal- and external-facing sensors
US20140074480A1 (en) * 2012-09-11 2014-03-13 GM Global Technology Operations LLC Voice stamp-driven in-vehicle functions
JP6215950B2 (ja) * 2012-09-17 2017-10-18 ボルボ ラストバグナー アクチエボラグ 状況に基づいた指導メッセージを車両の運転者に与える方法
US9424696B2 (en) * 2012-10-04 2016-08-23 Zonar Systems, Inc. Virtual trainer for in vehicle driver coaching and to collect metrics to improve driver performance
US9085262B2 (en) 2012-10-08 2015-07-21 Microsoft Technology Licensing, Llc Tinting indication of environmental conditions
KR101432067B1 (ko) * 2012-12-06 2014-08-22 대구가톨릭대학교산학협력단 운전능력 평가시스템
DE102013001747A1 (de) * 2013-01-31 2014-07-31 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Bewertung einer Fahrt
US10963966B1 (en) 2013-09-27 2021-03-30 Allstate Insurance Company Electronic exchange of insurance information
US8799034B1 (en) 2013-03-08 2014-08-05 Allstate University Company Automated accident detection, fault attribution, and claims processing
US10032226B1 (en) 2013-03-08 2018-07-24 Allstate Insurance Company Automatic exchange of information in response to a collision event
US9019092B1 (en) 2013-03-08 2015-04-28 Allstate Insurance Company Determining whether a vehicle is parked for automated accident detection, fault attribution, and claims processing
US20140272811A1 (en) * 2013-03-13 2014-09-18 Mighty Carma, Inc. System and method for providing driving and vehicle related assistance to a driver
US8738523B1 (en) * 2013-03-15 2014-05-27 State Farm Mutual Automobile Insurance Company Systems and methods to identify and profile a vehicle operator
US8909404B2 (en) * 2013-03-15 2014-12-09 Ford Global Technologies, Llc Information display system and method
US10445758B1 (en) * 2013-03-15 2019-10-15 Allstate Insurance Company Providing rewards based on driving behaviors detected by a mobile computing device
US9211891B2 (en) * 2013-08-02 2015-12-15 Inrix Inc. Personalized vehicle driving suggestions
CA2851465C (en) * 2013-08-30 2020-03-24 Motohide Sugihara Management system and management method for mining machine
US10572943B1 (en) 2013-09-10 2020-02-25 Allstate Insurance Company Maintaining current insurance information at a mobile device
US9443270B1 (en) 2013-09-17 2016-09-13 Allstate Insurance Company Obtaining insurance information in response to optical input
US9172477B2 (en) 2013-10-30 2015-10-27 Inthinc Technology Solutions, Inc. Wireless device detection using multiple antennas separated by an RF shield
US9805521B1 (en) 2013-12-03 2017-10-31 United Parcel Service Of America, Inc. Systems and methods for assessing turns made by a vehicle
US9188449B2 (en) * 2013-12-06 2015-11-17 Harman International Industries, Incorporated Controlling in-vehicle computing system based on contextual data
US20150161913A1 (en) * 2013-12-10 2015-06-11 At&T Mobility Ii Llc Method, computer-readable storage device and apparatus for providing a recommendation in a vehicle
JP6593974B2 (ja) * 2014-02-28 2019-10-23 矢崎エナジーシステム株式会社 運行評価装置
US20150262198A1 (en) * 2014-03-13 2015-09-17 GM Global Technology Operations LLC Method and apparatus of tracking and predicting usage trend of in-vehicle apps
US10399584B2 (en) 2014-03-27 2019-09-03 Ge Global Sourcing Llc System and method integrating an energy management system and yard planner system
US9234764B2 (en) 2014-05-20 2016-01-12 Honda Motor Co., Ltd. Navigation system initiating conversation with driver
US9623875B2 (en) 2014-06-13 2017-04-18 University of Pittsburgh—of the Commonwealth System of Higher Education Systems and method for driving evaluation and training
US9786154B1 (en) 2014-07-21 2017-10-10 State Farm Mutual Automobile Insurance Company Methods of facilitating emergency assistance
WO2016019706A1 (zh) * 2014-08-05 2016-02-11 深圳市元征科技股份有限公司 一种驾驶行为指引信息的生成方法、装置及系统
CN105438182B (zh) * 2014-09-11 2018-05-18 上海通用汽车有限公司 车用空调制冷剂泄漏在线检测方法和车辆
US10713717B1 (en) 2015-01-22 2020-07-14 Allstate Insurance Company Total loss evaluation and handling system and method
EP3268241A1 (de) * 2015-03-13 2018-01-17 Project Ray Ltd. System und verfahren zur anpassung der benutzerschnittstelle an benutzeraufmerksamkeit und fahrbedingungen
EP3075315B1 (de) * 2015-04-02 2024-02-07 Essilor International Vorrichtung und computerimplementiertes verfahren zur überwachung des visuellen verhaltens einer person
US9767625B1 (en) 2015-04-13 2017-09-19 Allstate Insurance Company Automatic crash detection
US10083551B1 (en) 2015-04-13 2018-09-25 Allstate Insurance Company Automatic crash detection
US20160334221A1 (en) 2015-05-11 2016-11-17 United Parcel Service Of America, Inc. Determining street segment headings
NZ741042A (en) * 2015-09-21 2022-12-23 Cw & Sr Invest Pty Ltd Method and apparatus for emergency braking performance testing, evaluation and/or driver training
US9940530B2 (en) * 2015-12-29 2018-04-10 Thunder Power New Energy Vehicle Development Company Limited Platform for acquiring driver behavior data
CN105788401B (zh) * 2016-04-20 2018-09-28 公安部交通管理科学研究所 基于实车体的防御性驾驶模拟体验训练系统
US10705519B2 (en) 2016-04-25 2020-07-07 Transportation Ip Holdings, Llc Distributed vehicle system control system and method
US10407078B2 (en) * 2016-04-26 2019-09-10 Sivalogeswaran Ratnasingam Dynamic learning driving system and method
US10019009B2 (en) 2016-06-15 2018-07-10 Allstate Insurance Company Vehicle control systems
US10474946B2 (en) 2016-06-24 2019-11-12 Microsoft Technology Licensing, Llc Situation aware personal assistant
US11173919B2 (en) * 2016-07-20 2021-11-16 Toyota Motor Europe Control device, system and method for determining a comfort level of a driver
US11361380B2 (en) 2016-09-21 2022-06-14 Allstate Insurance Company Enhanced image capture and analysis of damaged tangible objects
US10902525B2 (en) 2016-09-21 2021-01-26 Allstate Insurance Company Enhanced image capture and analysis of damaged tangible objects
US10394871B2 (en) 2016-10-18 2019-08-27 Hartford Fire Insurance Company System to predict future performance characteristic for an electronic record
US10131363B2 (en) * 2016-10-24 2018-11-20 Ford Global Technologies, Llc Vehicle with mode guidance
US10274338B2 (en) 2016-12-11 2019-04-30 International Business Machines Corporation Risk situations for vehicle occupants based on data provided by vehicle sensors and contextual information
JP7016351B2 (ja) * 2017-03-31 2022-02-14 本田技研工業株式会社 車載装置、情報管理サーバ、情報管理システム、および方法
US10937103B1 (en) 2017-04-21 2021-03-02 Allstate Insurance Company Machine learning based accident assessment
US11590981B2 (en) 2017-07-14 2023-02-28 Allstate Insurance Company Shared mobility service passenger matching based on passenger attributes
US11651316B2 (en) * 2017-07-14 2023-05-16 Allstate Insurance Company Controlling vehicles using contextual driver and/or rider data based on automatic passenger detection and mobility status
US11928621B2 (en) * 2017-07-14 2024-03-12 Allstate Insurance Company Controlling vehicles using contextual driver and/or rider data based on automatic passenger detection and mobility status
US10755495B1 (en) 2017-09-25 2020-08-25 State Farm Mutual Automobile Insurance Company Technology for detecting onboard sensor tampering
DE102017217175A1 (de) * 2017-09-27 2019-03-28 Continental Automotive Gmbh Verfahren zum Erzeugen eines aktuellen Betriebsstrategievorschlags für ein Kraftfahrzeug
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US11273836B2 (en) 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
CN108248608B (zh) * 2017-12-28 2019-09-17 北京百度网讯科技有限公司 用于评估驾驶系统的舒适度的方法和装置
US11001273B2 (en) * 2018-05-22 2021-05-11 International Business Machines Corporation Providing a notification based on a deviation from a determined driving behavior
EP3576074A1 (de) * 2018-06-01 2019-12-04 Volvo Car Corporation Verfahren und system zur unterstützung von fahrern beim fahren mit vorsicht
WO2020257420A1 (en) * 2019-06-18 2020-12-24 Veoneer Us, Inc. Good driver scorecard and driver training
US20200410368A1 (en) * 2019-06-25 2020-12-31 International Business Machines Corporation Extended rule generation
US11308800B2 (en) 2019-12-05 2022-04-19 Toyota Motor North America, Inc. Transport impact reporting based on sound levels
US10832699B1 (en) 2019-12-05 2020-11-10 Toyota Motor North America, Inc. Impact media sharing
US11107355B2 (en) 2019-12-05 2021-08-31 Toyota Motor North America, Inc. Transport dangerous driving reporting
US11798321B2 (en) * 2020-08-28 2023-10-24 ANI Technologies Private Limited Driver score determination for vehicle drivers

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS538937A (en) * 1976-07-09 1978-01-26 Toyota Motor Corp Driving aptitude judging method and its device for driver of vehicle
JPH01195139A (ja) 1988-01-30 1989-08-07 Suzuki Motor Co Ltd エンジン出力制御装置
US5074144A (en) * 1989-02-27 1991-12-24 Gary F. Krofchalk Vehicle performance monitoring system
DE3927921C1 (de) * 1989-08-24 1990-07-26 Dr.Ing.H.C. F. Porsche Ag, 7000 Stuttgart, De
SE9002650D0 (sv) * 1990-08-15 1990-08-15 Sses Ab Saett och anordning vid fordon
EP0576703B1 (de) * 1992-06-30 1995-11-02 Siemens Aktiengesellschaft Getriebesteuerung
US5465079A (en) * 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
US5769085A (en) * 1993-01-06 1998-06-23 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Apparatus for detecting awareness of a vehicle driver and method thereof
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5499182A (en) * 1994-12-07 1996-03-12 Ousborne; Jeffrey Vehicle driver performance monitoring system
JP3272960B2 (ja) 1996-08-19 2002-04-08 株式会社データ・テック ドライビングレコーダ及び車両の運行解析装置
JP3843513B2 (ja) * 1996-12-24 2006-11-08 トヨタ自動車株式会社 車両用警報装置
JPH10313359A (ja) 1997-05-12 1998-11-24 Nec Corp 自動応答電話装置
US6249720B1 (en) 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
NL1009775C2 (nl) 1998-07-30 2000-02-01 Univ Twente Systeem en werkwijze voor het efficiënt besturen van een motorvoertuig.
US6268803B1 (en) * 1998-08-06 2001-07-31 Altra Technologies Incorporated System and method of avoiding collisions
JP3044025B1 (ja) 1998-12-09 2000-05-22 株式会社データ・テック 運転傾向性の分析が可能な運行管理システム及びその構成装置
EP1125237B1 (de) * 1998-10-30 2005-08-24 Walter Reed Army Institute of Research Anlage und verfahren zum vorhersagen von menschlichen kognitiven leistungen unter verwendung von aktigraphdaten
SE9804124D0 (sv) 1998-11-26 1998-11-26 Greger Andersson Förfarande för att kartlägga förarbeteenden samt anläggning för förfarandets genomförande
DE19860248C1 (de) * 1998-12-24 2000-03-16 Daimler Chrysler Ag Verfahren und Vorrichtung zur Klassifizierung der Fahrweise eines Fahrers in einem Kraftfahrzeug
JP2000268297A (ja) * 1999-03-16 2000-09-29 Nissan Motor Co Ltd 安全運転評価装置
ATA47899A (de) 1999-03-17 2003-06-15 Fahrertraining & Motorsportman Verfahren und vorrichtung zur überwachung der fahrtüchtigkeit einer ein fahrzeug oder einen fahrsimulator steuernden person
US6370454B1 (en) * 2000-02-25 2002-04-09 Edwin S. Moore Iii Apparatus and method for monitoring and maintaining mechanized equipment
US6285930B1 (en) * 2000-02-28 2001-09-04 Case Corporation Tracking improvement for a vision guidance system
US6980092B2 (en) * 2000-04-06 2005-12-27 Gentex Corporation Vehicle rearview mirror assembly incorporating a communication system
US20020103622A1 (en) * 2000-07-17 2002-08-01 Burge John R. Decision-aid system based on wirelessly-transmitted vehicle crash sensor information
US6721644B2 (en) * 2000-08-02 2004-04-13 Alfred B. Levine Vehicle drive override subsystem
US6356812B1 (en) 2000-09-14 2002-03-12 International Business Machines Corporation Method and apparatus for displaying information in a vehicle
AU2001292857A1 (en) * 2000-09-21 2002-04-02 American Calcar, Inc. Technique for operating a vehicle effectively and safely
US6564127B1 (en) * 2000-10-25 2003-05-13 General Motors Corporation Data collection via a wireless communication system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015221367A1 (de) * 2015-11-02 2017-05-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln von Prior-Werten einer Überwachungsvorrichtung eines Fahrers eines Kraftfahrzeuges

Also Published As

Publication number Publication date
DE60115940D1 (de) 2006-01-19
KR100872000B1 (ko) 2008-12-05
WO2002034571A2 (en) 2002-05-02
US20020116156A1 (en) 2002-08-22
US6925425B2 (en) 2005-08-02
KR20030070888A (ko) 2003-09-02
EP1328421B1 (de) 2005-12-14
DK1328421T3 (da) 2006-05-01
WO2002034571A3 (en) 2002-08-15
EP1328421A2 (de) 2003-07-23
ES2256319T3 (es) 2006-07-16
JP2004512609A (ja) 2004-04-22
ATE313127T1 (de) 2005-12-15
AU2002224373A1 (en) 2002-05-06

Similar Documents

Publication Publication Date Title
DE60115940T2 (de) Verfahren und vorrichtung zur beurteilung und verbesserung der leistung eines fahrzeugführers
DE60124937T2 (de) Verfahren und gerät zur verbesserung des fahrerverhaltens in einem fahrzeug
DE60115693T2 (de) System und verfahren zur fahrerleistungsverbesserung
EP1330377B8 (de) Verfahren für eine syntheseantwort in einem fahrer-assistenzsystem
US7292152B2 (en) Method and apparatus for classifying vehicle operator activity state
US20020151297A1 (en) Context aware wireless communication device and method
CN1802273B (zh) 根据被解释的驾驶员活动控制车辆子系统的方法和装置
DE102017130414A1 (de) Fahrzeug-systeme zur kontextabhängigen beurteilung
DE102017113447A1 (de) Fahrverhaltensanalyse basierend auf einer Fahrzeugbremsung
DE102019201407A1 (de) Verfahren und Vorrichtung zum Steuern der Aufmerksamkeit eines Fahrers
EP1930201A1 (de) Verfahren zur Möglichkeit der Anpassung der Fahrsituation eines von einem Fahrer geführten Fahrzeugs

Legal Events

Date Code Title Description
8364 No opposition during term of opposition