DE19983911B4 - Wachsamkeitsüberwachungssystem - Google Patents

Wachsamkeitsüberwachungssystem Download PDF

Info

Publication number
DE19983911B4
DE19983911B4 DE19983911.5T DE19983911T DE19983911B4 DE 19983911 B4 DE19983911 B4 DE 19983911B4 DE 19983911 T DE19983911 T DE 19983911T DE 19983911 B4 DE19983911 B4 DE 19983911B4
Authority
DE
Germany
Prior art keywords
subject
driver
vehicle
alertness
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19983911.5T
Other languages
English (en)
Other versions
DE19983911T5 (de
Inventor
David Burton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Compumedics Sleep Pty Ltd
Original Assignee
Compumedics Sleep Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AUPP8325A external-priority patent/AUPP832599A0/en
Priority claimed from AUPQ3740A external-priority patent/AUPQ374099A0/en
Application filed by Compumedics Sleep Pty Ltd filed Critical Compumedics Sleep Pty Ltd
Publication of DE19983911T5 publication Critical patent/DE19983911T5/de
Application granted granted Critical
Publication of DE19983911B4 publication Critical patent/DE19983911B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • B60L3/02Dead-man's devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/14Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger operated upon collapse of driver
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7232Signal processing specially adapted for physiological signals or for diagnostic purposes involving compression of the physiological signal, e.g. to extend the signal recording period
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0083Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus especially for waking up
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/08Other bio-electrical signals
    • A61M2230/10Electroencephalographic signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/08Other bio-electrical signals
    • A61M2230/14Electro-oculogram [EOG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/60Muscle strain, i.e. measured on the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2200/00Type of vehicles
    • B60L2200/26Rail vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2260/00Operating Modes
    • B60L2260/40Control modes
    • B60L2260/46Control modes by self learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology

Abstract

Gerät zum Bestimmen eines Wachsamkeitszustandes eines Subjekts, wobei das Gerät umfaßt:einen ersten Sensor, der mit dem Subjekt wirkverbunden ist, zum Überwachen zumindest einer physiologischen Variable, die mit dem Subjekt verknüpft ist, und zum Erzeugen eines mit der zumindest einen physiologischen Variable in Beziehung stehenden ersten Ausgangssignals, wobei der erste Sensor wirkverbunden ist mit einem Mitglied der folgenden Aufzählung:ein Lenkrad; ein oberer Abschnitt eines Sitzes für das Subjekt; ein unterer Abschnitt eines Sitzes für das Subjekt; ein Sitzgurt für das Subjekt; ein Gaspedal; ein Kupplungspedal; ein Bremspedal eines Fahrzeugs; ein Bodenbelag; eine Sonnenblende oder ein Teil eines Fahrzeugs;einen zweiten Sensor, der mit dem Subjekt wirkverbunden ist, zum Überwachen der zumindest einen physiologischen Variablen des Subjekts und zum Erzeugen eines mit der zumindest einen physiologischen Variable in Beziehung stehenden zweiten Ausgangssignals, wobei der zweite Sensor wirkverbunden ist mit einem zweiten Mitglied der folgenden Aufzählung, wobei sich das zweite Mitglied von dem ersten Mitglied unterscheidet:ein Lenkrad; ein oberer Abschnitt eines Sitzes für das Subjekt; ein unterer Abschnitt eines Sitzes für das Subjekt; ein Sitzgurt für das Subjekt; ein Gaspedal; ein Kupplungspedal; ein Bremspedal eines Fahrzeugs; eine Sonnenblende oder ein Teil eines Fahrzeugs;einen Computerprozessor zum Empfangen des ersten und des zweiten Ausgangssignals, wobei der Computerprozessor das erste und das zweite Ausgangssignal mit einem Referenzdatensatz vergleicht, wobei der Referenzdatensatz mit der zumindest einen physiologischen Variable in Beziehung steht und in einem Entspannungs- oder Ermüdungszustand des Subjekts ermittelt wurde, um einen Datensatz zu erhalten, der den physiologische Zustand des Subjekts zeigt, der der zumindest einen physiologischen Variablen des Subjekts entspricht; undein Schwellwertwachsamkeitssignal, welches auf einen niedrigen Wachsamkeitszustand gesetzt wird, wenn der Datensatz unter einen vorgegebenen niedrigen Wachsamkeitsschwellenwert sinkt.

Description

  • Die vorliegende Erfindung bezieht sich auf ein Wachsamkeitsüberwachungssystem. Insbesondere betrifft die Erfindung ein System, um die Wachsamkeit, die Flinkheit oder der Schlafloszustand und/oder einen angespannten Zustand einer Bedienungsperson eines Geräts oder einer Maschine in verschiedenen Situationen einschließlich Situationen zu überwachen, aufzuzeichnen und/oder zu analysieren, wo der Grad an Wachsamkeit der Bedienungsperson Auswirkungen auf die Sicherheit oder das Wohlbefinden der Bedienungsperson oder anderer Personen hat. Eine typische Anwendung kann das Überwachen des Fahrers eines Fahrzeugs oder des Piloten eines Flugzeugs umfassen, obwohl die Erfindung auch Anwendungen in Bereichen hat, die Besatzungen, beispielsweise Zugführer und Bedienungspersonen einer Maschine umfassen, beispielsweise bei Kränen und Industriegeräten allgemein, wo ein Mangel der Bedienerwachsamkeit schädliche soziale oder ökonomische Konsequenzen hervorrufen kann.
  • EP 0 773 504 A1 beschreibt ein computergestütztes Verfahren zum Trainieren und Prüfen eines zum Überwachen von Schlaf oder Vigilanz geeigneten neuronalen Netzes. US 5 585 785 A beschreibt eine Alarmvorrichtung mit einem Drucksensor, der an einem Lenkrad eines Fahrzeuges angeordnet ist. Unterschreitet der Druck einen bestimmten Wert, wird ein Alarmsignal ausgegeben. US 5 846 206 A , US 5 813 993 A , US 5 689 241 A und US 5 465 079 A beschreiben weitere Systeme zur Überwachen und Detektion der Wachsamkeit bzw. Schläfrigkeit einer Person.
  • Das System der vorliegenden Erfindung wird anschließend in bezug auf das Überwachen eines Fahrers eines Fahrzeugs beschrieben, obwohl dieses nicht dadurch auf diese Anwendungen beschränkt ist. Beispielsweise können andere Anwendungen das Überwachen üblicher, akuter oder angenähert akuter physiologischer Parameter einer Person oder eines Subjekts in einem Haus, einer Firma, einer Klinik oder einem Krankenhaus umfassen. Die überwachten Parameter können Herz-, Atmungs- und Bewegungsparameter sowie Parameter umfassen, die sich auf Atemstillstände, Patienten-Schlafzustände oder ein plötzliches beginnendes Sterbesyndrom beziehen.
  • Das Überwachungssystem ist unter anderem dazu bestimmt, keine zudringliche Überwachung von physiologischen Daten eines Fahrers bereitzustellen, die die Bewegungsaktivität, die Herzaktivität, Atmungs- und weitere physiologische Funktionen umfassen. Die überwachten physiologischen Daten können einer speziellen Analyseverarbeitung unterzogen sein, um bei der Bestimmung des Wachsamkeitszustands eines Fahrers zu helfen. Das System ist so ausgebildet, verschiedene Zustände der Aktivität eines Fahrers zu ermitteln und bestimmte Zustände der Müdigkeit oder des Entspannungszustands eines Fahrers zu ermitteln, die zu einer unsicheren Fahrbedingung oder Fahrbedingungen führen könnten.
  • Das System nach der vorliegenden Erfindung umfaßt eine Einrichtung, um Bewegungsdaten in Verbindung mit dem Fahrer zu sammeln. Die Bewegungssammeleinrichtung kann mehrere Sensoren umfassen, beispielsweise berührungs-sensitive Matten, die an Stellen des Fahrzeugs angeordnet sind, um einen Kontakt mit dem Fahrer herzustellen, beispielsweise am Sitz, am Lenkrad, am Pedal (an den Pedalen), am Sitzgurt oder dgl.. Jede Stelle kann mehrere Sensoren oder Matten aufweisen, um Bewegungen des Fahrers genauer zu überwachen.
  • Die Signale von den verschiedenen Sensoren/Matten können durch eine Verarbeitungseinrichtung verarbeitet und analysiert werden. Die Verarbeitungseinrichtung kann einen digitalen Computer umfassen. Die Verarbeitungseinrichtung kann programmiert sein, um bestimmte Bewegungssignaturen oder Bewegungsmuster, die Körperhaltung des Fahrers oder das Profil zu erkennen, und um diese zu interpretieren, um zu zeigen, daß die Wachsamkeit sich verschlechtert hat oder unterhalb eines akzeptablen Schwellenwerts ist. Die Verarbeitungseinrichtung kann einen oder mehrere Algorithmen umfassen.
  • Die Sensoren oder Matten können piezo-elektrisches, elektro-statisches, piezo-keramisches oder Dehnungsmeß-Material umfassen. Das Letztere kann durch Trennen von zwei leitfähigen Materialien, beispielsweise einer Aluminiumfolie mit einem elektrolytischen Material hergestellt werden, welches in der Lage ist, Wechselstrom jedoch nicht Gleichstrom durchzulassen. Bei einer Form können die Sensoren oder Matten kapazitives statisches Entladungsmaterial (Capacitive Static Discharge - CSD) oder Polyvinylidenfluorid-Material (PVDF) umfassen. Die Sensoren/Matten können mit einer nicht-aufdringlichen flexiblen Fläche überdeckt sein, die in der Lage ist, den Druck zu ermitteln und/oder die elektro-physiologische Aktivität zu überwachen.
  • Die Druckermittlungsfähigkeit kann dazu verwendet werden, die Bewegung des Fahrers zu ermitteln. Der oder jeder Sensor kann ein Ausgangssignal erzeugen, welches die Größe des Drucks oder der Kraft zeigt, die an den Sensor angelegt wird. Das oder jedes Drucksignal kann somit einen absoluten oder quantitativen Meßwert des Drucks zeigen, der an den Sensor angelegt wird. Die elektro-physiologische Aktivität kann elektrische Signale umfassen, die durch den Körper des Fahrers erzeugt werden, beispielsweise die elektrische Muskelaktivität und/oder die Pulsaktivität.
  • Die Sensoren oder Matten können in verschiedenen Teilen eines Fahrzeugs angeordnet sein. Der Sitz des Fahrers kann in mehrere Abschnitte unterteilt sein, beispielsweise in einen oberen oder hinteren und unteren Abschnitt oder Sitz. Der obere oder hintere Abschnitt kann Sensoren im oberen Rand, in der Mitte und in der Basis aufweisen. Der untere Abschnitt oder Sitzabschnitt kann Sensoren im vorderen Rand, in der Mitte oder hinten aufweisen. Der oder jeder Sensor kann CSD- oder PVDF-Material umfassen.
  • Das Lenkrad kann mehrere Sensoren aufweisen. Das Lenkrad kann in acht Zonen unterteilt sein, beispielsweise in eine obere, eine obere linke, eine obere rechte, eine linke, eine rechte, eine untere linke, eine untere rechte und eine untere Zone. Zumindest ein Sensor kann mit jeder Zone verknüpft sein. Der oder jeder Sensor kann CSD- oder PVDF-Material aufweisen.
  • Der Bodenbelag, beispielsweise der Teppich kann mehrere Sensoren aufweisen. Der Bodenbelag oder Teppich kann in mehrere Zonen unterteilt sein. Zumindest ein Sensor kann mit jeder Zone verknüpft sein. Der oder jeder Sensor kann CSD- oder PVDF-Material aufweisen.
  • Das Gas-, Kupplungs- und Bremspedal kann mehrere Sensoren aufweisen. Jedes Pedal kann in mehrere Zonen unterteilt sein, beispielsweise in eine obere, mittlere und untere Zone. Zumindest ein Sensor kann mit jeder Zone verknüpft sein. Der oder jeder Sensor kann CSD- , PVDF- oder ein anderes bewegungs-sensitives Material umfassen.
  • Der Sitzgurt kann einen oder mehrere Sensoren umfassen. Bei einer Form kann ein Sensor oder Sensoren in einem festen Abschnitt (d.h., nicht-dehnbaren Abschnitt) des Sitzgurts eingebettet sein. Der oder jeder Sensor kann CSD- oder PVDF-Material umfassen.
  • Bei einigen Ausführungsformen kann eine Kopfbedeckungseinrichtung, die einen Positionsschalter oder dgl. enthält, mit der Kappe des Fahrers, der Brille oder der Schutzbrille verknüpft sein oder kann so angeordnet sein, daß diese sich über das Ohr oder die Brille des Fahrers klammert. Die Kopfbedeckungseinrichtung kann so ausgebildet sein, ein Signal oder Daten zu liefern, welche sich gemäß der Position des Kopfes des Fahrers ändern. Alternativ dazu kann eine Funknachführungseinrichtung Kopfbewegungen einer Person ermitteln und nachführen.
  • Bei kritischen Anwendungen der Wachsamkeitsüberwachung einschließlich bei Anwendungen, die Flugzeugpiloten, Personen, die zur Navigation/zum Steuern von Verladungen verantwortlich sind, und Fahrer von Straßen- und Zugtransporten umfassen, kann es wünschenswert sein, umfassendere Verfahren zur Wachsamkeitsüberwachung zu nutzen. Diese können Verfahren umfassen, die beim üblichen Überwachen des Schlafs verwendet werden. Ein Kopfband- und/oder Kinnband-Sensor kann dazu verwendet werden, EEG, EMG- und EOG-Signale zu überwachen. Der Kopfbandsensor kann separate linke und rechte vordere Zonen und linke und rechte Augenzonen umfassen. Der Sensor kann CSD- oder PVDF-Material oder ein anderes Material aufweisen, das empfindlich ist, elektrische Oberflächenveränderungen und/oder die Impedanz der Haut des Patienten zu messen.
  • Es können verschiedene Sensoren/Verfahren zur Überwachung der Augenbewegung angewandt werden, die diejenigen auf der Basis des reflektierten Lichts, des elektrischen Potentials der Haut, der Kontaktlinsen, der Limbus-Nachführung, der Videoaufnahme und der Magnetinduktion umfassen. Die Sensoren/Verfahren können EOG-Elektroden, die Infrarot-Ermittlung von Augenbewegungen und/oder die Videonachführung und die Verarbeitung von Augenbewegungen umfassen. Die Sensoren/Verfahren können dazu ausgebildet sein, um lediglich das linke Auge oder lediglich das rechte Auge oder beide Augen zu überwachen.
  • Unbearbeitete Daten, die von den unterschiedlichen Sensoren, die um das Fahrzeug herum angeordnet sind, gesammelt werden, können gefiltert und verstärkt werden, bevor sie verarbeitet und analysiert werden. Ein signifikanter Zweck der Überwachung und der Analyse dient dazu, den Wachsamkeitszustand des Fahrers, die Flinkheit und Wachzustand zu bestimmen. Bei einigen Ausführungsformen kann das System so ausgebildet sein, eine heilende Aktion zu bewirken, d.h., daß das System Schritte unternehmen kann, den Fahrer aufzuwecken, oder aktiv in die Steuerung des Fahrzeugs zu intervenieren, wenn es scheint, daß diese Aktion berechtigt oder wünschenswert ist.
  • Das Verarbeiten von Daten kann in mehreren Stufen durchgeführt werden, die eine primäre, sekundäre und tertiäre Analyse umfassen.
  • Die primäre Analyse bezieht sich auf das Verarbeiten von unbearbeiteten Daten von den verschiedenen Sensoren. Diese unbearbeiteten Daten können vor einer Analog-Digital-Umsetzung gefiltert und verstärkt werden. Die primäre Analyse kann so ausgebildet sein, um gültige Körperbewegungen des Fahrers festzulegen, die von falschen Signalen und Artefakts aufgrund von Umgebungsfaktoren einschließlich Geräusch verschieden sind.
  • Gültige Körperbewegungen können dadurch bestimmt werden, daß eine Kombination von Verarbeitungsverfahren angewandt wird, die umfassen:
    1. 1. die Signalschwellenwertermittlung, wodurch Signale unter oder über einem vorgegebenen Schwellenwert ignoriert und/oder als Rauschen oder Artefakt klassifiziert werden,
    2. 2. das Frequenzfiltern, wobei Hochpaß-, Tiefpaß- und Kerbfilter so ausgebildet sind, um Rausch- und Fehlersignale zu beseitigen,
    3. 3. die Signalkompression, wodurch Daten durch Unterbreiten von Hauptdatenpunkten wie Signalspitzen, Senken, Durchschnittswerten und Nullpunktkreuzungen minimiert werden,
    4. 4. die Halbperioden-Amplitudenanalyse von Signalen einschließlich einer Analyse, wie diese in dem AU-Patent 63 29 32 mit dem Titel offenbart ist „Analysis System for Physiological Varibles“, welches auf die vorliegende Anmelderin ausgestellt ist, wobei dessen Offenbarung hier durch Querreferenz eingeführt wird.
  • Die Schwellenwertermittlung kann das Unterscheiden von zufälligen und nicht-signifikanten elektrischen Rauschen (üblicherweise Spitzen einer kleinen Dauer) in bezug auf die Signale erleichtern, die gültige oder aktuelle Körperbewegungen zeigen. Die Schwellenwertermittlung kann sowohl auf die Amplitude als auch auf die Dauer der Signale angewandt werden. Der relevante Schwellenwert (die relevanten Schwellenwerte) kann (können) aus klinischen Versuchen und/oder historischen Daten bestimmt werden. Wenn die Ermittlung auf der Amplitude basiert, kann dieses sowohl bei sowohl negativen als auch positiven Phasen des Signals bestimmt werden. Die Amplitudenermittlung kann auf einer Messung des Spitze-Spitze-Signals basieren. Alternativ dazu können die positiven und negativen Spitzenamplituden separat gemessen werden. Die Schwellenwertermittlung kann mit einer Form von Nullinienermittlung kombiniert sein, so daß elektronische Offsets die Genauigkeit der Schwellenwertermittlungen nicht nachteilig beeinträchtigen. Jede Körperbewegung, welche die vorher-festgelegte Amplitude und/oder Dauer übersteigt, kann als Ereignis klassifiziert werden, um weiterverarbeitet zu werden.
  • Die sekundäre Analyse kann angewandt werden, um die Ergebnisse der Primäranalyse zu verarbeiten. Die Sekundäranalyse kann Daten zum Zwecke der Darstellung und/oder Anzeige verarbeiten. Daten können in einer tabellarischen, graphischen oder einem anderen Format angezeigt werden, welches die Interpretation der Daten erleichtert. Ein Zweck zum Darstellen und/oder Anzeigen besteht darin, den Wachsamkeitszustand und/oder die Ermüdung des Fahrers zu zeigen. Bei einer Form kann jedes Ereignis, welches während der Primäranalyse identifiziert wird, eine feste Zeitdauer oder einen Zeitabschnitt lang gezählt werden. Die feste Zeitdauer kann 30 Sekunden oder 60 Sekunden sein oder eine andere Dauer, die geeignet ist, Trends der Körperbewegung zu bestimmen. Der Zählwert oder die Anzahl von gültigen Körperbewegungen in einer vorgegebenen Zeitdauer (beispielsweise 30 Sekunden) kann auf einer Anzeige dargestellt werden, beispielsweise als Länge eines vertikalen Balkens.
  • Wenn man wünscht, die Energie oder die Leistung in Verbindung mit gültigen Körperbewegungen in einem bestimmten Zeitabschnitt oder einer Zeitdauer anzuzeigen, kann die Durchschnittsamplitude, die mit jedem Ereignis in Verbindung steht, durch die Länge des Vertikalbalkens angezeigt werden, während der Zählwert oder die Anzahl von gültigen Körperbewegungen für jeden Zeitabschnitt durch Einfärben des Vertikalbalkens dargestellt werden kann. Beispielsweise können die Farben grün, blau, gelb, orange, rot Zählwerte oder Bewegungszahlen in einer ansteigenden Reihenfolge anzeigen, d.h., grün, um die niedrigste Bewegungszahl für einen bestimmten Zeitabschnitt anzuzeigen, und rot, um die höchste Bewegungszahl für einen bestimmten Zeitabschnitt anzuzeigen. Alternativ können Daten auf einer 3-dimensionalen graphischen Darstellung angezeigt werden, wo beispielsweise die x-Abmessung der graphischen Darstellung die Zeit oder die Zeitabschnitte darstellt, die y-Abmessung die Durchschnittsamplitude zeigt, während die z-Abmessung der Anzahl von Ereignissen während eines bestimmten Zeitabschnitts zeigt. Die obigen Anzeigeverfahren können die Interpretation der Anzahl von gültigen Körperbewegungen und die Amplitude dieser Bewegungen und die Verbindung dieser Daten mit der Aktivität des Fahrers oder dem Wachsamkeitszustand, dem Flinkheitszustand oder dem Schlafloszustand erleichtern.
  • Es kann auch sachdienlich sein, die Periode jeder individuellen Körperbewegung zu messen, da diese eine Anzeige der Energie liefern kann, die mit der Bewegung verknüpft ist. Wenn beispielsweise ein Fahrer das Lenkrad als schnelle Reaktion drückt, die vom Anfassen des Lenkrads als Teil eines konzentrierten Lenkungsmanövers verschieden ist, wird das Signalmuster in diesem Fall verschieden sein. Die schnelle Reaktion kann als kleine Gruppe von Bewegungen/Signalen oder als einzelne Bewegung/einzelnes Signal mit einer relativ kurzen Zeitdauer oder Zeitperiode erscheinen. Im Gegensatz dazu kann das Lenkungsmanöver als große Gruppe von Bewegungen/Signalen über eine relativ längere Zeitdauer oder eine einzelne Bewegung/einzelnes Signal auftreten, welches eine relativ lange Dauer hat.
  • Der Signaltypus, der erwartet werden kann (Gruppe oder einzelne Bewegung/Signal) wird teilweise vom Sensortypus abhängen. Beispielsweise können piezo-keramische oder PVDF-Sensoren weniger Signalgruppen aussenden, können jedoch Signale mit einer größeren Zeitdauer in bezug auf die aktuelle Zeitdauer der Bewegung emittieren, die grade überwacht wird. Ein kapazitiver elektro-statischer Sensor neigt mehr dazu, Gruppen von „Spitzen“ zu imitieren, die relativ kurze Periodensignale haben. Es kann notwendig sein, den Energiepegel jeder Bewegung aufzuzeichnen, wenn dieser Energiepegel unter einen bestimmten Schwellenwert fallen kann, wenn der Fahrer in einem Ermüdungszustand ist. Wenn beispielsweise sich der Fahrer ausgeruht hat, kann die Energie einer Körperbewegung bei den Fahraktionen signifikant mehr gedämpft sein als in dem Fall, wenn der Fahrer wach ist und dessen Muskelaktivität wesentlich größer ist. Daher kann es nützlich sein, alle Körperbewegungen zu messen und aufzuzeichnen. Diese Daten können auf einer hochauflösenden graphischen Darstellung angezeigt werden, wo beispielsweise die x-Achse Perioden einer 1/2-Sekunde darstellt und 960 Zeilen jeden fortlaufenden Abschnitt bzw. 480 Sekunden (8 Minuten) bilden. Das größte Amplitudensignal in jeder 1/2-Sekundenperiode könnte dann auf der X-Achse angezeigt werden. Die Y-Achse dagegen könnte durch eine Skala von Amplituden dargestellt werden, die jede Körperbewegung zeigen. Diese graphische Darstellung würde genauer sein, um den aktuellen Signalpegel jeder Körperbewegung und des nachfolgenden Muskelstatus für einen Fahrer zu zeigen.
  • Es kann außerdem nützlich sein, Ereignisse zu ermitteln, die durch Bewegungsgruppen darstellt werden, wo beispielsweise die Bewegungsgruppen eine Fahreraktivität von Interesse anzeigen können. Die Ermittlung von Bewegungsgruppen können konfigurierbare oder vorhandene Werte des Benutzers umfassen für:
    • ♦ die Maximalzeit zwischen aufeinanderfolgenden Körperbewegungen, um eine Berechtigung zu bekommen, als Teil einer periodischen Körperbewegung gezählt zu werden
    • ♦ die Anzahl von aufeinanderfolgenden Körperbewegungen, die erforderlich ist, eine periodische Bewegung zu bezeichnen
    • ♦ die Zeitperiode, während der die Anzahl von Körperbewegungen existieren muß, um als periodische Körperbewegung zu berechtigen.
  • Eine periodische Meßanalyse kann beispielsweise das Nicht-Vorhandensein von Bewegungen ermitteln, die mit einer Ermüdung des Fahrers in Verbindung gebracht werden können.
  • Eine dritte Analyse kann dazu verwendet werden, die Ergebnisse der sekundären Analyse zu verarbeiten. Ein Zweck der dritten Analyse besteht darin, den Status des Zustands der Wachsamkeit, der Flinkheit und des Schlafloszustands des Fahrers festzulegen. Die dritte Analyse kann die Ergebnisse der zweiten Analyse verarbeiten, um Zwischendaten zu erzeugen und/oder Trends in den Daten anzuzeigen. Die Zwischendaten und die Trends können dazu verwendet werden, Zusammenfassungsberichte und weiter tabellarische und/oder graphische Darstellungen eines Fahrerstatus oder Zustand zu liefern. Die Zwischendaten können durch einen oder mehrere Wachsamkeitsalgorithmen verarbeitet werden, um den Zustand der Wachsamkeit eines Fahrers, der Flinkheit oder des Schlafloszustands zu bestimmen. Verschiedene Zwischendatenarten können hergeleitet werden und der Wachsamkeitsalgorithmus (Algorithmen) kann diese Daten verwenden, um den Status des Fahrers festzulegen. Die Zwischendaten können umfassen:
    • ♦ Änderungsrate der Körperbewegungsermittlungen
    • ♦ Änderungsrate der Körperbewegungsamplituden
    • ♦ Bereich unter Zeitkurve in Richtung auf eine Körperbewegung für verschiedene nachfolgende Zeitabschnitte, um Trends von Personenbewegungsänderungen (Amplitude oder Anzahl von Bewegungen) zu ermitteln
    • ♦ Korrelation von Sensordaten für Amplitudenmuster, Energie und Körperbewegungsänderungen, die mit einer Ermüdung des Fahrers in Verbindung gebracht werden können
    • ♦ Änderung bei Frequenz der Körperbewegungssignale
    • ♦ Änderung bei Amplitudenperioden von Körperbewegungssignalen
    • ♦ Änderung bei Phasenbeziehungen der Körperbewegungssignale
    • ♦ Relative Phasenbeziehung zwischen jedem Abschnitt und anderen Sensorabschnittsarten.
  • Im Anschluß an die dritte Analyse kann der Wachsamkeitsalgorithmus (Algorithmen) ausgebildet sein, um die Zwischendaten mit den Daten in Beziehung zu bringen und/oder eine Kombinationslogik an die Daten anzulegen, um Bewegungsmuster (oder deren Mangel) zu ermitteln, die auf Basis von historischen Daten oder klinischen Versuchen zeigen, daß der Fahrer entspannt ist oder übermäßig entspannt sein kann oder unterhalb eines akzeptierbaren Wachsamkeits-, eines Flinkheits- oder eines Schlafloszustands-Schwellenwerts sich befindet.
  • Der Wachsamkeitsalgorithmus (Algorithmen) kann eine oder mehrere Nachschlagetabellen umfassen, die Referenzbewegungsdaten und Standardwerte umfassen, die mit akzeptablen und nicht-akzeptablen Werten der Müdigkeit des Fahrers in Verbindung stehen. Es können Histogramme, die Bewegungshistogramme der Art umfassen, die im AU-Patent 63 29 32 auf der Basis der Arbeit von „Rechitschaffen and Kayles (R & K)“ beschrieben wurden, wie auch Tabellen verwendet werden, die Wichtungswerte und aktuelle Bewegungsdaten für jeden Sensor zeigen.
  • Der Wachsamkeitsalgorithmus (Algorithmen) kann einen Wachsamkeits-Wahrscheinlichkeitsfaktor (0-100%) als Funktion der gewichteten Bewegungsdatenwerte festlegen.
  • Wenn ein Wachsamkeits-Wahrscheinlichkeitsfaktors, der unterhalb eines akzeptablen Schwellenwerts ist, ermittelt wird, kann das System so eingerichtet sein, in die Steuerung des Fahrzeugs einzugreifen oder den Fahrer des Fahrzeugs und/oder andere Fahrzeuge zu alarmieren. Das Eingreifen in die Fahrzeugsteuerung kann die Verminderung der Geschwindigkeit, eine gesteuerte Betätigung der Bremsen, das Unterbrechen des Kraftstoffs und/oder das Außerkraftsetzen des Gaspedals umfassen. Die Alarmintervention des Fahrers kann die Verwendung von Sprays, die dazu bestimmt sind, den Fahrer zu stimulieren, das Erschüttern des Lenkrads, des Sitzgurtes oder des Bodenbereichs in der Nähe des Fahrers, einen akustischen Alarm und/oder die Verwendung eines hellen Fahrzeuginnenraumlichts umfassen. Der Fahrer kann außerdem durch Herunterkurbeln des Fahrzeugfensters und/oder anderer effektiver Alarmverfahren gewarnt werden, die bei jedem individuellen Fahrer angewendet werden können. Fahrer anderer Fahrzeuge können außerdem mittels von Gefahrblitzlichtern und/oder von einem Sirenenton alarmiert werden. Die Fahrzeugsteuerintervention kann in einem Teil des Fahrzeugsteuersystems integriert sein oder einen Teil davon bilden, oder sie kann an ein existierendes Fahrzeugsteuersystem angebunden sein. Die Fahrzeugsteuerintervenierung kann an GSM oder anderen Kommunikationssysteme angebunden sein, um eine frühe Warnungsanzeige bereitzustellen, daß ein Fahrer oder ein Maschinenführer in einem angespannten, ermüdeten oder anderen ungewünschten Zustand sich befindet, der ermittelt werden kann.
  • Um bei der Unterscheidung einer normalen und akzeptierbaren Wachsamkeit des Fahrers gegenüber Ermüdungs- oder ungeeigneten Fahrerbedingungen zu helfen, ist die Kalibrierung von verschiedenen Sensor- und Wandlerausgangssignalen möglich. Eine Kalibrierung kann die Ermittlungsparameter des Systems gemäß sich verändernder Bewegung des Fahrers und anderer Fahrersignale einstellen. Die Kalibrierung ist nützlich, da der Fahrersensor und Signalausgangssignale sich bei verschiedenen Fahrern ändern. Außerdem ändern sich Hintergrundgeräusche ebenfalls mit unterschiedlichen Fahrzeugen. Die Notwendigkeit zur Kalibrierung kann proportional zum kritischen Zustand des Fahrens oder abhängig von dem Genauigkeitswert sein, der zur Überwachung und Ermittlung der Ermüdung erforderlich ist.
  • Auf die Notwendigkeit zur Kalibrierung kann bis zu einem gewissen Ausmaß verzichtet werden, wenn die künstliche Intelligenz genutzt wird, um grundsätzliche Zustände des normalen Wachzustands eines Fahrers zu unterscheiden, um eine nachfolgende Analyse zu erleichtern und festzulegen, wenn der Zustand eines Fahrers eine Müdigkeit oder ein Abnehmen der Wachsamkeit zeigt. Die künstliche Intelligenz kann in ein oder mehrere automatisierten Systemen untergebracht sein, die einen oder mehrere mathematische Algorithmen umfassen. Die künstliche Intelligenz umfaßt die Systemfähigkeit, Zustände in Verbindung mit dem Fahrer selbst zu lernen oder zu lehren, die normales oder flinkes Fahren umfaßt, das gegenüber Zuständen verschieden sind, die ein unnormales oder ermüdetes Fahren zeigen.
  • Die künstliche Intelligenz kann es dem Fahrer eines bestimmten Fahrzeugs erlauben, einen Betriebsmodus auszuwählen, während dem die Bewegungen des Fahrers während eines normalen oder wachen Fahrzustands überwacht und diagnostiziert werden, um typische Schwellenwerte und Korrelationen zwischen verschiedenen Sensoren zu bestimmen, für den Zweck, um wirkliche Müdigkeitszustände des Fahrers zu bestimmen, die von Wachsamkeitszuständen des Fahrers verschieden sind. Die künstliche Intelligenz kann außerdem eine Adaption des Wachsamkeitsalgorithmus (Algorithmen) erleichtern, um Hintergrundgeräuscheigenschaften des Fahrzeugs anzugeben.
  • Die künstliche Intelligenz kann unterschiedliche Reaktionsmuster umfassen, um Bewegungsdaten von den verschiedenen Sensoren in Beziehung zu setzen, um gültige Fahrerbewegungen von Umgebungserschütterungen und Geräusch zu unterscheiden. Diese können klassifiziert werden und beispielsweise durch eine Nachschlagetabelle beschrieben sein, in welcher erwartete Muster oder Kombinationen von Signalen für unterschiedliche Fälle von Umgebungsgeräusch aufgezeichnet sind, die sich von den erzeugten Fahrersignalen unterscheiden. Wenn beispielsweise der Fahrer seine Hand bewegt, können Signale von Sensoren im Lenkrad und in Armabschnitten des Sitzes gemäß einem speziellen Muster in Beziehung gebracht werden. Wenn alternativ das Fahrzeug einer ernsten oder sogar heiklen Erschütterung aufgrund von Straßeneinwirkungen oder Motoreinwirkungen unterliegt, kann ein breiterer Bereich von Sensoren in ähnlicher Weise in Mitleidenschaft gezogen werden, und dies kann in Form von Amplituden zum Ausdruck gebracht werden, welche vorher-festgelegten Korrelationsmustern folgen. Signale von den Sensoren können die Stärke oder die Amplitude gemäß der Nähe der Quelle des Tons oder der Schwingungen vergrößern. Wo die Quelle der Erschütterung lokalisiert wird, kann dies selbst als Muster ähnlicher Schwingungsformen über den verschiedenen Sensoren manifestiert werden, die progressiv bezüglich der Amplitude abnehmen, wenn der Abstand des Sensors von der Quelle ansteigt. Wenn die Quelle der Vibration das Geräusch der Straße beispielsweise ist, können die Bodensensoren eine maximale Amplitude registrieren, während die Lenkradsensoren, die am weitesten von dem Straßengeräusch sind, eine Minimalamplitude registrieren können.
  • Die Phasenbeziehung von Vibrationen von unterschiedlichen Quellen kann außerdem eine gewisse Führung zur wahrscheinlichen Quelle der Vibrationen liefern. Wenn beispielsweise die Vibrationen von der Bewegung des Fahrers herrühren, ist es wahrscheinlicher, daß mehrere Signale mit einer ähnlichen Phase ermittelt werden können. Wenn dagegen die Signale sich ändernde Phasenbeziehungen haben, ist es wahrscheinlicher, daß die Quelle der Vibrationen, die Anlaß zu diesen Signalen geben, willkürlich ist, wie man erwarten kann, wenn die Vibrationen von der Umgebung des Fahrzeugs herrühren.
  • Ähnliche Phasensignale, die von Bewegungen des Fahrers herrühren, können gegenüber ähnlichen Phasensignalen unterschieden werden, die von Artefakts oder der Umgebung des Fahrzeugs herrühren, wobei das Umgebungsgeräusch auf Sensoren bezogen wird, das in der Nähe von Quellen des erwarteten Geräusches in den Fahrzeugen erwartet wird, beispielsweise das Motorgeräusch, das Radgeräusch oder andere Vibrationen und Geräusch. Dies kann durch sorgfältiges Anordnen von Mikrophonen und Vibrationssensoren im Fahrzeug ermittelt werden.
  • Das Unterdrücken des Umgebungsgeräusches kann durch Überwachen von Signalen von den Mikrophonen und Sensoren dadurch unterstützt werden, daß höchstwirksame Signalunterdrückungsverfahren angewandt werden, um soviel wie möglich den Artefakt oder Geräuscheffekte oder unerwünschte Signale innerhalb der Fahrzeugumgebung zu reduzieren.
  • Ein Beispiel der Anwendung von Geräuschunterdrückungsverfahren umfaßt die Ermittlung von verschiedenen Straßenunebenheiten und das Ignorieren des Effektes dieser Unebenheiten bezüglich der Daten, die analysiert werden, von verschiedenen Fahrzeugsensoren, die von Interesse sind.
  • Ein weiteres Beispiel der Anwendung von Geräuschunterdrückungsverfahren umfaßt die Ermittlung von unterschiedlichen Motorgeräuschen und der Anwendung eines Signals einer entgegengesetzten Phase zum Motorgeräusch, um den Artefakt zu unterdrücken. Ein Beispiel von Phasenlöschverfahren, welches angewandt werden kann, ist in der PCT-Anmeldung AU 97/00 278 offenbart, wobei deren Offenbarung hier durch Querverweis eingeführt wird.
  • Weitere Beispiele einer Geräuschunterdrückung umfassen das Filtern, wobei Hochpaß-, Tiefpaß- und Kerbfilter verwendet werden können, um bei der Unterdrückung des Artefakts zu helfen.
  • Die künstliche Intelligenz kann lernen, periodische Signale von Sensoren im Fahrzeug zu ignorieren, wenn es wahrscheinlich ist, daß diese von mechanischen Drehzahlen innerhalb des Fahrzeugs herrühren, um somit das Trennen von Artefakt-Signalen gegenüber Signalen von Interesse zu verbessern, beispielsweise Signalen, die die wirkliche Bewegung des Fahrers zeigen.
  • Die künstliche Intelligenz kann außerdem lernen, Änderungen des Zustands des Fahrers zu erkennen, die Änderungen bezüglich der Wachsamkeit und des Schlafloszustandes reflektieren. Berechnungspunkte und die Analyse von Sensordaten zum Vergleichszweck und zur Korrelation mit vorher-überwachten Daten können umfassen:
    • die Spektralanalyse von Signalen innerhalb eines Bereichs von aufeinanderfolgenden Zeitperioden;
    • die 1/2-Perioden-Amplitudenanalyse von Signalen und andere Verfahren, die bei der herkömmlichen Schlafanalyse verwendet werden, wie im AU-Patent 63 29 32 offenbart ist;
    • die Berechnung der Häufigkeit von Bewegungen für aufeinanderfolgende Perioden, wobei die aufeinanderfolgenden Zeitperioden typischerweise eine Sekunde oder 1/2 Sekunde ist;
    • die Berechnung von Durchschnittsignalwerten während Perioden von beispielsweise 20 oder 30 Sekunden;
    • die Berechnung des Gesamt"bereichs unter der Kurve" oder Integration von Sensorsignalen für eine Zeitdauer von beispielsweise 20 oder 30 Sekunden;
    • die Korrelation und die Beziehung zwischen verschiedenen Kombinationen von Eingangssensorkanälen;
    • die EKG-Herzrate oder Atmungssignale, wobei die letzteren Signale eine Anzeige über den Wachzustand des Fahrers liefern, wie Herzraten- und Atmungssignale während des Schlafzustands, wie dies in einer Anzahl von medizinischen Zeitschriften offenbart ist.
  • Die künstliche Intelligenz kann in Verbindung mit Drucksensoren in Fahrzeugsitzen und/oder Sitzgurten angewandt werden, um die Airbag-Entfaltung zu steuern. Auf diese Weise kann die Airbag-Entfaltung für Kinder oder Kranke mit unterschiedlichen Crash-Zuständen für Kinder und Erwachsene eingeschränkt werden. Wenn beispielsweise nicht ermittelt wird, daß ein Kind nach vorne gedrückt wird, mittels Druckdaten, die von Sitz/Sitzgurtsensoren empfangen werden, kann die Entfaltung von Airbags und die mögliche Airbag-Verletzung in bezug auf das Kind vermieden werden.
  • Die Entfaltung von Airbags kann grundsätzlich durch Analyse von Daten in bezug auf die Haltung, die Bewegung, das Drängen, die Körperbewegung, das dem Fahrer oder Passagier eigene „Schwanken“ usw. intelligenter bestätigt werden.
  • Das System kann eine Einrichtung umfassen, um Ansprechzeiten des Fahrers zu testen. Diese Tests können, wenn diese in regelmäßigen Intervallen ausgeführt werden, mit Beschlag belegte ernste Fahrzustände sein, die durch die Müdigkeit des Fahrers oder ein Nachlassen der Wachsamkeit verursacht werden können. Die Testeinrichtung kann ausgebildet sein, ein einfaches Verfahren zum Aufmerksammachen des Fahrers und zum Testen der Ansprechzeit des Fahrers bereitzustellen. Der Ansprechtest kann beispielsweise den Fahrer auffordern, um auf eine Reihe von Zeichen zu antworten. Diese Zeichen können das Auffordern des Fahrers umfassen, den linken oder rechten Handabschnitt des Lenkrads zu drücken oder diesen sowohl mit der linken als auch mit der rechten Hand gleichzeitig als Antwort auf ein Zeichen zu drücken. Diese Einrichtung zum Aufmerksammachen des Fahrers kann beispielsweise LEDs umfassen, die auf dem Armaturenbrett des Fahrzeugs oder an einer anderen Position angeordnet sind, die der Fahrer sieht. Eine links blinkende LED kann beispielsweise den Fahrer aufmerksam machen, die linke Hand auf das Lenkrad zu drücken. Eine rechte blinkende LED kann den Fahrer aufmerksam machen, die rechte Hand auf das Lenkrad zu drücken. Die mittlere blinkende LED kann den Fahrer veranlassen, beide Hände auf das Lenkrad zu drücken. Alternativ könnten zwei LEDs im obigen Beispiel verwendet werden, ausgenommen, daß beide blinkende LEDs den Fahrer aufmerksam machen können, mit beiden Händen zu drücken.
  • Das Ansprechverhalten des Fahrers oder der Wert an Flinkheit kann durch Messen der Ansprechzeit des Fahrers ermittelt werden, wobei die Ansprechzeit als Zeit zwischen der Beleuchtung einer LED und einer korrekten Antwort mit den Händen oder der Hand gemessen wird. Wenn eine nicht-genaue Antwortzeit ermittelt wird (die eventuell die Müdigkeit des Fahrers oder den Beginn der Müdigkeit des Fahrers signalisiert), kann das System die Ergebnisse verifizieren und den Fahrer alarmieren. Das System kann außerdem die Genauigkeit der Reaktionen des Fahrers bestimmen, um den Zustand der Wachsamkeit des Fahrers sicherzustellen.
  • Ein weiteres Beispiel einer Einrichtung zum Testen des Ansprechverhaltens des Fahrers kann eine Einrichtung umfassen, Zufallsnummern auf der Windschutzscheibe aufblitzen zu lassen. Der Fahrer kann veranlaßt werden, zu antworten, wobei er das Lenkrad mit der Häufigkeit drückt, wie durch die aufgeblitzte Zahl bestimmt wird. Die Zahlen können auf der Scheibe an unterschiedlichen Stellen in bezug auf das Lenkrad aufblitzen, wobei die Position der Hände auf dem Lenkrad zu der Seite der Scheibe antwortet, wo die Blitze ermittelt werden. Diese Testart sollte lediglich dann durchgeführt werden, wenn der Fahrer nicht wendet, den Gang ändert, bremst oder andere kritische Funktionen durchführt.
  • Es ist wünschenswert, sicherzustellen, daß die Ansprechtests des Fahrers nicht durch den Fahrer erwartet werden, um den Wachsamkeitszustand des Fahrers genauer zu ermitteln. Es ist natürlich auch wichtig, daß das ausgewählte Verfahren zum Testen des Ansprechverhaltens des Fahrers in keiner Weise den Fahrer ablenkt oder dazu beiträgt, daß der Fahrer bezüglich der Konzentration nachläßt.
  • Das System kann in einer Sonnenblende eines Fahrzeugs als optische Berührungsbildschirmanzeige eingebaut sein, die eine umfassende Vergegenwärtigung der Aktivität eines Fahrers erlaubt. Der Berührungsbildschirm kann eine Farbanzeige umfassen, um Bewegungs-/Druckausgangssignale in Verbindung mit jedem Sensor anzuzeigen. Eine Anzeige des Status mehrerer Sensoren kann eine optische Anzeige eines Entspannungszustands gegen einen aktiven Fahrerzustand bereitstellen.
  • Gemäß einem ersten Merkmal der Erfindung wird ein Gerät zum Bestimmen eines Wachsamkeitszustandes eines Subjekts, beispielsweise eines Fahrers eines Fahrzeugs oder dgl. bereitgestellt, wobei das Gerät umfaßt:
    • eine Einrichtung zum Überwachen einer oder mehrerer physiologischer Variablen, die mit dem Subjekt verknüpft sind;
    • eine Einrichtung zum Herleiten von der einen oder mehreren Variablen von Daten, die physiologische Zustände des Subjekts zeigen, die der oder jeder Variablen entsprechen; und
    • eine Einrichtung zum Bestimmen aus den Daten heraus, wenn der Wachsamkeitszustand der Person unterhalb eines vorgegebenen Schwellenwerts liegt.
  • Gemäß einem weiteren Merkmal der vorliegenden Erfindung wird ein Verfahren zum Bestimmen eines Wachsamkeitszustandes eines Subjekts, beispielsweise eines Fahrers eines Fahrzeugs oder dgl. bereitgestellt, wobei das Verfahren folgende Schritte umfaßt:
    • Überwachen einer oder mehrerer physiologischer Variablen, die mit dem Subjekt verknüpft sind;
    • Herleiten von der einen oder mehreren physiologischen Variablen von Daten, die physiologische Zustände des Subjekts zeigen, entsprechend der oder jeder Variablen; und
    • Bestimmung aus den Daten heraus, wenn der Wachsamkeitszustand des Subjekts unter einem vorher-festgelegten Schwellenwert ist.
  • Es werden nun bevorzugte Ausführungsformen der Erfindung mit Hilfe der beiliegenden Zeichnungen beschrieben, wobei:
    • 1 eine Blockdarstellung eines Wachsamkeitsüberwachungssystems gemäß der vorliegenden Erfindung zeigt;
    • 2 ein Flußdiagramm eines Algorithmus zum Verarbeiten von Daten von Sensoren zeigt, die mit einem Fahrzeug und einem Fahrer verknüpft sind;
    • 3A eine vereinfachte Blockdarstellung eines Systems zeigt, um Umgebungsrauschen von Fahrerschnittstellenssensoren zu unterdrücken;
    • 3B Schwingungsformen in Verbindung mit dem System von 3A zeigt;
    • 4A ein Flußdiagramm eines Bewegungsverarbeitungsalgorithmus gemäß der vorliegenden Erfindung zeigt;
    • 4B Beispiele von Datenverminderung und syntaktischer Signalverarbeitung in Verbindung mit einer Abtastsignal-Schwingungsform zeigt;
    • 5 Abtastausgangssignale von Daten zeigt, die einer Sekundäranalyse durch das System von 4A folgen;
    • 6 eine Ausführungsform von Lenkradsensoren zeigt;
    • 7 eine Blockdarstellung eines Wachsamkeitsüberwachungssystems zeigt, bei dem Videodaten verwendet werden;
    • 8 ein Flußdiagramm eines Algorithmus zeigt, der geeignet ist, Videodaten zu verarbeiten;
    • 9 und 10 Beispiele von Daten zeigen, die durch das System von 7 und 8 erzeugt werden;
    • 11 ein Flußdiagramm des Hautwachsamkeits-Verarbeitungsalgorithmus ist;
    • 12 eine Blockdarstellung eines Fahrzeugüberwachungssystems gemäß der vorliegenden Erfindung ist;
    • 13 eine Wandlerform zum Überwachen der Haltung eines Fahrers oder eines Maschinenführers zeigt;
    • 14 eine Blockdarstellung einer Ausführungsform einer Anti-Nickercheneinrichtung gemäß der vorliegenden Erfindung zeigt;
    • 15 einen Kalibriermodusalgorithmus zeigt; und
    • 16 einen Hauptrelax-Ermittlungsalgorithmus zeigt.
  • In 1 zeigt der Block 12 mehrere Sensoren 1 bis 11, die mit einem Fahrzeug und einem Fahrer verknüpft sind. Der oder jeder Sensor kann piezo-elektrisches oder elektro-statisches Material umfassen, beispielsweise CSD- oder PVDF-Material. Das Material kann auf mehrere Abschnitte beispielsweise des Fahrersitzes aufgeteilt sein. Die unterschiedlichen Sensoren sind anschließend zusammengefaßt:
  • oberer Fahrersitzsensor
    • ♦ oberer Rand des Fahrersitzes des oberen Abschnitts
    • ♦ Fahrersitzmitte des oberen Abschnitts
    • ♦ Fahrersitzbasis des oberen Abschnitts
  • unterer Fahrersitzsensor
    • ♦ vorderer Rand des Fahrersitzes des unteren Abschnitts
    • ♦Fahrersitzmitte des unteren Abschnitts
    • ♦ hinteres Teil des Fahrersitzes des unteren Abschnitts
  • Fahrersitz-Gurtsensor
    • ♦ Sitzgurt des Fahrers - oberer Abschnitt
    • ♦ Sitzgurt des Fahrers - unterer Abschnitt
  • Kopfbedeckung des Fahrers durch Fahrermütze oder einem ähnlichen Sensor
  • Die Kopfbedeckung des Fahrers durch die Fahrermütze oder eine Einrichtung, die über das Ohr des Fahrers geklappt wird oder Teil einer Fahrerschutzbrille oder eines Augenglases ist. Diese Sensoren können beispielsweise Positionsschalteinrichtungen sein. Das Ausgangssignal von diesen Positionseinrichtungen wird verstärkt, gefiltert und schließlich werden Daten werden erworben und analysiert. Diese Sensoreinrichtung ist dazu bestimmt, ein Signal oder Digitaldaten auszugeben, die den Zustand gemäß der Bedeckung des Kopfes des Fahrers ändern. Durch Kalibrierung des Systems gemäß normalen Fahrzuständen kann dieses Ausgangssignal den normalen Fahrzustand mit dem Ermüdungszustand des Fahrers in Verbindung bringen.
  • Fahrer-Kopfbandsensor
  • Die Fahrer-Kopfbandsensoren können beispielsweise ein kapazitives statisches Entladungsmaterial (CSDM) oder PVD-Material (PVDM) sein, welches auf verschiedene Abschnitte (wie unten aufgelistet) des Kopfbandsensors des Fahrers aufgeteilt sein kann. Das Ausgangssignal von den verschiedenen Sensoren wird verstärkt, gefiltert und es werden schließlich Daten erhalten und analysiert. Das Kopfbandmaterial kann leitfähige Abschnitte enthalten, die dazu bestimmt sind, die Elektroenzephalogramm-Signale (EEG-Signale) des Patienten abzutasten.
  • Fahrer-Kopfbandsensor
    • ♦ Fahrerkopfband - links vorne
    • ♦ Fahrerkopfband - rechts vorne
    • ♦ Fahrerkopfband - linkes Auge
    • ♦ Fahrerkopfband - rechtes Auge
  • EEG-, EMG und EOG-Parameter, die in kritischen Fahrzuständen überwacht werden
  • Bei einigen kritischen Anwendungen einer Wachsamkeitsüberwachung, beispielsweise bei Flugzeugpiloten, bei einem Personal, welches zur Navigation und zum Steuern von Schiffen verantwortlich ist, Fahrer des Straßen- oder Schienentransports oder Passagierfahrzeugen kann es angemessen sein, umfassendere Verfahren zur Wachsamkeitsüberwachung anzuwenden. Diese umfassenderen Überwachungsverfahren können Verfahren zum Analysieren der Frequenzzusammensetzung von physiologischen EEG-Daten umfassen. Es . kann eine Halbperioden-Amplitudenanalyse ( AU-Patent 63 29 32 ) oder die Spektralanalyse angewandt werden, um zu bestimmen, ob die Person in einen Trance- oder Nichtwachsamkeitszustand eintritt, oder ob die Person schläfrig wird. Diese Art an Schlafzustand kann in Realzeit hergeleitet werden, um die Bestimmung des Wachsamkeitszustands der Person zu erleichtern. Wenn ermittelt wird, daß die Person zu einer Risikokategorie gehört, wird das vorliegende System den Fahrer alarmieren, um einen eventuellen Fahrzeugunfall aufgrund des Nachlassens der Konzentration des Fahrers zu verhindern.
  • Ein Verfahren einer Elektrodenanbringung, welches jedoch nicht darauf beschränkt ist, könnte das Verwenden eines Kopfbandes durch den Fahrer sein, wobei dieses Kopfband und/oder Kinnband die EEG-, EMG- und EOG-Signale mit der Überwachungseinrichtung verbinden könnte, um die Signale zu analysieren, um den Wachsamkeitszustand der Person zu bestimmen.
  • Fahreraugensensor
  • Es können verschiedene Verfahren für den Zweck angewandt werden, um die Bewegung des Auges zu überwachen, welche umfassen:
    • ♦ Verfahren auf der Basis des reflektierten Lichts
    • ♦ Verfahren auf der Basis des elektrisches Hautpotentials
    • ♦ Verfahren auf der Basis von Kontaktlinsen
    • ♦ Verfahren auf der Basis von Limbus-Nachführung
    • ♦ Verfahren auf der Basis der Videoaufnahme
    • ♦ Verfahren auf der Basis der Magnetinduktion
    • ♦ Ansteuern von Schutzbrillen oder Augengläser mit einer Infrarot-Ermittlungsfahigkeit, um die Augenbewegungen des Fahrers oder ein EOG-Abtastsignal über Elektroden zu überwachen.
  • Fahreraugen-Ermittlungssensorarten
    • ♦ Augen des Fahrers links
    • ♦ Augen des Fahrers rechts
    • ♦ Quellen von Augenbewegungen können EOG-Elektroden, die Infrarot-Ermittlung von Augenbewegungen oder die Videonachführung und Verarbeitung von Augenbewegungen umfassen.
  • Fahrerlenkradsensor
  • Die Fahrerlenkrad- oder weitere Lenkradeinrichtungssensoren können beispielsweise ein CSDM- oder PVD-Material sein, welches auf verschiedene Abschnitte (wie unten aufgeführt) des Fahrerlenkrads oder einer anderen Lenkreinrichtung aufgeteilt sein können. Das Ausgangssignal von den unterschiedlichen Sensoren wird verstärkt, gefiltert und es werden schließlich Daten erhalten und analysiert.
  • Fahrerlenkrad-Sensorarten
    • ♦ Lenkrad des Fahrers - oberer linker Abschnitt
    • ♦ Lenkrad des Fahrers - oberer rechter Abschnitt
    • ♦ Lenkrad des Fahrers - unterer linker Abschnitt
    • ♦ Lenkrad des Fahrers - rechter unterer Abschnitt
  • Eine alternative Form eines Lenkradsensors ist in 6 gezeigt.
  • Fahrer-Teppichbereichsensor
  • Die Fahrer-Teppichbereich-Sensoren können beispielsweise ein kapazitives statisches Entladungsmaterial (CSDM) oder PVD-Material (PVDM) sein, die auf verschiedene Abschnitte (wie unten angegeben) des Teppichbereichs des Fahrers aufgeteilt sein können. Das Ausgangssignal von den verschiedenen Sensoren wird verstärkt, gefiltert und es werden schließlich Daten erhalten und analysiert.
  • Fahrer-Gaspedalsensor
  • Die Fahrer-Gaspedalsensoren können beispielsweise ein kapazitives statisches Entladungsmaterial (CSDM) oder PVD-Material (PVDM) sein, die auf verschiedene Abschnitte (wie unten angegeben) des Gaspedals aufgeteilt sein können. Das Ausgangssignal von den verschiedenen Sensoren wird verstärkt, gefiltert und es werden schließlich Daten erhalten und analysiert.
  • Fahrer-Gaspedalsensorarten
    • ♦ Fahrergaspedal - oberer Abschnitt
    • ♦ Fahrergaspedal - mittlerer Abschnitt
    • ♦ Fahrergaspedal - unterer Abschnitt
  • Fahrerkupplungspedal-Sensor (wo anwendbar)
  • Die Fahrerkupplungssensoren können beispielsweise ein kapazitives statisches Entladematerial (CSDM) oder PVD-Material (PVDM) sein, das auf verschiedene Abschnitte (wie unten angegeben) des Kupplungspedals des Fahrers (wo anwendbar) aufgeteilt sein kann. Das Ausgangssignal von den verschiedenen Sensoren wird verstärkt, gefiltert und es werden schließlich Daten erhalten und analysiert.
  • Fahrerkupplungspedal-Sensorarten
    • ♦ Kupplungspedal (wenn anwendbar) des Fahrers - oberer Abschnitt
    • ♦ Kupplungspedal (wenn anwendbar) des Fahrers - mittlerer Abschnitt
    • ♦ Kupplungspedal (wenn anwendbar) des Fahrers - unterer Abschnitt
  • Fahrerbremspedal-Sensor
  • Die Fahrerbremspedalsensoren können beispielsweise ein kapazitives statisches Entladematerial (CSDM) oder PVD-Material (PVDM) sein, welches auf verschiedene Abschnitte (wie unten angegeben) des Bremspedals aufgeteilt sein kann. Das Ausgangssignal von den verschiedenen Sensoren wird verstärkt, gefiltert und es werden schließlich Daten erhalten und analysiert.
  • Bremspedal-Sensorarten
    • ♦ Bremspedal des Fahrers - oberer Abschnitt
    • ♦ Bremspedal des Fahrers - mittlerer Abschnitt
    • ♦ Bremspedal des Fahrers - unterer Abschnitt
  • Andere Sensoren sind im Block 13 angegeben, die die Lenkradbewegung und Richtungssensoren und Sensoren umfassen, um Umgebungsgeräusch und Vibrationen zu ermitteln.
  • Die Ausgangssignale von den verschiedenen Sensoren werden verstärkt und im Block 14 zur Vorbereitung für die Analog-Digital-Umsetzung im Block 15 gefiltert. Die Sensorsignale werden in Digitalform zum Block 16 geliefert. Der Block 16 umfaßt eine Zentralverarbeitungseinheit und einen oder mehrere Algorithmen, um die Digitalsignale zu verarbeiten. Der Block 16 verwendet außerdem den Wachsamkeitsverarbeitungsalgorithmus (Algorithmen) im Block 17. Der Wachsamkeitsverarbeitungsalgorithmus (Algorithmen) im Block 17 ist ausgebildet, den Zustand des Wachsamkeitszustands des Fahrers, dessen Flinkheit und Schlafloszustands zu bestimmen. Dieser Zustand kann als Wachsamkeitsfaktor (0-100%) ausgedrückt werden. Beim Ermitteln eines Wachsamkeitsfaktors, der unterhalb eines akzeptierbaren Schwellenwerts ist, kann die Zentralverarbeitungseinheit den Fahrers des Fahrzeugs und/oder anderer Fahrzeuge alarmieren. Die Fahreralarmeinrichtung kann umfassen:
    • um externe Fahrer zu alarmieren:
      • ♦ Aufblitzenlassen von Gefahrlichtern
      • ♦ Sirenentöne
    • Interne Fahrerfahrzeug-Alarmsysteme
      • ♦ Duftsprays, die geeignet sind, den Wachsamkeitszustand des Fahrers zu aktivieren
      • ♦ Vibrationsmodulation für den Fahrer kann eine Vibration des Lenkrads oder des Bodenbereichs umfassen, um den Fahrer zu alarmieren
      • ♦ Vibrationsmodulation für den Sitzgurt des Fahrers
      • ♦ Vibrationsmodulation für das Lenkrad des Fahrers
      • ♦ Akustisches Alarmsystem bei Frequenzen und einer Zeitdauer oder einer Zeitdauersequenz, die getestet ist, am effektivsten beim Alarmieren des Fahrers zu sein
      • ♦ Helle Kabinenlichter, die bestimmt sind, einen Fahreralarm zu vermeiden, jedoch getestet sind, die Wachsamkeit des Fahrers zu verbessern
  • Beim Ermitteln eines Wachsamkeitsfaktors, der unterhalb eines akzeptablen Schwellenwerts liegt, kann die Zentralverarbeitungseinheit in die Steuerung des Fahrzeugs eingreifen. Die Fahrzeugintervention kann ermöglichen, daß das Fahrzeug in einen sicheren oder mehr sicheren Zustand gebracht wird. Die Fahrzeugintervention kann eine Geschwindigkeitsbeschränkung oder das Reduzieren oder das komplette Unterbrechen der Brennstoffzufuhr umfassen. Bei einigen Umständen darf das Gaspedal nicht Außerkraft gesetzt werden, beispielsweise, wenn ein Fahrer seinen Fuß auf das Gaspedal gedrückt hat und in einem unsicheren oder ermüdeten Zustand ist.
  • Wenn ermittelt wird, daß ein Fahrer die Reaktionsanforderungen oder eine geeignete Anerkenntnis, daß der Fahrer in einem Wachsamkeitszustand ist, ignoriert oder nicht beantwortet, können die Hupe oder die Gefahrblitzlichter des Fahrzeugs aktiviert werden, um andere Fahrer zu warnen bzw. zu alarmieren, und/oder es kann die Kraftstoffeinspritzung deaktiviert werden, und/oder es kann die Geschwindigkeit durch eine allmähliche und gesteuerte sichere Bremsung reduziert werden.
  • Wenn ermittelt wird, daß ein Fahrer an Müdigkeit leidet und nicht auf Ansprechtests antwortet, kann die Kraftstoffzufuhr des Fahrzeugs reduziert werden, und/oder es kann dessen Geschwindigkeit durch sanftes und kontrolliertes sicheres Bremsen reduziert werden, und zwar auf eine sichere Reisegeschwindigkeit. Der Fahrer kann dann wieder aufmerksam gemacht werden, bevor das Fahrzeug einer weiteren Intervention unterzogen wird.
  • Eine weitere Option zur Fahrzeugintervention besteht darin, eine Form einer Zündungsaufhebung bereitzustellen, wie in einigen Systemen auf Alkoholbasis verwendet. Bei dieser Systemart kann die Fahrzeugzündung oder der Startprozeß bei einem ungeeigneten Fahrerzustand verhindert werden, der in diesem Fall Schläfrigkeit oder übermäßige Müdigkeit sein kann.
  • In vielen modernen Fahrzeugen können Fahrzeuginterventionsoptionen durch einen fahrzeugeigenen Computer oder eine elektronische Schnittstelle beispielsweise durch Kommunikation mit der Drehzahlsteuerung oder der Brennstoffeinspritzlogik veranlaßt werden. Das Computersystem kann eine Intelligenz umfassen, um die geeignetste Interventionssequenz oder das geeignetste Verfahren zu entscheiden, um das Risiko für den Fahrzeugfahrer oder dessen Passagiere zu minimieren.
  • 2 zeigt ein Flußdiagramm eines Algorithmus zur Verarbeitung von Daten von Sensoren, die mit dem Fahrzeug oder Fahrer verknüpft sind. Der Block 20 zeigt mehrere Reihen auf der linken Seite, die Dateneingangssignale von verschiedenen Sensoren darstellen, die mit einem Fahrzeug verknüpft sind, auf welche eine Umwandlung in Digitaldaten folgt. Die Digitaldaten werden zum Block 21 geliefert, der bestimmt, ob die Daten mit den gültigen Amplitudenschwellenwerten, die im Block 22 gespeichert sind, übereinstimmen. Signale, die jenseits der Schwellenwerte liegen, werden als Geräusch oder Artefakt klassifiziert und ignoriert. Die Daten werden dann zum Block 23 geliefert, der ermittelt, ob die Daten mit den gültigen Zeitdauer-Schwellenwerten, die im Block 24 gespeichert sind, übereinstimmen. Signale jenseits der Schwellenwerte werden als ungültig klassifiziert und ignoriert. Die Schwellenwerte, die in den Blöcken 22 und 24 gespeichert sind, sind für den Zweck der vorliegenden Erfindung empirisch aus experimentalen Versuchen festgelegt. Die Daten werden dann zum Block 25 zur Signalkompression geliefert. Die Aufgabe des Blocks 25 besteht darin, die weitere Verarbeitung zu vereinfachen, wobei die Daten in einer minimierten Form dargestellt werden. Dies wird durch syntaktisches Verarbeiten durchgeführt, wodurch Hauptdatenpunkte lediglich der Signale, beispielsweise verschiedene Spitzen, Senken und Nulldurchgänge oder Zentralpunkte, die Spitzen der Signale definieren, zur weiteren Verarbeitung dargestellt sind. Die Daten werden dann zum Block 26 geliefert, wo sie katalogartig aufbereitet und hinsichtlich der Amplitude oder des Leistungsbereichs, der Anzahl von Bewegungen pro Sekunde oder jedem Zeitabschnitt und der Phasenbeziehungen zwischen den Signalen summiert werden. Die Daten können weiter tabellarisch oder graphisch angezeigt werden und/oder sie können einer weiteren automatisierten Verarbeitung unterworfen werden, um den Wachsamkeitsstatus zu bestimmen.
  • 3A zeigt eine Blockdarstellung eines Systems zum Beseitigen von Umgebungsgeräusch von Fahrerschnittstellensensoren. Der Block 30 zeigt verschiedene Sensoren, um Fahrerbewegungen zu überwachen, und der Block 31 zeigt Sensoren, um die Umgebungsvibration und das Geräusch sowie Fahrzeugartefakts zu überwachen.
  • Die Blöcke 32 und 33 stellen Schaltungen dar, um Signale von den Blöcken 30 bzw. 31 zu verstärken und zu filtern. Der Block 34 zeigt Analog-Digital-Umsetzer, um die Signale von den Blöcken 32 und 33 in Digitalform umzusetzen, um diese über den Digitalsignalprozessor im Block 35 zu verarbeiten. Block 35 umfaßt einen Algorithmus, um eine Signalunterdrückung durchzuführen, wie in 3B gezeigt ist.
  • In 3B zeigt die Schwingungsform A ein Signal von einem Fahrerschnittstellensensor oder Sensoren (Block 30 von 3A). Die Schwingungsform B zeigt ein Signal von einem Sensor oder von Sensoren, die mit dem Fahrzeugmotor und Straßengeräusch-Abtastorten in Verbindung stehen (Block 31 von 3A). Die Schwingungsform C zeigt ein Signal, nachdem es durch den Block 35 verarbeitet wurde. Man kann sehen, daß das Signal, welches durch die Schwingungsform C dargestellt wird, durch Unterdrücken oder Subtrahieren des Signals erhalten wird, welches durch die Schwingungsform B gezeigt wird, von dem Signal, welches durch die Schwingungsform A gezeigt ist. Das Signal, welches durch die Schwingungsform C dargestellt ist, ist ein wahres oder gültiges Bewegungssignal, welches nicht durch Umgebungsgeräusch verfälscht ist.
  • 4A zeigt ein Flußdiagramm eines Bewegungsverarbeitungsalgorithmus gemäß der vorliegenden Erfindung. Gemäß 4A werden Signale von den Sensoren 1 bis 11, die im Block 12 von 1 gezeigt sind, gefiltert, danach auf Perioden- und Amplitudenschwellenwerte bezogen, bevor sie in syntaktische Daten umgesetzt werden. Die syntaktischen Daten werden zur Bestimmung von bestimmten Kombinationen von Sensorbewegungssignalen korreliert, die zeigen, daß der Fahrer in einem wachen oder wachsamen Zustand sich befindet. Wenn ein Sensorsignal oder eine Kombination von Sensorsignalen so analysiert werden, frei von der Bewegung eines Gegenstands zu sein, kann dies als ein Anzeichen interpretiert werden, daß angenommen wird, daß der Fahrer sich in einem nicht-wachsamen oder Ermüdungszustand befindet. Die Analyse des Ermüdungszustands wird durch bestimmte erwartete Muster von den verschiedenen Sensorsignalen bestimmt. Diese Muster umfassen eine sehr kleine Bewegung vom Lenkrad und eine sehr kleine Bewegung von den Sitzsensoren, die zeigen, daß der Fahrer übermäßig entspannt sein kann oder eine Ermüdung oder einer Gefahr am Beginn einer Ermüdung unterworfen ist. Die Funktionen der Blöcke 40 bis 61 sind wie folgt:
  • Block 40
  • 1 zeigt, wie die Analogsignale von den Sensoren 1 bis 11 sind: umgesetzt in ein Digitalsignal (1, Block 15); zugeführt zur Zentralverarbeitungseinheit (1, Block 16); und verarbeitet durch einen Wachsamkeitsverarbeitungsalgorithmus (1, Block 17). Der Start des Algorithmus in 4A zeigt den Start eines Prozesses, der häufig für jeden Eingangssensor 1 bis 11 wiederholt wird (4A zeigt den Prozeß für die Sensoren 1, 2, 3). Dieser Prozeß analysiert Daten von jedem Eingangssensor, um eine Endentscheidung über den Wachsamkeitszustand des Fahrers zu treffen, oder ob dieser Zustand einen Weckalarm rechtfertigt, um bei der Vermeidung eines eventuellen Unfalles zu helfen.
  • Blöcke 41 bis 46
  • Signal A/D -- Datenausgabe. Das Analogsignal von jedem Sensor wird verstärkt, gefiltert, und dann in ein Digitalsignal zur Vorbereitung für die Signalverarbeitung umgesetzt.
  • Variable A, C, E-U
  • Die Variablen A, C, E-U liefern zur Algorithmusverarbeitung den Schwellenwert und periodische Werte, um zu ermöglichen, daß Sensorsignaldatenverminderungen bestimmt werden und um eine Datenverminderung und eine syntaktische Signalverarbeitung zu erlauben. Die Variablen (A, C, E-U) werden über gesteuerte Studien von experimentellen Daten und Forschungsdaten festgelegt.
  • 4B zeigt Beispiele von: (1) Signalkomponenten, die aufgrund davon ignoriert werden, daß sie unterhalb eines minimalen Amplitudenschwellenwerts sind, (2) syntaktischen Daten, wo das Signal durch Senken und Spitzen des Signals dargestellt wird, und (3) Hochfrequenzkomponenten, die aufgrund davon ignoriert werden, daß sie unterhalb eines minimalen Periodenschwellenwerts liegen. Die letztere erkennt relativ niedrigere Frequenzen, die aufgrund von Fahrerbewegungen typisch sind.
  • Eingangssignale von Sensoren 4 bis 11, welche der Systemkonfiguration unterworfen sind
  • Das Eingangssignal von jedem der Fahrzeugsensoren wird verstärkt, gefiltert und dann analog-digital-umgesetzt, um eine Signalverarbeitung vorzubereiten. Dies wird durch Blöcke durchgeführt, die ähnlich den Blöcken 41 bis 46 sind. Es können Eingangssignale von mehr als 11 Sensoren geliefert werden, wenn dies erforderlich ist.
  • Block 47
  • A, C, E-U
    Variable Daten über eine Unterlassungstabelle (bestimmt durch klinische Daten und/oder durch Nervenknoten, Selbsterlernen und Einstellen), die von dem speziellen Zuschneiden auf die speziellen Fahreigenschaften der Person und der Systemanpassung resultieren.
  • Variable: B, D, F -V. Durch Vergleichen der Sensordaten mit verschiedenen Amplitudenschwellenwerten und Pulsperioden ist es möglich, Daten zu ignorieren, die wahrscheinlich Geräuschdaten oder Artefakt sind und die Daten umfassen, die als Bewegungsdaten von einem Fahrer unterscheidbar sind. Die Bewegungsdaten werden durch Messen der Amplitude und der periodischen Kennlinie des Sensorsignals gemessen. Die Bewegungsdaten werden außerdem durch Vergleichen von Signalmustern und Kennlinien von Sensoren mit Mustern und Kennlinien typischer Bewegungen des Fahrers unterschieden (bestimmt durch Vergleichsdaten, die zur Korrelation gegenüber laufenden Daten verwendet werden, wobei diese Daten vom Systemselbstlern- und/oder Kalibrierungsprozessen hergeleitet werden).
  • Block 48
  • Ist die Spitze-Spitze-Amplitude des Sensorausgangssignals größer als die Schwellenwertvariable A ? Sichere Zeitreferenz und Wert jeder Signalabweichung des Sensoreingangssignals, welches den Amplitudenreferenzwert A übersteigt.
  • Block 49
  • Ist die Spitze-Spitze-Amplitude des Sensorausgangssignals größer als die Schwellenwertvariable C? Sichere Zeitreferenz und Wert jeder Signalabweichung des Sensoreingangssignals, welches den Amplitudenreferenzwert C übersteigt.
  • Block 50
  • Ist die Spitze-Spitze-Amplitude des Sensorausgangssignals größer als die Schwellenwertvariable E ? Sichere Zeitreferenz und den Wert jeder Signalabweichung des Sensoreingangssignals, welches den Amplitudenreferenzwert E übersteigt.
  • Block 51
  • Ist die Spitze-Spitze-Amplitude des Sensorausgangssignals größer als die Schwellenwertvariable B ? Sichere Zeitreferenz und Wert jeder Signalabweichung des Sensoreingangssignals, welches den Amplitudenreferenzwert B übersteigt.
  • Block 52
  • Ist die Spitze-Spitze-Amplitude des Sensorausgangssignals größer als die Schwellenwertvariable D ? Sichere Zeitreferenz und Wert jeder Signalabweichung des Sensoreingangssignals, welches den Amplitudenreferenzwert D übersteigt.
  • Block 53
  • Ist die Spitzen-Spitzen-Amplitude des Sensorausgangssignals größer als die Schwellenwertvariable F ? Sichere Zeitreferenz und Wert jeder Signalabweichung des Sensoreingangssignals, welches den Amplitudenreferenzwert F übersteigt.
  • Speichern der Sensoreingangssignalperiode und der Amplitude mit Zeitreferenz
  • Die syntaktischen Daten vom gesamten Einsatzbereich der Sensoren werden im Speicher mit wahlfreiem Zugriff (RAM) zum Zwecke der Verarbeitung und Bestimmung eines Überwachungszustands einer Person gespeichert. Die syntaktischen Daten werden außerdem archiviert, um einen späteren Analysebericht und eine Bestätigung oder einen Rückblick über die Müdigkeit und die Leistung des Fahrers zu erlauben. Dies kann dann besonders nützlich sein, wo es erforderlich ist, daß Lastwagenfahrer oder andere Fahrer für einen kritischen Transport oder Personen nach ihrer Leistung und ihrer Wachsamkeitserfüllung überprüft werden müssen.
  • Block 54
  • Eine Langzeit-Datenspeicherung ist dazu bestimmt, Bewegungsdaten des Fahrers von jedem der Sensoren zu protokollieren. Auf diese gespeicherten Daten kann in einem spätern Stadium zugegriffen werden, um die Leistungshistorie im Hinblick auf die Bewegungsanalyse und die nachfolgende Wachsamkeit des Fahrers nachzuprüfen.
  • Block 55
  • Ein Kurzzeitspeicherzugriff wird zum Speichern von Parametern beispielsweise den letzten 10 Minuten von syntaktischen Daten für jeden Sensorkanal verwendet, um die verschiedenen Daten von jedem Sensor oder Kanal in Beziehung zu bringen und diese Datenkombination mit vorher-festgelegten Regelsätzen zu vergleichen, die dazu bestimmt sind, Kombinationen von Sensorausgangssignalen zu beschreiben, die für die Müdigkeitszustände eines Fahrers typisch sind.
  • Block 56
  • Speichere syntaktische Darstellung des Sensorsignals, welches den Schwellenwert A und B übersteigt, mit Zeitreferenz, Amplitude und Impulsbreite.
  • Block 57
  • Speichere syntaktische Darstellung des Sensorsignals, welches den Schwellenwert C und D übersteigt, mit Zeitreferenz, Amplitude und Impulsbreite.
  • Block 58
  • Speichere syntaktische Darstellung des Sensorsignals, welches den Schwellenwert E und F übersteigt, mit Zeitreferenz, Amplitude und Impulsbreite.
  • Block 59
  • Spezielles Fahrerprofil und die Kalibierdaten können zur späteren Korrelationsreferenz gespeichert werden. Durch in Beziehung setzen von verschiedenen Schwellenwerten oder Referenzzuständen ist das System in der Lage, eine Wechselwirkung mit Sensoren festzulegen, wenn besondere Zustände des Fahrers mit vorher-gespeicherten Referenzkennlinien ähnlich sind. Diese Vergleichsdaten werden als Daten in Nachschlagetabellen gespeichert. Die Daten können aus Frequenz- und/oder Amplitudenkennlinien für einen Bereich von Fahrerzuständen bestehen, oder alternativ können die Daten aus Datenabtastungen (mit akzeptablen Veränderungen zu Datenabtastungen) bestehen, die für einen Bereich von Fahrerzuständen existieren.
  • Block 60
  • Fahrzeugausgangssignale. Diese umfassen Lenkradbewegungen, die Richtung der Lenkradbewegungen, die Geschwindigkeit des Fahrzeugs, die Änderung der Geschwindigkeit des Fahrzeugs, die Motorvibration und das Geräusch, die Straßenvibration und das Geräusch.
  • Durch Verarbeitung der Lenkradeinstellungen des Fahrers und durch Vergleich dieser Einstellungen mit den verschiedenen Sensorsignalen und der Korrelation von verschiedenen Sensorsignalen ist es möglich, die Wahrscheinlichkeit, daß der Fahrer in einem Ermüdungszustand ist und den Grad der Ermüdung des Fahrers zu bestimmen. Die Fahrzeugsignale werden außerdem analysiert, um bei einer Geräuschunterdrückung (d.h., das Fahrzeuggeräusch entgegengesetzt zur Bewegung des Fahrers) und zu einer genaueren Identifikation von gültigen Bewegungen des Fahrers zu helfen.
  • Block 61
  • Bringe in Beziehung alle Kanäle der Sensoraktivität und bestimmte, ob es wahrscheinlich ist, daß der Fahrer müde ist und was für ein Wert der Fahrerermüdung ermittelt wird. Eine Nachschlagetabelle von speziellen Fahrerkalibrierungswerten und Referenzzuständen wird dazu verwendet, den aktuellen Fahrerzustand und den Grad an Ermüdung des Fahrers zu bestimmen, gemeinsam mit der Wahrscheinlichkeit der Datengenauigkeit. Es werden Standardreferenz-Datentabellen und Unterlassungswerte ebenfalls dazu verwendet, die Müdigkeit des Fahrers zu bestimmen. Siehe R & K-Abtasthistogramme, Bewegungshistogramme und Tabellen, die einen gewichteten Wert eines jeden Sensors und die aktuelle Bewegungsermittlung von jedem Sensor zeigen, um die Ermüdungswahrscheinlichkeit als Funktion der Bewegungsermittlung mit geeigneter Wichtung festzulegen.
  • 5 zeigt typische Abtastungen von verarbeiteten Daten, die auf die sekundäre Analyse für Sensorsignale 1 bis 4 folgen. Die Daten zeigen in graphischer Form die Anzahl von gültigen Bewegungen, die für jeden Sensor 1 bis 4 während aufeinanderfolgender Zeitintervalle n, n+1, n+2 ..... ermittelt werden. Es kann eine tertiäre Analyse für diese Daten durchgeführt werden, was es erlauben würde, die Korrelation zwischen verschiedenen Sensoren einfach zu betrachten. Diese Abtastungen, die in 5 gezeigt sind, zeigen ein Beispiel (gestrichelte Linie), wo die verschiedenen Sensoren jeweils eine offensichtliche Bewegungsermittlung erfahren.
  • Die Lenkradsensoren, die in 6 gezeigt sind, sind in acht Abschnitte unterteilt, wie folgt:
    • oben 62, oben links 63, oben rechts 64, links 65, rechts 66, unten links 67, unten rechts 68 und unten 69.
  • Die Sensoren 62-69 sind über acht Kabel mit Ausgangsstiften 1 bis 8 entsprechend verbunden. Eine gemeinsame Verbindung zu jedem Sensor ist über Kabel mit dem Ausgangsstift 9 verbunden. Es sind alternative Konfigurationen mit mehr oder weniger Sensoren und mit der Option von Sensorgruppen auf sowohl der oberen und unteren Fläche der Lenkradgriff-Fläche möglich. Die Ausgänge, die durch Stifte 1 bis 9 gezeigt sind, sind mit analogen Signalzustandsschaltungen und über Analog-Digital-Umsetzer mit Digitalsignalverarbeitungsschaltungen wie oben beschrieben verbunden.
  • Es ist wünschenswert, immer den Druck der Hand oder der Hände eines Fahrers auf das Lenkrad zu messen. Der Druck kann mit früheren Werten und/oder kalibrierten Werten verglichen werden, um zu bestimmen, ob ein Muster eines vergrößerten oder verminderten Drucks den Beginn der Müdigkeit eines Fahrers widerspiegelt.
  • Wenn der Bewußtseinszustand oder der Konzentrationszustand des Fahrers sich aufgrund des Beginns einer Ermüdung oder dgl. ändert, kann das System einen geeigneten Punkt berechnen und herleiten, bei dem der Fahrer alarmiert werden sollte. Der geeignete Zeitpunkt kann von einer Kombination von vorher-kalibrierten Daten für einen bestimmten Fahrer und/oder vorprogrammierten Mustern, Zuständen oder Trends in den Daten, die relative und absolute Druckwerte umfassen, die von einem Satz oder Hilfssatz von Fahrzeugsensoren erhalten werden, bestimmt werden.
  • 7 zeigt eine Blockdarstellung eines Wachsamkeitsüberwachungssystems, bei dem Videodaten verwendet werden. Der Block 70 zeigt eine CCD-Videokamera, die auf der Sonnenblende des Fahrers, dem Armaturenbrett oder einer anderen geeigneten Lage angeordnet sein kann, um die Videoüberwachung der Augen des Fahrers zu ermöglichen. Eine Infrarotlinse kann dazu verwendet werden, eine verläßliche Nachtvideo-Überwachungsmöglichkeit zu erleichtern. Das Ausgangssignal der Videokamera wird dem Block 71 zugeführt. Der Block 71 ist ein Analog-Digital-Umsetzer, um das Videosignal vor der Verarbeitung durch den Block 72 zu digitalisieren. Der Block 72 ist eine Zentralverarbeitungseinheit und umfaßt einen Videoverarbeitungsalgorithmus. Der Videoverarbeitungsalgorithmus besitzt eine Augenerkennungssoftware, die dazu bestimmt ist, Augen im Gegensatz zu anderen Teilen des Gesichts des Fahrers zu identifizieren. Die Augen werden dadurch ermittelt, wobei eine Spezialverarbeitungssoftware verwendet wird, die es erlaubt, daß die Augen des Fahrers analysiert werden. Diese Analyse umfaßt eine Bestimmung des Bereichs der Öffnung der Augen und das in Beziehung setzen des Öffnungsbereichs der Augen mit ähnlichen vorherigen Messungen. Auf diese Weise kann die Augenverarbeitung bestimmen, ob die Augen eines Fahrers offen bleiben, was in einem wachen Zustand erwartet werden würde, oder ob die vorhandene Augenöffnung des Fahrers relativ gering ist (verglichen mit früheren Augenöffnungsmessungen). Die Geschwindigkeit oder der Grad des Verschließens der Augen kann ermittelt werden und fortlaufend in dieser Weise überwacht werden.
  • Der Videoverarbeitungsalgorithmus ermittelt außerdem die Geschwindigkeit des Zwinkerns und mögliche Augenbewegungen, um zu bestimmen, ob die Augen des Fahrers erscheinen, wach zu sein oder möglicherweise in einem gefährlichen „Trancezustand“ sind, wie dies während Ausfällen der Fahrerwachsamkeit auftreten kann. Der Block 73 zeigt Ausgangssignale des Blocks 72, der umfaßt:
    • Zwinkerrate der Augen
    • Schließen der Augen, berechnet als prozentuales Verhältnis des laufenden Augenöffnungsbereichs zu dem vorher-berechneten maximalen Öffnungsbereich der Augen
    • Augenfokussierungsfaktor, bestimmt durch Messen der Anzahl von Augenbewegungen pro Sekunde, Ausmaß der Augenbewegungen (d.h., Abweichungen von kleinen Augenbewegungen oder großen Augenbewegungen)
  • Die Natur der Augenbewegungen kann geeignete Muster einer Bewegung der Augen eines Fahrers reflektieren, beispielsweise die Fokussierung auf Abschnitte der Straße für eine passende Zeit wie auch für ungeeignete Muster an Bewegung, die mit einer Ermüdung oder einem Mangel an Wachsamkeit in Verbindung stehen
    Art der Augenbewegungen, d.h., vertikal, horizontal, starr
  • Die obigen Messungen können gegenüber tatsächlichen Versuchen justiert werden, um relevante Anzeichen festzulegen, die mit dem Ermüdungszustand eines Fahrers in Verbindung stehen.
  • 8 zeigt ein Flußdiagramm eines Algorithmus, der zur Verarbeitung von Videodaten geeignet ist. Die Funktion der Blöcke 80 bis 94 ist wie folgt:
  • Block 80
  • Start
  • Block 81
  • fange ein Augenvideodaten - Fange ein laufendes Videovollbild. Digitalisiere Videovollbild von Augen der Person. Augendaten können über eine oder mehrere der folgenden Einrichtungen eingefangen werden:
  • CCD-Videokamera, eine elektro-okular-Dateneinfangeinrichtung über ein durch eine Person getragenes Kopfband, unmittelbare Elektrodenbefestigung, Augengläser des Fahrers, Kopfmütze oder Bewegungssensoren, eine Infrarot- oder andere Lichtstrahl-Ermittlungseinrichtung.
  • Block 82
  • Wende an Augendatenverarbeitung und bestimme linken und rechten Augenöffnungsbereich und Zwinkerereignisse
  • wende an Randermittlung, Signalkontrastveränderung und Formerkennung unter anderen Verarbeitungsverfahren, um die Grenze der Augenlider der Person zu bestimmen. Bestimme Bereich einer jeden der Augenöffnungen der Person, die Höhe jeder Augenöffnung, die Zwinkerereignisse für jedes Auge, die Zwinkerrate und die Zeitreferenz in Verbindung mit jedem Zwinkerereignis.
  • Block 83
  • Bringe in Beziehung laufende und frühere video-eingefangene Augen-Bewegungsdaten
  • bringe in Beziehung laufende Augenpositionsdaten mit früheren Positionsaugendaten. Prüfe die Augenpositions-Trenddaten nach und bestimme Trends und Muster von Augenbewegungen, die den Beginn eines Fahrerermüdungszustands zeigen. Die Muster umfassen:
    • - starrende Zustände oder trance-ähnliche Zustände, die einen Verlust an Straßenkonzentration zeigen
    • - langsam rollende Augenbewegungen (typisch für den Beginn des Schlafs)
    • - Augenfokussierungsrichtungen und Verbindung dieser Richtungen mit der Müdigkeit des Fahrers verarbeitete digitalisiertes Videovollbild und ermittle linke und rechte Augenbewegungsmuster und die Aktivität von Augen und die Verbindung dieser Aktivität mit der Müdigkeit des Fahrers vergleichende laufende Zwinkerraten, vergangene Zwinkerraten und Nachschlagetabellen-Zwinkerratenkennlinien, Schwellenwerte für den Beginn verschiedener Müdigkeits- und Müdigkeitszwinkerraten und Zwinkerkennlinien in Verbindung mit verschiedenen Fahrerzuständen. vergleiche laufenden Augenöffnungsbereich mit Schwellenwerten für Müdigkeit und den Beginn von Müdigkeitszuständen, um den Wachsamkeits-Augenöffnungsstatus des Fahrers in Richtung auf den Ermüdungsfahrer-Augenöffnungsstatus zu bestimmen.
  • Block 84
  • Nachschlagetabelle mit Kennlinienmustern von:
  • Augenbewegungen und Schwellenwertdaten für ermüdete Personen gegenüber wachen Personen (Objekten)
    typische Zwinkerratenschwellenwerte und Kennlinien
    typische Augenöffnungs- und Unterlassungsschwellenwerte
    typische Augenbewegungs- und Standardkennlinien für den Beginn der Ermüdung eines Fahrers (eines Objekts)
  • Block 85
  • speichere linken und rechten Augenöffnungsbereich, die Augenöffnungshöhe, die Zwinkerraten, die Augenposition und die Augenbewegungen zusammen mit zeitlichem Bezug
  • Block 86
  • Kalibrierungsdaten, die von der Person und Fahrzeugkalibrierungsprozeduren hergeleitet werden:
    • - Bestimmung von Müdigkeitsbeginn-Zwinkerraten-Schwellenwerten
    • - Bestimmung von Augenöffnungs-Müdigkeitsbeginn-Schwellenwerten
    • - Bestimmen der Augenposition, der Bewegungskennlinie und von Aktivitätskennlinien für Müdigkeitsbeginn-Schwellenwerte
    • - EOG-Muster für Wecken, Fahraktivität, Müdigkeitsbeginn, Müdigkeit
    • - Trancezustand und hypnotische EOG-Augenkennlinien
  • Block 87
  • Müdigkeitsschwellenwert - Zeitperioden Variable X, gesetzt von Unterlassungswerten, Personenkalibrierung oder Systemselbstlernen/Berechnung
  • Block 88
  • Ist mittlerer Augenöffnungsbereich unter „mittlerem Müdigkeitsaugenöffnungs-Schwellenwert X“ ?
  • Block 89
  • Müdigkeitsschwellenwert-Zeitperiode Variable Y, gesetzt von Standardwerten, Personenkalibrierung oder Systemselbstlernen/Berechnung
  • Block 90
  • Ist Zeitdauer unter mittlerem Augenöffnungs-Ermüdungs-Schwellenwert (X) größer als Y ?
  • Block 91
  • Zwinkerraten-Müdigkeitskennlinie, gesetzt von Unterlassungswerten, Personenkalibrierung oder Systemselbstlernen/Berechnung
  • Block 92
  • Erfüllt Zwinkerrate und Kennlinie die Müdigkeitszwinkerraten-Kennlinien ?
  • Block 93
  • Wende an Augendatenverarbeitung und bestimmte linken und rechten Öffnungsbereich und Zwinkerbegebenheiten
  • Bringe in Wechselbeziehung laufende und frühere Videoeinfang-Augenbewegungsdaten
  • Ermittlung von beginnender Augenermüdungsöffnung und Ermittlung von Müdigkeitsbeginn-Zwinkerrate
  • Block 94
  • Augenbewegungs-Müdigkeitsermittlungsdiagramm
  • 9 und 10 zeigen Beispiele von Augenöffnungs- und Augenpositionsdaten, die durch das System von 7 und 8 erzeugt werden.
  • 11 ist ein Flußdiagramm des Hauptwachsamkeits-Verarbeitungsalgorithmus. Die Funktionen der Blöcke 95 bis 99 sind wie folgt:
  • Block 95
  • Hauptwachsamkeits-Verarbeitungsalgorithmus
    • ♦ Wachsamkeitsbewegungs-Verarbeitungsalgorithmus (siehe 4A)
    • ♦ Wachsamkeitsaugenstatus-Verarbeitungsalgorithmus
  • Wahrscheinlichkeit von Fahrerermüdung und Grad von Wachsamkeitsermittlungsalgorithmus (bringt Bewegungsstatus und Augenverarbeitungsstatus der Person in Wechselbeziehung).
  • Block 96
  • LED-Indikatoranzeigefeld
  • Block 97
  • Augenstatus-Wachsamkeitsfaktor 0-100%
  • Block 98
  • Bewegungswachsamkeitsfaktor
  • 0-100%-angezeigt als Balken, Zähler oder andere Einrichtung
  • Block 99
  • Wachsamkeitswahrscheinlichkeitsfaktor 0-100%
  • 12 ist ein Blockdiagramm eines Fahrzeugsüberwachungssystems gemäß der vorliegenden Erfindung. 12 ist eine Übersicht über ein System, welches viele der Merkmale, die hier erläutert wurden, verwendet. Die Funktionen der Blöcke 100 bis 118 sind wie folgt:
  • Block 100
  • Fahrer-EEG-Sensoren - bringe unmittelbar an Elektrode, Kopfband, Drahtlos-Elektrode, Fahrermütze und weitere EEG-Signalabtasteinrichtungen
  • Block 101
  • Fahrer-EEG-Sensoren - bringe unmittelbar an Elektrode, Kopfband, Drahtlos-Elektrode, Fahrermütze und weitere EEG-Signalabtasteinrichtung
  • Block 102
  • Fahrerbewegung, Bewegungs- und physiologische Parametersensoren
  • Block 103
  • Fahreraugenbewegung
  • Ermittlung über Elektrode, Fahreraugengläser/Schutzbrillen, Infrarot oder andere Lichtstrahleinrichtungen von Nachführungsermittlung oder weiterer Einrichtung.
  • Block 104
  • Fahrzeugschnittstellenstatus; Geschwindigkeit, Richtung, Gaspedalposition, Bremsposition, Indikatoren, Lichter unter anderen Fahrzeugstatusdaten
  • Block 105
  • Phasengleiche Signalermittlung und Verarbeitung
  • Wendet Verarbeitung an, die Muster von phasengleichem Signalauftreten bestimmt und diese mit dem Fahrer oder Hintergrundgeräusch als Ursprungsquelle in Verbindung bringt.
  • Block 106
  • Gegenphasige Signalermittlung und Verarbeitung. Wendet Verarbeitung an, welche Muster von einem gegenphasigen Signalauftreten bestimmt und diese mit dem Fahrer oder dem Hintergrundgeräusch als Ursprungsquelle in Verbindung bringt.
  • Block 107
  • Fahrzeughintergrundgeräusch-Verarbeitungsalgorithmus
  • Fahrzeughintergrund-und Umgebungsgeräuschsensoren, die eine Geräuschunterdrückung, Filtern und Reduzierung erlauben.
  • Diese Sensoren umfassen Mikrophon- und Vibrationssensoren, die an strategischen Positionen angeordnet sind, um Hintergrund-Fahrzeuggeräusch abzutasten, beispielsweise Straßengeräusch und Motorgeräusch. Eine Fourier-Transformation und eine Frequenzanalyse des Hintergrundgeräuschs hilft bei der Auswahl der digitalen Filtercharakteristik, um am effektivsten das Fahrzeugumgebungsgeräusch zu minimieren und dazu zu helfen, die fahrerbezogenen Müdigkeitsüberwachungssignale zu unterscheiden. Das System wird laufend verschiedene Fahrzeug-Hintergrund- und Schwellengeräuschpegel Frequenzen und weitere Kennlinien „selbst lernen“, um sich ändernde Fahrzeuggeräuschzustände zu bestimmen und nachfolgend eine Geräuschunterdrückung oder die Fähigkeit bereitzustellen, unerwünschtes Fahrzeuggeräusch zu ignorieren, während die „reale“ Fahrerbewegung und physiologischen Signale und der nachfolgenden Ermüdungsstatus verarbeitet werden.
  • Künstliche Intelligenz:
  • Signalkennlinien, die durch einen Bereich von sich ändernden Straßenzuständen erzeugt werden, können in das System ein programmiert werden. Die Eingangsdaten, die sich auf verschiedene Straßenzustände beziehen, liefern dadurch eine Einrichtung, um weiter gewünschte fahrerbezogene Signale von unerwünschten Hintergrundgeräuschsignalen zu unterscheiden.
  • Block 108
  • Fahrer-EEG-Sensoren - Direktbefestigungselektrode, Algorithmus
  • Block 109
  • Fahrer-EEG-Sensoren - Direktbefestigungselektrode, Algorithmus
  • Block 110
  • Fahrerbewegung, Verschiebung, physiologischer Algorithmus
  • Block 111
  • Fahreraugenverschiebungs-Ermittlungsalgorithmus
  • Block 112
  • Fahrzeugstatus-Schnittstellenalgorithmus
  • Block 113
  • Fahrerermüdungs-Verarbeitungsalgorithmus. Korrelation mit vorherigen Fahrerermüdungszuständen zusammen mit dem Vergleich von Ausgangssignalen für jeden der oben aufgelisteten Müdigkeitsalgorithmen (Fahrer-EEG, Bewegung, Augen, Fahrzeugzustand).
  • Block 114
  • Fahrerwachsamkeits-Interaktiv-Ansprechtesten
  • Block 115
  • Fahrerweck- und Alarmsysteme für Wachsamkeitswiedereinsetzung
  • Block 116
  • Fahrerfahrzeug-Wagenintervention, um die Geschwindigkeit zu reduzieren oder zu begrenzen, und weitere Einrichtung, die Fahrzeugsicherheit zu steigern und die Verletzbarkeit für den Fahrerermüdungszustand zu reduzieren.
  • Block 117
  • Fahrzeugermüdungs-Anzeigesysteme, um den Fahrer den laufenden Ermüdungszustand anzuzeigen, oder Frühwarnindikatoren von Ermüdungszuständen,
  • Block 118
  • Systemkommunikationsspeicher und periphere Druckschnittstelle. Datenspeicher, Berichtsverarbeitung, Berichtsdruckschnittstelle, drahtlose und drahtgebundene Schnittstellen zur Realzeit- oder zur späteren Kommunikation von Ermüdungsdaten und Ermüdungsstatusinformation. Das System kann GSM, Mobiltelefon, Satelliten oder andere Einrichtungen der sich bewegenden Fahrzeugbahn und einen Datenaustausch in Realzeit oder in einem gewünschten späteren Stadium umfassen. Diese Informationsübertragung kann eine wirksame Einrichtung für Lastwagen und andere Fahrzeuge sein, bei denen der Fahrerstatus verarbeitet und überprüft wird, wenn dies erforderlich und passend ist.
  • 13 zeigt eine Form eines Umsetzers zum Überwachen der Position eines Fahrers oder eines Maschinenführers. 13 zeigt eine Webstruktur, die Streifen oder Elemente aus flexiblem PVDF- oder Piezomaterial umfaßt, die durch flexibles Isoliermaterial getrennt sind, die an A, B, C, D, E, F, G und H enden. Ausgangssignale von den entsprechenden Streifen werden gepuffert, verstärkt, gefiltert und dann in Daten analog-digital-umgesetzt. Diese Daten können verarbeitet werden, um eine aktuelle Position des Drucks zu bestimmen, der auf die obige Struktur angelegt wird. Durch Analyse der beiden Hauptkoordinaten und der Signalamplituden in Verbindung mit diesen Koordinaten kann die exakte Druckposition, die durch den Fahrzeugfahrer oder den Ausrüstungsarbeiter angelegt wird, bestimmt werden.
  • Die Position, wo der größte Druck angelegt wird, wird durch den Schnittpunkt der gewebten Streifenpaare (beispielsweise B und F) bestimmt, welche die größte Signalamplitude erzeugen. Die Position kann durch Koordinaten beschrieben werden, die die Webstreifenpaare (beispielsweise B, F) beschreiben, welche die größte Signalamplitude erzeugen. Der obige Wandler kann in Verbindung mit den Bewegungssensoren verwendet werden, die hier beschrieben wurden, um eine weitere Positionsinformationsmenge in bezug auf den angelegten Druck für jeden Sensor bereitzustellen. Diese Information kann bei Umständen wichtig sein, wenn der Druck des Fahrers auf das Lenkrad oder das Handversatzmuster des Fahrers (in bezug auf den angelegten Druck) gemäß der Flinkheit und Schläfrigkeit variieren.
  • Die Haltung des Fahrers oder des Maschinenführers kann überwacht werden, gespeichert werden, mit den verschiedenen Schwellenwertzuständen in Beziehung gebracht werden und/oder in einer deutlichen Graphik oder numerischen Form angezeigt werden. Die Schwellenwertzustände können mittels Kalibrierung für jedes spezielles Haltungsprofil des Fahrers unter verschiedenen Möglichkeitszuständen und/oder Streßzuständen und Bedingungen hergeleitet werden.
  • Die Anti-Nickerchen-Einrichtung, die in 14 gezeigt ist, umfaßt Sensoren (Block 112), die mit einer Erwerb- und Verarbeitungseinrichtung (Block 121) verbunden sind. Der Block 122 umfaßt eine Überwachungseinrichtung, die dazu bestimmt ist, Fahrersensorsignale zu verstärken, zu filtern und digital-analog-umzusetzen, um diese für die Digitalsignalverarbeitung vorzubereiten. Die Digitalsignal-Verarbeitungseinrichtung (Block 121) umfaßt einen Kalibrierungsalgorithmus, wie in 15 gezeigt ist, und einen Hauptrelax-Ermittlungsalgorithmus, wie in 16 gezeigt ist.
  • Der Fahrer kann die Relax-Kalibrierfunktion auswählen, dann die Fahrhaltung annehmen, die am gründlichsten einen entspannten oder möglicherweise Ermüdungsfahrzustand zeigen könnte, und das System wird dann den minimalen Schwellenwert der Fahreraktivität über eine Periode von ungefähr, jedoch nicht auf 10 Sekunden begrenzt, als entspannten Fahrer-Referenzwert überwachen und speichern.
  • Der Fahrer kann eine aktive Kalibrierfunktion auswählen, dann die Fahrerhaltung annehmen, die am gründlichsten den Normalfahrzustand zeigen würde, und das System wird dann den minimalen Schwellenwert oder die Fahreraktivität über eine Periode von ungefähr, jedoch nicht auf 10 Sekunden begrenzt, als aktiven Fahrerreferenzwert überwachen und speichern.
  • Die Entspannungs- und Aktivfahrer-Referenzwert, die im System gespeichert sind, können auf einem optischen Berührungsbildschirm für verschiedene Sensoren angezeigt werden. Das System kann eine Gültigkeitsfunktion durchführen, wobei die Entspannungs- und Aktivreferenzwerte des Fahrers auf dem Berührungsbildschirm wiedergegeben werden. Dies erlaubt einen leichten Vergleich, der mit aktuellen Sensorwerten durchgeführt wird, wenn der Fahrer Körperhaltungen annimmt, die normale/Ermüdungszustände zeigen, oder dazu dient, die Korrektheit der gespeicherten Referenzwerte zu bestätigen.
  • Der Fahrer kann außerdem eine Empfindlichkeitsfunktion auswählen, die bestimmen kann, wie enge an dem Entspannungswert der Fahrer sein muß, bevor das Anti-Nickerchen-System den Fahrer alarmiert. Durch Betrachten des Anti-.Nickerchen-Einrichtungsbildschirm kann der Fahrer entspannen oder eine normale Wachsamkeitsfahrhaltung annehmen und die Empfindlichkeitsteuerung einstellen, so daß die Anti-Nickerchen-Einrichtung so auftritt, um den Relaxzustand des Fahrers aufzuspüren und zu ermitteln. Die Anti-Nickerchen-Einrichtung hat die Fähigkeit, als Selbstwarnhilfe zu wirken, wobei lediglich der Fahrer geweckt wird, wenn dessen Haltung oder Fahrwachsamkeit gestört ist. Wenn beispielsweise der Griff des Fahrerlenkrads verschleißt oder einer Ermüdung ausgesetzt ist, kann das Anti-Nickerchen-System so kalibriert werden, diesen Zustand zu ermitteln und den Fahrer zu wecken.
  • Es ist für den Fahrer möglich, Kalibrierdaten zu haben, die durch einen Off-Road-Simulator (ortsfester Simulator) bestimmt werden, der die Charakteristik der Aktivitätsänderungen eines jeden speziellen Fahrers und physiologische Veränderungen während gefährlichen Entspannungs- und Ermüdungsfahrzuständen genauer definiert. Die Kalibrierdaten können auf die Anti-Nickerchen-Einrichtung geladen werden, um genauere Entspannungs- und Aktivreferenzwerte bereitzustellen. Die Kalibrierdaten können außerdem eine genauere Einrichtung liefern, um den relativen Effekt festzulegen, den jeder individuelle Sensor während eines Übergangs eines Fahrer vom aktiven und flinken zum schläfrigen und ermüdeten Zustand hat. Die Effekte jedes Sensors können aufgezeichnet werden, und diese Daten können bei einer genaueren Anti-Nickerchen-Ermittlung helfen.
  • Während der Kalibriermodi kann das System den Handdruck des Fahrers über die Lenkradsensoren, die Atmung des Fahrers und das EKG über die Gurtsensoren und die Fahrerhaltung und die Bewegung über die Sitzsensoren ermitteln.
  • Das Anti-Nickerchen-System kann fortlaufend die Signalamplituden aller Sensoren überwachen und mitteln, wobei dieses die laufenden Werte der Sensoramplitude mit den kalibrierten Werten vergleicht. Das System kann außerdem die laufenden Bewegungssensormuster mit Referenzdaten vergleichen. Diese Referenzdaten können bestimmte Schwellenwerte zeigen, die für jede individuellen Fahrer und allgemeinen Referenzzuständen kalibriert sind. Die verschiedenen Sensoren können gemäß ihrer entsprechenden Wichtigkeit beim Bestimmen gewichtet sein, ob ein laufender Aktivitätszustand eines Fahrers unterhalb dem Schwellenwert liegt und geeignet nah am Entspannungsmodus ist, der mit dem Referenzwert kalibriert ist, um zu rechtfertigen, daß der Fahrer geweckt wird.
  • Wenn ermittelt wird, daß der Fahrer innerhalb des Bereichs von Sensoramplituden und der Aktivität liegt, das ein Wecken rechtfertigt, kann die Anti-Nickerchen-Einrichtung die Geschwindigkeit des Fahrzeugs beschränken oder das Fahrzeug langsam zu einem Stillstand zu bringen, um die Wahrscheinlichkeit eines Unfalls zu vermindern. Diese Fähigkeit, die Geschwindigkeit des Fahrzeugs einzuschränken, könnte durch den Fahrer übersprungen werden, wie dies bei „Straßenkreuzer-Geräten“ möglich ist, die zur Zeit bei vielen Fahrzeugen verfügbar sind.
  • Die Verfahren und Methoden können relativ komplexe neurologische Schwingungsformanalyseverfahren umfassen, eine Videonachführung der Bewegungen des Auges eines Fahrers, eine verfeinerte Geräuschunterdrückung und einfachere fahrer-interaktive Verfahren, beispielsweise Abtasten des Lenkrads, des Sitzgurts, des Schalthebels oder anderer Bezirke der Fahrerkabine.
  • Eine Anwendung für die vorliegende Erfindung kann ein Lastwagenfahrer-Wachsamkeitsüberwachungssystem (TDVM) umfassen. Dieses System kann im Bereich des Nothebels ausgebildet sein, welches erfolgreich in Zügen verwendet wird. Eine Variation dieses Systems kann optische Einsätze und das Ansprechtesten der Wachsamkeit des Fahrers umfassen.
  • Das TDVM-System kann vorprogrammierte LED-Anzeigen umfassen, die in unterschiedlicher Sequenz und bei unterschiedlichen Frequenzen und Zeitdauern aktiviert werden. Der Lastwagenfahrer kann optisch über diese LEDs aufmerksam gemacht werden, um das Lenkrad demgemäß zu drücken, ob die linke oder rechte oder beide LEDs aufblitzen. Die Ansprechzeit und die Genauigkeit des Ansprechens des Fahrers auf diese Zeichen können gemessen werden und zurück zu einer entfernten Überwachungssteuerstation geführt werden.
  • Verschiedene Fahrer werden kalibrierte „Wachsamkeitsansprechzeiten und Genauigkeitswerte“ haben, welche mit den tatsächlichen laufenden Ansprechzeiten verglichen werden können. Wo geeignet kann ein Alarm aktiviert werden, wenn die Ansprechzeiten den Beginn einer Müdigkeit oder eines eventuellen Gefahrenzustands zeigt.
  • Die Sequenzen und die Dauer kann gemäß klinischen Versuchen bestätigt werden, um ein wirksames Verfahren einer Wachsamkeitsermittlung bereitzustellen. Sequenzen und Muster von visuellen Kraftfahrzeugkabinenhinweisen können eingerichtet sein, um die Nachprüfung des Fahrers zu minimieren. Die Häufigkeit von Wachsamkeitstesthinweisen kann gemäß den Erfordernissen festgelegt werden, wie dieses durch Feldstudien bestimmt wird.
  • Sicherheitserwägungen, um eine Ablenkung des Fahrers durch das vorgeschlagene Überwachungssystem zu vermeiden, können eingebaut sein. Verfahren, beispielsweise die Verwendung von „schnellen“ Antwortsystemanzeigen wurden speziell mit dem System ausgebildet, um die Überwachungssteuereinheit zu alarmieren, daß der Fahrer wachsam ist, jedoch nicht in der Lage ist, in diesem Zeitpunkt aufgrund von Fahrbefehlen zu antworten.
  • Das TDVM-System kann folgenden Komponenten umfassen:
    1. 1. Analyse-Software Diese Software kann einen Verarbeitungsalgorithmus (Algorithmen) umfassen, der ausgebildet ist, verschiedene Fahrerhinweise und Ansprechzeiten auszuwerten. Die Auswertung diese Ansprechzeiten kann einen Wahrscheinlichkeitsfaktor erzeugen, der mit der Fahrerwachsamkeit für jeden speziellen Fahrer verknüpft ist. Die Analysekapazität der Ansprechzeiten des Fahrers kann ein wichtiges Element des Systems sein. Die Genauigkeit des Wachsamkeitswahrscheinlichkeitsergebnisses, der klinischen Analyse und der wissenschaftlichen Bestätigung in Verbindung mit diesem Prozeß kann die Effektivität des Überwachungssystems festlegen.
    2. 2. physiologischer Fahrzeugkabinen-Lenkradsteuerung-Bewegungsumsetzer Diese Einrichtung kann zum Lastwagenfahrerlenkrad passen und Ausgangssignale liefern, die einer bestimmten Zone des Lenkrads unterworfen sind, welches durch Anwenden von verschiedenen Druckgraden auf das Lenkrad aktiviert wurde.
    3. 3. Steuereinheit & Überwachungseinrichtung (CU &MD) Diese Einrichtung kann eine Kommunikationsverbindung und eine Datenverwaltung für die Schnittstellenverbindung zwischen der CU & MD des Lastwagens mit einer angeordneten Fernüberwachungsstation liefern. Diese Einrichtung kann außerdem die Übertragungsschnittstelle und Übertragersignal-Aufzeichnungs- und Ermittlungsfähigkeit liefern. Diese Einrichtung kann außerdem ein Steuersignal zu den Fahrerindikator-LEDs ausgeben und aufzeichnen und Übertragungswachsamkeits-Ansprechzeiten zur Fernüberwachungsstation übertragen.
    4. 4. Wachsamkeits-LED-Anzeige Diese Einrichtung kann mit der CU & MD-Einheit verbunden sein und kann ein optisches Ansprechzeichen dem Lastwagenfahrer liefern.
    5. 5. Fernaufzeichnungs-, Überwachungs- und Analysesystem Dieses System kann entfernte optische Bedieneralarme erleichtern, wenn die Wachsamkeitsansprechzeiten außerhalb akzeptabler Schwellenwerte sind.

    Dieses System kann außerdem Kommunikationsverbindungen zum Lastwagen bereitstellen.
    Dieses System kann außerdem eine Analyse und einen Systembericht bereitstellen, um eine Realzeitnachführung der Wachsamkeitsleistung und des Wachsamkeitsalarmstatus zu erlauben.
    Schließlich versteht es sich, daß verschiedene Änderungen, Modifikationen und/oder Ergänzungen den Konstruktionen und Anordnungen der Teile hinzugefügt werden können, die oben beschrieben wurden, ohne den Geist und die Art der Erfindung zu verlassen.

Claims (26)

  1. Gerät zum Bestimmen eines Wachsamkeitszustandes eines Subjekts, wobei das Gerät umfaßt: einen ersten Sensor, der mit dem Subjekt wirkverbunden ist, zum Überwachen zumindest einer physiologischen Variable, die mit dem Subjekt verknüpft ist, und zum Erzeugen eines mit der zumindest einen physiologischen Variable in Beziehung stehenden ersten Ausgangssignals, wobei der erste Sensor wirkverbunden ist mit einem Mitglied der folgenden Aufzählung: ein Lenkrad; ein oberer Abschnitt eines Sitzes für das Subjekt; ein unterer Abschnitt eines Sitzes für das Subjekt; ein Sitzgurt für das Subjekt; ein Gaspedal; ein Kupplungspedal; ein Bremspedal eines Fahrzeugs; ein Bodenbelag; eine Sonnenblende oder ein Teil eines Fahrzeugs; einen zweiten Sensor, der mit dem Subjekt wirkverbunden ist, zum Überwachen der zumindest einen physiologischen Variablen des Subjekts und zum Erzeugen eines mit der zumindest einen physiologischen Variable in Beziehung stehenden zweiten Ausgangssignals, wobei der zweite Sensor wirkverbunden ist mit einem zweiten Mitglied der folgenden Aufzählung, wobei sich das zweite Mitglied von dem ersten Mitglied unterscheidet: ein Lenkrad; ein oberer Abschnitt eines Sitzes für das Subjekt; ein unterer Abschnitt eines Sitzes für das Subjekt; ein Sitzgurt für das Subjekt; ein Gaspedal; ein Kupplungspedal; ein Bremspedal eines Fahrzeugs; eine Sonnenblende oder ein Teil eines Fahrzeugs; einen Computerprozessor zum Empfangen des ersten und des zweiten Ausgangssignals, wobei der Computerprozessor das erste und das zweite Ausgangssignal mit einem Referenzdatensatz vergleicht, wobei der Referenzdatensatz mit der zumindest einen physiologischen Variable in Beziehung steht und in einem Entspannungs- oder Ermüdungszustand des Subjekts ermittelt wurde, um einen Datensatz zu erhalten, der den physiologische Zustand des Subjekts zeigt, der der zumindest einen physiologischen Variablen des Subjekts entspricht; und ein Schwellwertwachsamkeitssignal, welches auf einen niedrigen Wachsamkeitszustand gesetzt wird, wenn der Datensatz unter einen vorgegebenen niedrigen Wachsamkeitsschwellenwert sinkt.
  2. Gerät nach Anspruch 1, wobei die physiologischen Variablen die Körperbewegung und/oder die Position, EEG-, EMG- & EOG-Signale den elektrischen Hautwiderstand und die Augen- und Kopfbewegung und/oder Körperhaltung umfassen.
  3. Gerät nach einem der vorhergehenden Ansprüche, wobei der erste Sensor und/oder der zweite Sensor einen Sensor umfassen, der auf dem Subjekt oder einer Zone angeordnet ist, die mit dem Fahrzeug verknüpft ist.
  4. Gerät nach Anspruch 3. wobei der oder jeder Sensor kapazitives statisches Entladungs(CSD)- oder Polyvinylidenfluorid(PVDF)-Material umfaßt.
  5. Gerät nach Anspruch 4. wobei das Sensormaterial auf einem Lenkrad, Sitz, Sitzgurt und/oder auf den Pedalen des Fahrzeugs angeordnet ist.
  6. Gerät nach Anspruch 4, wobei die Pedale ein Gaspedal, ein Kupplungspedal und ein Bremspedal des Fahrzeugs umfassen.
  7. Gerät nach einem der vorhergehenden Ansprüche, wobei der Computerprozessor einen Wachsamkeitsalgorithmus umfaßt.
  8. Gerät nach Anspruch 7, wobei der Wachsamkeitsalgorithmus ausgebildet ist, die Daten in Wechselbeziehung zu bringen und/oder eine Kombinationsanwendungslogik auf die Daten anzuwenden, um Muster in den Daten zu ermitteln, die mit einem Wachsamkeitszustand des Subjekts verknüpft sind, der unter dem vorher-festgelegten Schwellenwert ist.
  9. Gerät nach Anspruch 8, wobei der Algorithmus eine oder mehrere Nachschlagetabellen enthält, die Referenzbewegungsdaten und Unterlassungszustände umfassen, die mit Wachsamkeitszuständen, die über oder unter dem vorher-festgelegten Schwellenwert sind, verknüpft sind.
  10. Gerät nach Anspruch 7, wobei der Algorithmus ausgebildet ist, einen Wachsamkeitswahrscheinlichkeitsfaktor als Funktion von gewichteten Bewegungsdatenwerten zu bestimmen.
  11. Gerät nach einem der vorhergehenden Ansprüche, welches eine Eingreifeinrichtung und/oder eine Alarmeinrichtung umfaßt, um in die Steuerung des Fahrzeugs einzugreifen und/oder das Subjekt zu alarmieren, bei der Begebenheit, daß der Wachsamkeitszustand des Subjekts unter dem vorher-festgelegten niedrigen Wachsamkeitsschwellenwert ist.
  12. Gerät nach Anspruch 11, wobei die Eingreifeinrichtung eine gesteuerte Anwendung von Bremsen, das Unterbrechen der Kraftstoffzufuhr und/oder das Außerbetriebsetzen des Gaspedals des Fahrzeugs umfaßt.
  13. Gerät nach Anspruch 11, wobei die Alarmeinrichtung zumindest einen Spray, der dazu bestimmt ist, das Subjekt zu stimulieren, das Vibrieren eines Lenkrads, eines Sitzgurts oder des Bodenbereichs in Verbindung mit dem Fahrzeug, einen hörbaren Alarm und/oder das Schalten von hellen Lichtern in der Fahrzeugkabine und das Aufblitzen von Alarmlichtern und/oder das Ausbringen eines hörbaren Alarms umfaßt.
  14. Gerät nach Anspruch 11, wobei die Eingreifeinrichtung an eine Fernüberwachungsstation über ein drahtloses Kommunikationssystem angeschaltet ist.
  15. Verfahren zum Bestimmen eines Wachsamkeitszustandes eines Subjekts, wobei das Verfahren folgende Schritte umfaßt: Überwachen zumindest einer physiologischen Variablen, die mit dem Subjekt verknüpft sind, durch Anbringen einer Mehrzahl von Sensoren an einem Lenkrad eines Fahrzeugs, wobei jeder aus der Mehrzahl von Sensoren eine Mehrzahl von entsprechenden Ausgangssignalen erzeugt; Überwachen der zumindest einen physiologischen Variablen, die mit dem Subjekt verknüpft ist, durch Anbringen einer weiteren Mehrzahl von Sensoren an einem Mitglied der folgenden Aufzählung: ein oberer Abschnitt eines Sitzes für das Subjekt; ein unterer Abschnitt eines Sitzes für das Subjekt; ein Sitzgurt für das Subjekt; ein Gaspedal; ein Kupplungspedal; ein Bremspedal eines Fahrzeugs; ein Bodenbelag; eine Sonnenblende oder ein Teil eines Fahrzeugs; wobei jede der weiteren Mehrzahl von Sensoren eine weitere Mehrzahl von entsprechenden Ausgangssignalen erzeugt; Herleiten eines Datensatzes von der zumindest einen physiologischen Variablen, der zumindest einen physiologischen Zustand des Subjekts zeigt, entsprechend der zumindest einen physiologischen Variablen; und Bestimmung aus dem Datensatz heraus, wenn der Wachsamkeitszustand des Subjekts einen vorher-festgelegten Wachsamkeitsschwellenwert überquert durch Vergleichen des Satzes von Ausgangssignalen der Mehrzahl von Sensoren mit einem Referenzdatensatz, wobei der Referenzdatensatz Informationen beinhaltet, die vom Subjekt in einem Entspannungs- oder Ermüdungszustand ermittelt wurden; und Bereitstellen eines Wachsamkeitszustandsausgangssignal, wenn der Wachsamkeitszustand des Subjekts den vorher-festgelegten Wachsamkeitsschwellenwert überquert.
  16. Verfahren nach Anspruch 15, wobei die physiologischen Variablen die Körperbewegung und/oder die Position, EEG-, EMG- & EOG-Signale, den elektrischen Hautwiderstand und die Position des Auges und der Kopfbewegung und/oder die Körperhaltung umfassen.
  17. Verfahren nach Anspruch 15 oder Anspruch 16, wobei der oder jeder Sensor kapazitives statisches Enladungs(CSD)- oder Polyvinylidenfluorid(PVDF)-Material umfaßt.
  18. Verfahren nach Anspruch 15, wobei zumindest der Herleitungsschritt oder der Bestimmungsschritt über eine Digitalverarbeitungseinrichtung durchgeführt wird.
  19. Verfahren nach einem der Ansprüche 15 bis 18, wobei der Bestimmungsschritt über einen Wachsamkeitsalgorithmus durchgeführt wird.
  20. Verfahren nach Anspruch 19, wobei der Wachsamkeitsalgorithmus ausgebildet ist, die Daten in Beziehung zu setzen und/oder eine Anwendungskombinationslogik auf die Daten anzuwenden, um Muster in den Daten zu ermitteln, die in einer Wechselbeziehung mit einem Wachsamkeitszustand des Fahrers stehen, die unter dem vorgehenden Schwellenwert sind.
  21. Verfahren nach Anspruch 20, wobei der Algorithmus eine oder mehrere Nachschlagtabellen enthält, die Referenzbewegungsdaten und Unterlassungszustände umfassen, die mit Wachsamkeitszuständen verknüpft sind, die über und unter dem vorher-festgelegten Schwellenwert sind.
  22. Verfahren nach Anspruch 19. wobei der Algorithmus ausgebildet ist, einen Wachsamkeitswahrscheinlichkeitsfaktor als Funktion der gewichteten Bewegungsdatenwerte festzulegen.
  23. Verfahren nach einem der Ansprüche 15 bis 22, das einen Schritt zum Eingreifen in die Steuerung des Fahrzeugs und/oder zum Alarmieren des Subjekts umfaßt, bei der Begebenheit, wo der Wachsamkeitszustand des Subjekts unter dem vorher-festgelegten Schwellenwert ist.
  24. Verfahren nach Anspruch 23. wobei der Schritt zum Eingreifen die gesteuerte Anwendung von Bremsen, das Trennen der Kraftstoffversorgung und/oder das Außerkraftsetzen des Gaspedals des Fahrzeugs umfaßt.
  25. Verfahren nach Anspruch 23, wobei der Alarmierungsschritt zumindest die Anwendung eines Sprays, der bestimmt ist, das Subjekt zu stimulieren, das Vibrieren eines Lenkrads, des Sitzgurts oder des Bodenbereichs in Verbindung mit dem Fahrzeug, das Aktivieren eines hörbaren Alarms und/oder das Schalten von heller Beleuchtung in der Kabine des Fahrzeugs oder das Aufblitzen von Alarmlichtern und/oder das Ausbringen eines hörbaren Alarms umfaßt.
  26. Verfahren nach Anspruch 23, wobei der Eingreifschritt das Anschalten an eine Fernüberwachungsstation über ein drahtloses Kommunikationssystem umfaßt.
DE19983911.5T 1999-01-27 1999-12-24 Wachsamkeitsüberwachungssystem Expired - Lifetime DE19983911B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AUPP8325A AUPP832599A0 (en) 1999-01-27 1999-01-27 Vigilance monitoring system
AUPP8325 1999-01-27
AUPQ3740 1999-10-29
AUPQ3740A AUPQ374099A0 (en) 1999-10-29 1999-10-29 Monitoring system
PCT/AU1999/001166 WO2000044580A1 (en) 1999-01-27 1999-12-24 Vigilance monitoring system

Publications (2)

Publication Number Publication Date
DE19983911T5 DE19983911T5 (de) 2013-01-31
DE19983911B4 true DE19983911B4 (de) 2018-09-06

Family

ID=25645979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19983911.5T Expired - Lifetime DE19983911B4 (de) 1999-01-27 1999-12-24 Wachsamkeitsüberwachungssystem

Country Status (4)

Country Link
US (4) US6575902B1 (de)
AU (1) AU767533B2 (de)
DE (1) DE19983911B4 (de)
WO (1) WO2000044580A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019212412A1 (de) * 2019-08-20 2021-02-25 Zf Friedrichshafen Ag Überwachungsvorrichtung und Verfahren zur Überwachung eines Lebewesens im Innenraum eines Fahrzeugs und Computerprogramm
DE102021101208A1 (de) 2021-01-21 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem sowie Kraftfahrzeug mit einem Fahrerassistenzsystem
DE102018113488B4 (de) 2017-06-08 2023-02-02 Toyota Jidosha Kabushiki Kaisha Fahrbewusstseinsabschätzvorrichtung
DE102018217692B4 (de) 2017-10-24 2023-05-04 Lear Corporation Schläfrigkeitserfassungssystem
DE102022210376B3 (de) 2022-09-30 2023-12-07 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung an einen eine Kontaktlinse auf einem Auge tragenden Nutzer eines Kraftfahrzeugs

Families Citing this family (433)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6984207B1 (en) * 1999-09-14 2006-01-10 Hoana Medical, Inc. Passive physiological monitoring (P2M) system
DE19952857C1 (de) * 1999-11-03 2001-08-09 Bosch Gmbh Robert Vorrichtung zur fahrerzustandsabhängigen Steuerung
EP1278499A2 (de) 2000-05-05 2003-01-29 Hill-Rom Services, Inc. Fernbedienung für ein krankenbett
AU2001261198A1 (en) 2000-05-05 2001-11-20 Hill-Rom Services, Inc. Patient point of care computer system
DE10042367A1 (de) * 2000-08-29 2002-05-02 Bosch Gmbh Robert Verfahren und Vorrichtung zur Diagnose der Fahrtüchtigkeit eines Fahrers in einem Kraftfahrzeug
US7629890B2 (en) 2003-12-04 2009-12-08 Hoana Medical, Inc. System and methods for intelligent medical vigilance with bed exit detection
US7666151B2 (en) 2002-11-20 2010-02-23 Hoana Medical, Inc. Devices and methods for passive patient monitoring
JP3495982B2 (ja) * 2000-12-21 2004-02-09 株式会社エム・アイ・ラボ 密閉空気式音センサを使用した運転者居眠り警報装置
CA2439163A1 (en) 2001-03-30 2002-10-10 Hill-Rom Services, Inc. Hospital bed and network system
US6849050B1 (en) * 2001-05-07 2005-02-01 The United States Of America As Represented By The Secretary Of The Army System and method for determining visual alertness
KR20080096855A (ko) 2001-06-13 2008-11-03 컴퓨메딕스 리미티드 의식 상태를 모니터링하기 위한 방법 및 장치
JP4301537B2 (ja) 2001-08-13 2009-07-22 パイオニア株式会社 移動体用ナビゲーションシステム及び方法並びにコンピュータプログラム
DE10151014B4 (de) * 2001-10-16 2015-10-08 Volkswagen Ag Verfahren und Vorrichtung zur Aufmerksamkeitskontrolle eines Kraftfahrzeugführers
US8301108B2 (en) 2002-11-04 2012-10-30 Naboulsi Mouhamad A Safety control system for vehicles
GB2381586A (en) * 2001-11-01 2003-05-07 Oxford Biosignals Ltd Electro-Oculographic Sleep Monitoring
DE10154400C2 (de) 2001-11-06 2003-10-30 Fom Future Office Man Gmbh Überwachungs- und Steuersystem für bemannte Fahrzeuge
AUPR872301A0 (en) * 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
GB0203035D0 (en) * 2002-02-08 2002-03-27 Univ Bristol A method of and an apparatus for measuring a person's ability to perform a motor control task
IL163535A0 (en) 2002-02-15 2005-12-18 Cv Therapeutics Inc Polymer coating for medical devices
JP2003276470A (ja) * 2002-03-22 2003-09-30 Nissan Motor Co Ltd 情報提示制御装置
DE10217822C1 (de) * 2002-04-17 2003-09-25 Daimler Chrysler Ag Verfahren und Vorrichtung zur Blickrichtungserkennung einer Person mittels wenigstens eines richtungsselektiven Mikrofons
JP3846872B2 (ja) * 2002-06-27 2006-11-15 パイオニア株式会社 運転者精神状態情報提供システム
ITRM20020371A1 (it) * 2002-07-10 2004-01-12 Maurizio Catello Pennarola Sistema di gestione della navigazione di velivoli fuori rotta e comunicazioni di allarme.
JP4216546B2 (ja) * 2002-08-28 2009-01-28 ダイハツ工業株式会社 車両の乗員疲労度評価方法
NL1021496C2 (nl) * 2002-09-19 2004-03-22 Joannes Hermanus Heiligers Signaleringsinrichting en werkwijze voor het monitoren van alertheid van personen.
US7698909B2 (en) 2002-10-01 2010-04-20 Nellcor Puritan Bennett Llc Headband with tension indicator
ATE479343T1 (de) 2002-10-01 2010-09-15 Nellcor Puritan Bennett Inc Verwendung eines kopfbandes zur spannungsanzeige und system aus oxymeter und kopfband
JP3732476B2 (ja) * 2002-10-22 2006-01-05 株式会社日立製作所 生体計測装置
US8512221B2 (en) * 2003-02-28 2013-08-20 Consolidated Research Of Richmond, Inc. Automated treatment system for sleep
CA2516093C (en) * 2003-02-28 2012-05-01 Consolidated Research Of Richmond, Inc. Automated insomnia treatment system
US8066639B2 (en) * 2003-06-10 2011-11-29 Abbott Diabetes Care Inc. Glucose measuring device for use in personal area network
US8164464B2 (en) * 2005-03-24 2012-04-24 Matos Jeffrey A Method and system of aircraft pilot assessment
US8289172B2 (en) * 2005-03-24 2012-10-16 Matos Jeffrey A Method and system of aircraft pilot assessment and for remedial action upon pilot impairment
US7047056B2 (en) 2003-06-25 2006-05-16 Nellcor Puritan Bennett Incorporated Hat-based oximeter sensor
US7654962B2 (en) * 2003-06-26 2010-02-02 Hoana Medical, Inc. Radiation stress non-invasive blood pressure method
JP2005018594A (ja) * 2003-06-27 2005-01-20 Canon Inc 指紋入力装置、その製造方法、及び個人認証システム
JP2005038406A (ja) * 2003-06-27 2005-02-10 Canon Inc 指紋入力装置及びこれを用いた個人認証システム
US7399205B2 (en) 2003-08-21 2008-07-15 Hill-Rom Services, Inc. Plug and receptacle having wired and wireless coupling
US7049947B2 (en) * 2003-09-29 2006-05-23 Nattel Group, Inc. System and method for monitoring the operational condition of a motor vehicle
US8412297B2 (en) 2003-10-01 2013-04-02 Covidien Lp Forehead sensor placement
DE102004022581B4 (de) * 2003-10-06 2017-08-03 Volkswagen Ag Fahrerassistenzsystem
EP1694202B1 (de) * 2003-12-04 2014-12-31 Hoana Medical, Inc. Intelligentes medizinisches überwachungssystem
US7075458B2 (en) 2004-01-27 2006-07-11 Paul Steven Dowdy Collision avoidance method and system
EP1715787A4 (de) * 2004-02-18 2009-04-08 Maquet Critical Care Ab Verfahren und vorrichtung mit myoelektrischer aktivität zur optimierung der atemunterstützung eines patienten
AU2005215039B2 (en) * 2004-02-18 2011-07-14 Hoana Medical, Inc. Method and system for integrating a passive sensor array with a mattress for patient monitoring
US7369951B2 (en) * 2004-02-27 2008-05-06 Board Of Trustees Of Michigan State University Digital, self-calibrating proximity switch
US20050195079A1 (en) * 2004-03-08 2005-09-08 David Cohen Emergency situation detector
GB2412431B (en) * 2004-03-25 2007-11-07 Hewlett Packard Development Co Self-calibration for an eye tracker
DE102004046305A1 (de) * 2004-03-30 2005-10-13 Daimlerchrysler Ag Rückhaltesystem mit Rückhaltegurt
US8048002B2 (en) * 2004-04-27 2011-11-01 Jamshid Ghajar Method for improving cognition and motor timing
US20060004298A1 (en) * 2004-06-30 2006-01-05 Kennedy Philip R Software controlled electromyogram control systerm
US20060019224A1 (en) * 2004-07-23 2006-01-26 Pics, Inc. Insomnia assessment and treatment device and method
FR2873646B1 (fr) * 2004-07-30 2006-09-15 Koyo Steering Europ K S E Soc Procede de limitation des pertes d'assistance sur une direction assistee de vehicule automobile
US7319386B2 (en) 2004-08-02 2008-01-15 Hill-Rom Services, Inc. Configurable system for alerting caregivers
US7639146B2 (en) * 2004-09-29 2009-12-29 Baura Gail D Blink monitor for detecting blink occurrence in a living subject
FR2880166B1 (fr) * 2004-12-24 2008-10-31 Renault Sas Procede et dispositif d'aide a la conduite par alerte en cas de situation d'urgence pour un vehicule automobile
US8075484B2 (en) * 2005-03-02 2011-12-13 Martin Moore-Ede Systems and methods for assessing equipment operator fatigue and using fatigue-risk-informed safety-performance-based systems and methods to replace or supplement prescriptive work-rest regulations
WO2006096135A1 (en) * 2005-03-08 2006-09-14 National University Of Singapore A system and method for monitoring mental fatigue
US7746235B2 (en) * 2005-03-10 2010-06-29 Delphi Technologies, Inc. System and method of detecting eye closure based on line angles
US7253738B2 (en) * 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method of detecting eye closure based on edge lines
US7253739B2 (en) 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
WO2006125256A1 (en) * 2005-05-23 2006-11-30 Fairclough Corporation Pty Ltd Monitoring system for mechanically self-guided vehicle
DE102005026479B4 (de) * 2005-06-09 2017-04-20 Daimler Ag Verfahren zur Unaufmerksamkeitserkennung in Abhängigkeit von mindestens einem fahrerindividuellen Parameter
WO2007039826A2 (en) * 2005-07-25 2007-04-12 Gal Markel Mobile communication device and other devices with cardiovascular monitoring capability
US20070096896A1 (en) * 2005-10-28 2007-05-03 Zingelewicz Virginia A System and method for securing an infrastructure
JP4497081B2 (ja) * 2005-10-31 2010-07-07 トヨタ自動車株式会社 人の状態検出装置
US7458609B2 (en) * 2005-11-03 2008-12-02 Ford Global Technologies, Llc System and method for adjustably positioning a restraint system in a motor vehicle
US10878646B2 (en) 2005-12-08 2020-12-29 Smartdrive Systems, Inc. Vehicle event recorder systems
US20070150138A1 (en) 2005-12-08 2007-06-28 James Plante Memory management in event recording systems
US7423540B2 (en) 2005-12-23 2008-09-09 Delphi Technologies, Inc. Method of detecting vehicle-operator state
US8000887B2 (en) * 2006-02-17 2011-08-16 Lear Corporation Method and system of directing vehicles traveling over roadway during emergency
US20070194922A1 (en) * 2006-02-17 2007-08-23 Lear Corporation Safe warn building system and method
US7831379B2 (en) * 2006-02-17 2010-11-09 Lear Corporation Roadside signage control from vehicle operating data
AU2007219703B2 (en) * 2006-03-01 2010-02-11 Sdip Holdings Pty Ltd Incapacity monitor
US9201842B2 (en) 2006-03-16 2015-12-01 Smartdrive Systems, Inc. Vehicle event recorder systems and networks having integrated cellular wireless communications systems
US8996240B2 (en) 2006-03-16 2015-03-31 Smartdrive Systems, Inc. Vehicle event recorders with integrated web server
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
WO2007111223A1 (ja) * 2006-03-24 2007-10-04 Pioneer Corporation 運転者の精神状態検出装置および精神状態検出方法
US8269617B2 (en) * 2009-01-26 2012-09-18 Drivecam, Inc. Method and system for tuning the effect of vehicle characteristics on risk prediction
US8849501B2 (en) * 2009-01-26 2014-09-30 Lytx, Inc. Driver risk assessment system and method employing selectively automatic event scoring
US8508353B2 (en) * 2009-01-26 2013-08-13 Drivecam, Inc. Driver risk assessment system and method having calibrating automatic event scoring
EP2032035A1 (de) * 2006-06-09 2009-03-11 Universite Joseph Fourier Verfahren und vorrichtung zur rehabilitation und/oder korrektur von haltungssymmetrie in statischen oder dynamischen situationen
JP2008013004A (ja) * 2006-07-04 2008-01-24 Fuji Heavy Ind Ltd 芳香発生による運転支援システム
WO2008013440A1 (en) * 2006-07-24 2008-01-31 Hua Hean Kee Drowsiness prevention apparatus
US7551068B2 (en) * 2006-08-28 2009-06-23 Lear Corporation Vehicle seat alert system
JP2008061931A (ja) * 2006-09-11 2008-03-21 Toyota Motor Corp 車両およびそれを備える身体情報収集システム
AU2007306009B2 (en) * 2006-10-13 2010-07-15 Toyota Jidosha Kabushiki Kaisha On-board warning apparatus and warning method
US8989959B2 (en) 2006-11-07 2015-03-24 Smartdrive Systems, Inc. Vehicle operator performance history recording, scoring and reporting systems
US8649933B2 (en) 2006-11-07 2014-02-11 Smartdrive Systems Inc. Power management systems for automotive video event recorders
US8868288B2 (en) 2006-11-09 2014-10-21 Smartdrive Systems, Inc. Vehicle exception event management systems
DE102006056094A1 (de) * 2006-11-28 2008-05-29 Robert Bosch Gmbh Fahrerassistenzsystem mit Anwesenheitsüberwachung
WO2008091621A1 (en) 2007-01-23 2008-07-31 Alan Goodrich An unobitrusive system and method for monitoring the physiological condition of a target user of a vehicle
JP4400624B2 (ja) * 2007-01-24 2010-01-20 トヨタ自動車株式会社 居眠り防止装置及び方法
JP4748084B2 (ja) * 2007-03-06 2011-08-17 トヨタ自動車株式会社 心理状態推定装置
US7652583B2 (en) * 2007-03-20 2010-01-26 Deere & Company Method and system for maintaining operator alertness
US20090030717A1 (en) 2007-03-29 2009-01-29 Neurofocus, Inc. Intra-modality synthesis of central nervous system, autonomic nervous system, and effector data
US20080242951A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Effective low-profile health monitoring or the like
US8117047B1 (en) 2007-04-16 2012-02-14 Insight Diagnostics Inc. Healthcare provider organization
US7970175B2 (en) * 2007-04-30 2011-06-28 Delphi Technologies, Inc. Method and apparatus for assessing head pose of a vehicle driver
US8184856B2 (en) * 2007-04-30 2012-05-22 Delphi Technologies, Inc. Method and apparatus for assessing driver head pose with a headrest-mounted relative motion sensor
WO2008137579A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-informatics repository system
WO2008137581A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
US8239092B2 (en) 2007-05-08 2012-08-07 Smartdrive Systems Inc. Distributed vehicle event recorder systems having a portable memory data transfer system
WO2008144569A1 (en) * 2007-05-16 2008-11-27 Neurofocus, Inc. Habituation analysis using central nervous system, autonomic nervous system and effector system measurements
US8392253B2 (en) * 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
WO2008154410A1 (en) * 2007-06-06 2008-12-18 Neurofocus, Inc. Multi-market program and commercial response monitoring system using neuro-response measurements
US8494905B2 (en) 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
WO2008157544A1 (en) * 2007-06-18 2008-12-24 New York University Electronic identity card
JP4974788B2 (ja) * 2007-06-29 2012-07-11 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
SE532317C2 (sv) * 2007-07-05 2009-12-15 Svenska Utvecklings Entrepreno Anordning för att väcka förare och operatörer
JP5542051B2 (ja) 2007-07-30 2014-07-09 ニューロフォーカス・インコーポレーテッド 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置
US20090054802A1 (en) * 2007-08-22 2009-02-26 National Yang-Ming University Sunglass type sleep detecting and preventing device
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8635105B2 (en) 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
US8392254B2 (en) * 2007-08-28 2013-03-05 The Nielsen Company (Us), Llc Consumer experience assessment system
US8392255B2 (en) 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US20090076343A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. Energy Management for Adherent Patient Monitor
WO2009036313A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. Adherent device with multiple physiological sensors
EP2200512A1 (de) 2007-09-14 2010-06-30 Corventis, Inc. Haftende vorrichtung zur überwachung der atmung und atmungsstörungen im schlaf
WO2009036306A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. Adherent cardiac monitor with advanced sensing capabilities
WO2009036256A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. Injectable physiological monitoring system
WO2009036348A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. Medical device automatic start-up upon contact to patient tissue
US20090076341A1 (en) * 2007-09-14 2009-03-19 Corventis, Inc. Adherent Athletic Monitor
EP2194864B1 (de) 2007-09-14 2018-08-29 Medtronic Monitoring, Inc. System und verfahren für die drahtlose überwachung von körperflüssigkeiten
US8494610B2 (en) 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US20090083129A1 (en) 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
WO2009052490A1 (en) * 2007-10-18 2009-04-23 Carnett John B Method and apparatus for soothing a baby
US8082160B2 (en) 2007-10-26 2011-12-20 Hill-Rom Services, Inc. System and method for collection and communication of data from multiple patient care devices
US7594122B2 (en) * 2007-11-13 2009-09-22 Wavesynch Technologies, Inc. Method of determining whether a test subject is a specific individual
US20100069775A1 (en) * 2007-11-13 2010-03-18 Michael Milgramm EEG-Related Methods
US20100036209A1 (en) * 2008-08-07 2010-02-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090287109A1 (en) * 2008-05-14 2009-11-19 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090163856A1 (en) * 2007-12-19 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Treatment indications informed by a prior implant information
US20090292213A1 (en) * 2008-05-21 2009-11-26 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090292212A1 (en) * 2008-05-20 2009-11-26 Searete Llc, A Limited Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US8636670B2 (en) * 2008-05-13 2014-01-28 The Invention Science Fund I, Llc Circulatory monitoring systems and methods
US20090287076A1 (en) * 2007-12-18 2009-11-19 Boyden Edward S System, devices, and methods for detecting occlusions in a biological subject
US9717896B2 (en) * 2007-12-18 2017-08-01 Gearbox, Llc Treatment indications informed by a priori implant information
US20090287101A1 (en) * 2008-05-13 2009-11-19 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090281413A1 (en) * 2007-12-18 2009-11-12 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems, devices, and methods for detecting occlusions in a biological subject
US20100036268A1 (en) * 2008-08-07 2010-02-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090287191A1 (en) * 2007-12-18 2009-11-19 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090292222A1 (en) * 2008-05-14 2009-11-26 Searete Llc Circulatory monitoring systems and methods
US9672471B2 (en) * 2007-12-18 2017-06-06 Gearbox Llc Systems, devices, and methods for detecting occlusions in a biological subject including spectral learning
US20100036269A1 (en) * 2008-08-07 2010-02-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090292214A1 (en) * 2008-05-22 2009-11-26 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090281412A1 (en) * 2007-12-18 2009-11-12 Searete Llc, A Limited Liability Corporation Of The State Of Delaware System, devices, and methods for detecting occlusions in a biological subject
US20090287110A1 (en) * 2008-05-14 2009-11-19 Searete Llc Circulatory monitoring systems and methods
US20100036263A1 (en) * 2008-08-07 2010-02-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090287120A1 (en) 2007-12-18 2009-11-19 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US20090174560A1 (en) * 2008-01-03 2009-07-09 General Electric Company Systems, Apparatuses And Methods For Monitoring Physical Conditions Of A Vehicle Driver
GB0800615D0 (en) * 2008-01-14 2008-02-20 Hypo Safe As Implantable electronic device
US20110251468A1 (en) * 2010-04-07 2011-10-13 Ivan Osorio Responsiveness testing of a patient having brain state changes
US7798004B2 (en) * 2008-01-28 2010-09-21 Caterpillar Inc Monitoring system for machine vibration
US7978085B1 (en) 2008-02-29 2011-07-12 University Of South Florida Human and physical asset movement pattern analyzer
US8628478B2 (en) 2009-02-25 2014-01-14 Empire Technology Development Llc Microphone for remote health sensing
EP2257216B1 (de) 2008-03-12 2021-04-28 Medtronic Monitoring, Inc. Auf herzrhythmus basierende vorhersage von herzinsuffizienzdekompensation
ES2316307B2 (es) * 2008-04-02 2010-12-03 Universidad Politecnica De Madrid Dispositivo seguro para conduccion frente a situaciones de hombre muerto o dormido.
US8412317B2 (en) 2008-04-18 2013-04-02 Corventis, Inc. Method and apparatus to measure bioelectric impedance of patient tissue
CN101565036B (zh) * 2008-04-21 2011-04-27 上海汽车集团股份有限公司 一种防疲劳驾驶方法
BRPI0908300A2 (pt) * 2008-05-02 2015-07-21 Peter Demmelbauer "dispositivo para estímulo de áreas do cérebro humano"
WO2009136616A1 (ja) * 2008-05-09 2009-11-12 日本電気株式会社 運転状態判定方法及びシステム
JP5127576B2 (ja) * 2008-06-11 2013-01-23 ヤマハ発動機株式会社 精神作業負荷検出装置及びそれを備えた自動二輪車
JP5196252B2 (ja) * 2008-06-26 2013-05-15 株式会社アドヴィックス 車両制御装置
IT1390617B1 (it) * 2008-07-30 2011-09-09 Iannotta Sistema di sicurezza per veicoli.
CN101642375B (zh) * 2008-08-04 2012-05-09 南京大学 疲劳评测方法及系统
CN102047304B (zh) * 2008-08-05 2013-04-03 松下电器产业株式会社 驾驶注意力程度判定装置、方法
FR2935525A1 (fr) * 2008-08-26 2010-03-05 Olivier Jean Pierre Allain Dispositif et procede anti-somnolence pour une personne assise sur un siege, notamment d'un vehicule automobile
US8257274B2 (en) 2008-09-25 2012-09-04 Nellcor Puritan Bennett Llc Medical sensor and technique for using the same
US8364220B2 (en) 2008-09-25 2013-01-29 Covidien Lp Medical sensor and technique for using the same
ES2317810A1 (es) * 2008-10-30 2009-04-16 Universidad Politecnica De Madrid Metodo y sistema para controlar la actividad del conductor en vehiculos de carretera.
KR101173944B1 (ko) * 2008-12-01 2012-08-20 한국전자통신연구원 차량 운전자의 감성 조절 시스템 및 방법
GB0822237D0 (en) * 2008-12-05 2009-01-14 Howell Steven Remote health and security monitoring
WO2010077851A2 (en) 2008-12-15 2010-07-08 Corventis, Inc. Patient monitoring systems and methods
US8270814B2 (en) 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US8464288B2 (en) 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US9357240B2 (en) 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8854199B2 (en) * 2009-01-26 2014-10-07 Lytx, Inc. Driver risk assessment system and method employing automated driver log
US8866621B2 (en) * 2009-02-25 2014-10-21 Empire Technology Development Llc Sudden infant death prevention clothing
US8824666B2 (en) * 2009-03-09 2014-09-02 Empire Technology Development Llc Noise cancellation for phone conversation
WO2010103361A1 (en) * 2009-03-09 2010-09-16 Abb Research Ltd Method for determining operator condition, device therefrom and their use in alarm response system in a facility
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US9186075B2 (en) 2009-03-24 2015-11-17 Covidien Lp Indicating the accuracy of a physiological parameter
US8515515B2 (en) 2009-03-25 2013-08-20 Covidien Lp Medical sensor with compressible light barrier and technique for using the same
EP2237237B1 (de) 2009-03-30 2013-03-20 Tobii Technology AB Augenschließungserkennung mit strukturierter Beleuchtung
US8781548B2 (en) 2009-03-31 2014-07-15 Covidien Lp Medical sensor with flexible components and technique for using the same
CN101859473A (zh) * 2009-04-07 2010-10-13 陈耕田 疲劳驾驶预警及自动控制装置(器)
US8577570B2 (en) * 2009-04-17 2013-11-05 Honda Motor Co., Ltd. Touch point calibration method for a motor vehicle
US20100286545A1 (en) * 2009-05-06 2010-11-11 Andrew Wolfe Accelerometer based health sensing
US8193941B2 (en) 2009-05-06 2012-06-05 Empire Technology Development Llc Snoring treatment
WO2010143535A1 (ja) * 2009-06-08 2010-12-16 公立大学法人名古屋市立大学 眠気判定装置
US8957779B2 (en) 2009-06-23 2015-02-17 L&P Property Management Company Drowsy driver detection system
US8427326B2 (en) * 2009-07-30 2013-04-23 Meir Ben David Method and system for detecting the physiological onset of operator fatigue, drowsiness, or performance decrement
US20110046473A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Eeg triggered fmri signal acquisition
US8655437B2 (en) 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US9688286B2 (en) * 2009-09-29 2017-06-27 Omnitracs, Llc System and method for integrating smartphone technology into a safety management platform to improve driver safety
US8756657B2 (en) * 2009-09-29 2014-06-17 Ebay Inc. Mobile or user device authentication and tracking
US20110082628A1 (en) * 2009-10-06 2011-04-07 Brendan J. Murnane Cruise control modification
US10136850B2 (en) * 2009-10-14 2018-11-27 Delta Tooling Co., Ltd. Biological state estimation device, biological state estimation system, and computer program
EP2401963B1 (de) 2009-10-15 2016-09-14 Panasonic Intellectual Property Management Co., Ltd. Vorrichtung, verfahren und computerprogramm zur bestimmung des fahraufmerksamkeitsgrades einer person
US8790259B2 (en) 2009-10-22 2014-07-29 Corventis, Inc. Method and apparatus for remote detection and monitoring of functional chronotropic incompetence
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US8209224B2 (en) 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US8585588B2 (en) * 2009-11-18 2013-11-19 Nohands, Llc Method and system for preventing virus-related obesity and obesity related diseases
US8335716B2 (en) 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
US8335715B2 (en) 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
CN102069710B (zh) * 2009-11-24 2014-03-26 鸿富锦精密工业(深圳)有限公司 驾驶监控装置及方法
US8482415B2 (en) 2009-12-04 2013-07-09 Covidien Lp Interactive multilevel alarm
US8564424B2 (en) * 2009-12-07 2013-10-22 Inventioneers Etc., Llc Steering wheel hand position sensing device
US9451897B2 (en) 2009-12-14 2016-09-27 Medtronic Monitoring, Inc. Body adherent patch with electronics for physiologic monitoring
US9144389B2 (en) 2010-03-12 2015-09-29 Tata Consultancy Services Limited System for vehicle security, personalization and cardiac activity monitoring of a driver
US8965498B2 (en) 2010-04-05 2015-02-24 Corventis, Inc. Method and apparatus for personalized physiologic parameters
WO2011133548A2 (en) 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
DE102010049152B4 (de) * 2010-05-21 2015-11-12 Johnson Controls Gmbh Fahrzeugsitz mit intelligenten Aktuatoren
EP2409874A1 (de) 2010-07-21 2012-01-25 BIOTRONIK SE & Co. KG Bedientauglichkeits-Überwachungssystem
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
CN101941425B (zh) * 2010-09-17 2012-08-22 上海交通大学 对驾驶员疲劳状态的智能识别装置与方法
US20120075122A1 (en) 2010-09-24 2012-03-29 Honeywell International Inc. Alert generation and related aircraft operating methods
WO2012050847A2 (en) 2010-09-28 2012-04-19 Masimo Corporation Depth of consciousness monitor including oximeter
US9775545B2 (en) 2010-09-28 2017-10-03 Masimo Corporation Magnetic electrical connector for patient monitors
US8818725B2 (en) * 2011-11-16 2014-08-26 Flextronics Ap, Llc Location information exchange between vehicle and device
DE102010042547B4 (de) 2010-10-15 2018-07-26 Deutsche Telekom Ag Verfahren zur haptischen Interaktion bei der Telekommunikation und dafür ausgebildetes Telekommunikationsendgerät
US10292625B2 (en) 2010-12-07 2019-05-21 Earlysense Ltd. Monitoring a sleeping subject
ES2366219B1 (es) * 2010-12-24 2012-09-27 Fico Mirrors, S.A. Método y sistema de medida de parámetros fisiológicos.
US9946334B2 (en) * 2010-12-30 2018-04-17 Denso International America, Inc. Method to determine driver workload function and usage of driver workload function for human-machine interface performance assessment
DE102011002920A1 (de) * 2011-01-20 2012-07-26 Robert Bosch Gmbh Verfahren zur Überwachung der Körperhaltung eines Motorradfahrers
US9292471B2 (en) 2011-02-18 2016-03-22 Honda Motor Co., Ltd. Coordinated vehicle response system and method for driver behavior
US20120212345A1 (en) * 2011-02-18 2012-08-23 Polly Harman Device for the treatment of sleep-related conditions
US8698639B2 (en) 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
US8482418B1 (en) 2011-02-18 2013-07-09 Pursuit Enterprises Method and apparatus for monitoring and treatment of sleep-related conditions
US8731736B2 (en) 2011-02-22 2014-05-20 Honda Motor Co., Ltd. System and method for reducing driving skill atrophy
US20120221895A1 (en) * 2011-02-26 2012-08-30 Pulsar Informatics, Inc. Systems and methods for competitive stimulus-response test scoring
TWI434233B (zh) 2011-05-17 2014-04-11 Ind Tech Res Inst 睡意預警方法
DE102011076174A1 (de) * 2011-05-20 2012-11-22 Robert Bosch Gmbh Haptisches Lenkrad, Lenkradsystem und Fahrerassistenzsystem für ein Kraftfahrzeug
WO2012170816A2 (en) * 2011-06-09 2012-12-13 Prinsell Jeffrey Sleep onset detection system and method
EP2535000A1 (de) * 2011-06-17 2012-12-19 Technische Universität München Verfahren und System zur Quantifizierung der Anästhesie oder eines Wachsamkeitszustands
US9380978B2 (en) 2011-06-29 2016-07-05 Bruce Reiner Method and apparatus for real-time measurement and analysis of occupational stress and fatigue and performance outcome predictions
US9833142B2 (en) 2011-07-05 2017-12-05 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for coaching employees based upon monitored health conditions using an avatar
US9256711B2 (en) 2011-07-05 2016-02-09 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display
US9844344B2 (en) 2011-07-05 2017-12-19 Saudi Arabian Oil Company Systems and method to monitor health of employee when positioned in association with a workstation
US9710788B2 (en) 2011-07-05 2017-07-18 Saudi Arabian Oil Company Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US10108783B2 (en) 2011-07-05 2018-10-23 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health of employees using mobile devices
US8872640B2 (en) * 2011-07-05 2014-10-28 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health and ergonomic status of drivers of vehicles
US9526455B2 (en) 2011-07-05 2016-12-27 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
CA2840804C (en) 2011-07-05 2018-05-15 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US8695692B2 (en) * 2011-07-29 2014-04-15 Baker Hughes Incorporated Downhole condition alert system for a drill operator
US8941499B2 (en) * 2011-08-01 2015-01-27 Honda Motor Co., Ltd. Monitoring system for use with a vehicle and method of assembling same
US8606492B1 (en) 2011-08-31 2013-12-10 Drivecam, Inc. Driver log generation
KR101604232B1 (ko) * 2011-09-05 2016-03-17 토야마켄 졸음검출방법과 장치
US8744642B2 (en) 2011-09-16 2014-06-03 Lytx, Inc. Driver identification based on face data
US8996234B1 (en) 2011-10-11 2015-03-31 Lytx, Inc. Driver performance determination based on geolocation
US9298575B2 (en) 2011-10-12 2016-03-29 Lytx, Inc. Drive event capturing based on geolocation
DE102011086740A1 (de) * 2011-11-21 2013-05-23 Zf Friedrichshafen Ag Erfassungsvorrichtung zur Erfassung von Vitalparametern
US8989914B1 (en) 2011-12-19 2015-03-24 Lytx, Inc. Driver identification based on driving maneuver signature
US20130204153A1 (en) * 2012-02-06 2013-08-08 Emily Ruth Buzhardt Generating an alarm based on brain wave patterns of a user
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
DE102012005074A1 (de) * 2012-03-13 2013-09-19 Gm Global Technology Operations, Llc Fahrerassistenzsystem
CN104246848B (zh) * 2012-04-02 2017-04-12 丰田自动车株式会社 驾驶辅助装置
US8676428B2 (en) 2012-04-17 2014-03-18 Lytx, Inc. Server request for downloaded information from a vehicle-based monitor
US9240079B2 (en) 2012-04-17 2016-01-19 Lytx, Inc. Triggering a specialized data collection mode
US10102773B2 (en) * 2012-04-23 2018-10-16 The Boeing Company Methods for evaluating human performance in aviation
US9004687B2 (en) 2012-05-18 2015-04-14 Sync-Think, Inc. Eye tracking headset and system for neuropsychological testing including the detection of brain damage
JP5533938B2 (ja) * 2012-06-01 2014-06-25 株式会社デンソー 運転能力低下判定装置
CN103505224B (zh) * 2012-06-27 2015-01-07 东北大学 基于生理信息分析的疲劳驾驶远程监测与报警系统和方法
DE102012014717A1 (de) * 2012-07-25 2014-01-30 Audi Ag Verfahren und Fahrerassistenzsystem zum Betreiben eines Fahrzeugs bei einer gesundheitlichen Störung eines Fahrers
US9728228B2 (en) 2012-08-10 2017-08-08 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US9060671B2 (en) 2012-08-17 2015-06-23 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
WO2014031042A1 (en) * 2012-08-20 2014-02-27 Autoliv Development Ab Eyelid movement processing for detection of drowsiness
US9917281B2 (en) 2012-09-07 2018-03-13 Nitto Denko Corporation Top-emitting white organic light-emitting diodes having improved efficiency and stability
DE102012219508A1 (de) * 2012-10-25 2014-04-30 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerzustandserkennung
JP5910755B2 (ja) * 2012-11-24 2016-04-27 トヨタ自動車株式会社 車両状態判定装置、車両状態判定方法及び運転操作診断装置
US9092093B2 (en) 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
US9344683B1 (en) 2012-11-28 2016-05-17 Lytx, Inc. Capturing driving risk based on vehicle state and automatic detection of a state of a location
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
RU2499692C1 (ru) * 2012-12-12 2013-11-27 Олег Игоревич Антипов Способ контроля за состоянием бодрствования водителя транспортного средства или диспетчера и устройство для предупреждения его засыпания
ITTV20130025A1 (it) * 2013-02-27 2014-08-28 Giorgio Marcon Sistema di sicurezza elettronico per molteplici funzioni.
JP6063775B2 (ja) * 2013-03-01 2017-01-18 東洋紡株式会社 居眠り予防方法、及び居眠り予防装置
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9418617B1 (en) 2013-03-13 2016-08-16 Google Inc. Methods and systems for receiving input controls
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9751534B2 (en) 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
US9398875B2 (en) 2013-11-07 2016-07-26 Honda Motor Co., Ltd. Method and system for biological signal analysis
TWI498858B (zh) * 2013-03-29 2015-09-01 Wistron Corp 自動偵測疲勞的電腦系統及方法
US10499856B2 (en) 2013-04-06 2019-12-10 Honda Motor Co., Ltd. System and method for biological signal processing with highly auto-correlated carrier sequences
BR112015027598A2 (pt) 2013-05-01 2017-09-19 Musc Found For Res Dev Dispositivo para mediar o reflexo de piscada em um indivíduo humano
FI124068B (en) * 2013-05-03 2014-02-28 Jyvaeskylaen Yliopisto Procedure for improving driving safety
US11317861B2 (en) 2013-08-13 2022-05-03 Sync-Think, Inc. Vestibular-ocular reflex test and training system
WO2015048959A1 (de) * 2013-10-01 2015-04-09 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung für einen automatischen lenkeingriff
US10115164B1 (en) * 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
NZ630770A (en) 2013-10-09 2016-03-31 Resmed Sensor Technologies Ltd Fatigue monitoring and management system
US9501878B2 (en) 2013-10-16 2016-11-22 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
JP6312193B2 (ja) * 2013-10-21 2018-04-18 テイ・エス テック株式会社 覚醒装置及びシート
US9958939B2 (en) 2013-10-31 2018-05-01 Sync-Think, Inc. System and method for dynamic content delivery based on gaze analytics
US9610955B2 (en) 2013-11-11 2017-04-04 Smartdrive Systems, Inc. Vehicle fuel consumption monitor and feedback systems
DE102013224512B4 (de) * 2013-11-29 2024-02-01 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Ermittlung eines Berührungsschwellwerts und Fahrzeug
DE102014100965B4 (de) * 2014-01-28 2016-01-14 Deutsches Zentrum für Luft- und Raumfahrt e.V. Fahrerassistenzsystem
SG11201606480XA (en) * 2014-02-14 2016-09-29 Univ Singapore System, device and methods for brainwave-based technologies
US8892310B1 (en) 2014-02-21 2014-11-18 Smartdrive Systems, Inc. System and method to detect execution of driving maneuvers
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
DE102014206626A1 (de) * 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Müdigkeitserkennung mithilfe von Datenbrillen (HMD)
CN103989471B (zh) * 2014-05-08 2015-11-04 东北大学 一种基于脑电图识别的疲劳驾驶检测方法
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
US9476729B2 (en) * 2014-05-29 2016-10-25 GM Global Technology Operations LLC Adaptive navigation and location-based services based on user behavior patterns
KR102051142B1 (ko) * 2014-06-13 2019-12-02 현대모비스 주식회사 차량용 운전자 위험 지수 관리 시스템 및 그 방법
EP3157426B1 (de) * 2014-06-20 2018-06-20 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Vorrichtung, verfahren und computerprogramm zur detektion eines sekundenschlafs
US9628565B2 (en) * 2014-07-23 2017-04-18 Here Global B.V. Highly assisted driving platform
DE102014215461B4 (de) * 2014-08-05 2023-06-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs, insbesondere Eisenbahnfahrzeugs
KR20170057313A (ko) 2014-09-09 2017-05-24 토르벡 인코포레이티드 웨어러블 디바이스를 활용하여 개인의 각성을 모니터링하고 통보를 제공하기 위한 방법들 및 장치
DE102014218744A1 (de) * 2014-09-18 2016-03-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Verbessern des Zustandes eines Insassen eines Fahrzeuges
DE102014224483A1 (de) * 2014-12-01 2016-06-02 Bayerische Motoren Werke Aktiengesellschaft Unterstützen der Atmung eines Fahrzeugführers
US10154815B2 (en) 2014-10-07 2018-12-18 Masimo Corporation Modular physiological sensors
ES2632494T3 (es) * 2014-10-13 2017-09-13 MY E.G. Services Berhad Procedimiento y sistema para mejorar la seguridad vial
US9904362B2 (en) * 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
US9663127B2 (en) 2014-10-28 2017-05-30 Smartdrive Systems, Inc. Rail vehicle event detection and recording system
DE102014222355A1 (de) * 2014-11-03 2016-05-04 Bayerische Motoren Werke Aktiengesellschaft Müdigkeitserkennung mit Sensoren einer Datenbrille
CN104305964B (zh) * 2014-11-11 2016-05-04 东南大学 头戴式疲劳检测装置及方法
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
US20160144778A1 (en) 2014-11-24 2016-05-26 David M. Tucker Enhanced communication system for vehicle hazard lights
CN104382599B (zh) * 2014-12-05 2017-01-18 京东方科技集团股份有限公司 用于测量颈椎活动的方法、设备和可穿戴装置
FR3030384B1 (fr) * 2014-12-17 2018-05-11 Valeo Systemes Thermiques Procede de maintien de la vigilance d'un conducteur pour vehicule automobile
WO2016103468A1 (ja) * 2014-12-26 2016-06-30 横浜ゴム株式会社 衝突回避システム及び衝突回避方法
CN107438398A (zh) 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统
JP6191633B2 (ja) 2015-02-20 2017-09-06 トヨタ自動車株式会社 運転支援装置
JP6154411B2 (ja) 2015-02-27 2017-06-28 本田技研工業株式会社 車両の注意喚起装置
WO2016138348A1 (en) * 2015-02-27 2016-09-01 University Of Houston Systems and methods for medical procedure monitoring
FR3033303B1 (fr) * 2015-03-03 2017-02-24 Renault Sas Dispositif et procede de prediction d'un niveau de vigilance chez un conducteur d'un vehicule automobile.
US10173687B2 (en) 2015-03-16 2019-01-08 Wellen Sham Method for recognizing vehicle driver and determining whether driver can start vehicle
US10703211B2 (en) 2015-03-16 2020-07-07 Thunder Power New Energy Vehicle Development Company Limited Battery pack, battery charging station, and charging method
US9954260B2 (en) 2015-03-16 2018-04-24 Thunder Power New Energy Vehicle Development Company Limited Battery system with heat exchange device
KR101648017B1 (ko) * 2015-03-23 2016-08-12 현대자동차주식회사 디스플레이 장치, 차량 및 디스플레이 방법
US9679420B2 (en) 2015-04-01 2017-06-13 Smartdrive Systems, Inc. Vehicle event recording system and method
CN204515387U (zh) * 2015-04-03 2015-07-29 乐卡汽车智能科技(北京)有限公司 脑电信号采集设备和车载终端控制系统
CN104840204B (zh) * 2015-04-10 2018-01-19 京东方科技集团股份有限公司 一种疲劳驾驶监控方法及设备
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
JP6692610B2 (ja) * 2015-06-09 2020-05-13 富士通株式会社 検出プログラム、検出方法および検出装置
US20160362111A1 (en) * 2015-06-12 2016-12-15 Jaguar Land Rover Limited Driver awareness sensing and indicator control
CN104886789B (zh) * 2015-06-29 2016-08-17 京东方科技集团股份有限公司 一种包裹结构
CN107710050A (zh) 2015-06-30 2018-02-16 3M创新有限公司 照明器
CN106427570A (zh) * 2015-08-13 2017-02-22 华邦电子股份有限公司 行动载具安全装置及其安全监控方法
WO2017028895A1 (en) * 2015-08-17 2017-02-23 Polar Electro Oy Enhancing vehicle system control
WO2017031437A1 (en) * 2015-08-20 2017-02-23 Zansors Llc Neuro-vigilance integrated contact eye lens and system
US10319037B1 (en) * 2015-09-01 2019-06-11 State Farm Mutual Automobile Insurance Company Systems and methods for assessing risk based on driver gesture behaviors
CN105172599B (zh) * 2015-09-25 2018-03-06 大陆汽车电子(芜湖)有限公司 集成可穿戴设备的主动式汽车仪表系统
US9676395B2 (en) * 2015-10-30 2017-06-13 Ford Global Technologies, Llc Incapacitated driving detection and prevention
DE102015223271A1 (de) * 2015-11-25 2017-06-01 Preh Car Connect Gmbh Verfahren zum Ausgeben einer Folge von Bewegungsanweisungen
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
US9712736B2 (en) * 2015-12-15 2017-07-18 Intel Coprporation Electroencephalography (EEG) camera control
US9599986B1 (en) * 2015-12-22 2017-03-21 International Business Machines Corporation Emergency automated vehicle control system to monitor emergency medical events through body area networks
WO2017138940A1 (en) * 2016-02-11 2017-08-17 Ford Global Technologies, Llc Spatial clustering of personal devices in vehicles
US20170231545A1 (en) * 2016-02-14 2017-08-17 Earlysense Ltd. Apparatus and methods for monitoring a subject
CA3014812A1 (en) 2016-02-18 2017-08-24 Curaegis Technologies, Inc. Alertness prediction system and method
DE102016205311A1 (de) * 2016-03-31 2017-10-05 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Warnsignals und Verfahren zum Generieren eines Vorsekundenschlafmusters zum Erkennen eines drohenden Sekundenschlafs für ein Fahrzeug
WO2017182104A1 (en) * 2016-04-20 2017-10-26 Siemens Rail Automation S.A.U. Dead man's control system and method for a vehicle
US10360787B2 (en) 2016-05-05 2019-07-23 Hill-Rom Services, Inc. Discriminating patient care communications system
FR3051342B1 (fr) 2016-05-18 2018-06-22 Airbus Operations Systeme et procede d’evaluation de capacites d’action d’un individu.
JP2017220097A (ja) * 2016-06-09 2017-12-14 株式会社デンソー 運転支援装置
US20170360360A1 (en) * 2016-06-15 2017-12-21 Yousef ALQURASHI Sleep monitoring cap
JP6694649B2 (ja) * 2016-07-07 2020-05-20 国立研究開発法人産業技術総合研究所 生理状態判定装置、生理状態判定方法、生理状態判定装置用プログラムおよび、生理状態判定システム
CN107788967B (zh) * 2016-08-30 2021-07-06 华邦电子股份有限公司 疲劳检测装置与疲劳检测方法
US20180055354A1 (en) * 2016-08-31 2018-03-01 Alcohol Countermeasure Systems (International) Inc. Novel non-intrusive approach to assess drowsiness based on eye movements and blinking
DE112016007124T5 (de) * 2016-09-08 2019-05-16 Ford Motor Company Verfahren und Vorrichtungen zur Überwachung eines Aktivitätsniveaus eines Fahrers
WO2018053511A1 (en) 2016-09-19 2018-03-22 Ntt Innovation Institute, Inc. Threat scoring system and method
CN106446831B (zh) * 2016-09-24 2021-06-25 江西欧迈斯微电子有限公司 一种人脸识别方法及装置
WO2018098289A1 (en) * 2016-11-23 2018-05-31 Cognifisense, Inc. Identifying and measuring bodily states and feedback systems background
US11757857B2 (en) 2017-01-23 2023-09-12 Ntt Research, Inc. Digital credential issuing system and method
DE102017201405B4 (de) 2017-01-30 2018-12-13 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs
CN110072762B (zh) 2017-03-07 2020-03-13 大陆汽车有限责任公司 用于检测对方向盘的手动操控的装置和方法
US9904287B1 (en) * 2017-05-04 2018-02-27 Toyota Research Institute, Inc. Systems and methods for mitigating vigilance decrement while maintaining readiness using augmented reality in a vehicle
JP6874516B2 (ja) * 2017-05-11 2021-05-19 いすゞ自動車株式会社 車両の運転制御システム及び車両の運転制御方法
US11117515B2 (en) * 2017-05-19 2021-09-14 Yazaki Corporation Monitoring system
JP2020115902A (ja) * 2017-05-25 2020-08-06 パナソニックIpマネジメント株式会社 覚醒誘導制御装置および覚醒誘導システム
JP6848702B2 (ja) * 2017-06-07 2021-03-24 トヨタ自動車株式会社 覚醒支援装置および覚醒支援方法
KR20200038937A (ko) * 2017-08-08 2020-04-14 스미도모쥬기가이고교 가부시키가이샤 쇼벨, 쇼벨의 지원장치, 및 쇼벨의 관리장치
CN107248263A (zh) 2017-08-08 2017-10-13 京东方科技集团股份有限公司 一种疲劳驾驶检测系统
US10635101B2 (en) 2017-08-21 2020-04-28 Honda Motor Co., Ltd. Methods and systems for preventing an autonomous vehicle from transitioning from an autonomous driving mode to a manual driving mode based on a risk model
WO2019040675A1 (en) * 2017-08-23 2019-02-28 Ntt Innovation Institute, Inc. SYSTEM AND METHOD FOR ANALYZING RACE DATA USING TELEMETRY DATA AND DETECTION SENSOR DATA
JP6804416B2 (ja) * 2017-09-25 2020-12-23 矢崎総業株式会社 監視システム
EP4064769A1 (de) * 2017-11-15 2022-09-28 Sony Group Corporation Endgerät, infrastrukturausrüstung und verfahren
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment
CN107985199B (zh) * 2017-12-29 2023-04-07 吉林大学 一种客车驾驶员工作状态检测与疲劳警示系统及方法
KR20190088783A (ko) * 2018-01-19 2019-07-29 주식회사 마에스트로 사용자의 피로도를 측정하는 장치 및 방법
US10717443B2 (en) * 2018-01-22 2020-07-21 Rivian Ip Holdings, Llc Occupant awareness monitoring for autonomous vehicles
JP7141681B2 (ja) * 2018-01-29 2022-09-26 株式会社Agama-X 情報処理装置、情報処理システム及びプログラム
CN112041910B (zh) * 2018-03-30 2023-08-18 索尼半导体解决方案公司 信息处理装置、移动设备、方法和程序
US11372893B2 (en) 2018-06-01 2022-06-28 Ntt Security Holdings Corporation Ensemble-based data curation pipeline for efficient label propagation
CN109035960A (zh) * 2018-06-15 2018-12-18 吉林大学 基于模拟驾驶平台的驾驶员驾驶模式分析系统及分析方法
US10657398B2 (en) * 2018-06-26 2020-05-19 David Johnson Sleepy driver alert system and method
EP3815069A4 (de) * 2018-06-28 2022-03-23 3M Innovative Properties Company Benachrichtigungsbereitstellung für arbeiter, die eine persönliche schutzausrüstung tragen
US10611384B1 (en) * 2018-07-27 2020-04-07 Uatc, Llc Systems and methods for autonomous vehicle operator vigilance management
CN108937923A (zh) * 2018-08-02 2018-12-07 扬州市紫麓信息技术有限公司 一种基于脑电信号、眼电信号和肌电信号的疲劳驾驶监测系统
DE102018215674A1 (de) * 2018-09-14 2020-03-19 Continental Automotive Gmbh Verfahren zur Reduzierung der Aufstartzeit, Fahrzeug, Computerprogramm und Datenträgersignal
DE112019005224T5 (de) * 2018-10-19 2021-07-08 Denso Corporation Störungsgradberechnungssystem und Fahrführungssystem
US11807227B2 (en) * 2018-11-02 2023-11-07 Intel Corporation Methods and apparatus to generate vehicle warnings
EP3887192B1 (de) 2018-11-28 2023-06-07 Neonode Inc. Benutzerschnittstellensensor für fahrzeugführer
CA3123216A1 (en) 2018-12-11 2020-06-18 Ess-Help, Inc. Enhanced operation of vehicle hazard and lighting communication systems
CN109646024A (zh) * 2019-01-09 2019-04-19 浙江强脑科技有限公司 疲劳驾驶检测方法、装置及计算机可读存储介质
US11590887B2 (en) 2019-03-15 2023-02-28 Ess-Help, Inc. Control of high visibility vehicle light communication systems
WO2020190889A1 (en) * 2019-03-15 2020-09-24 Ess-Help, Inc. Control of high visibility vehicle light communication systems
US11518298B2 (en) 2019-03-15 2022-12-06 ESS-Help, lnc. High visibility lighting for autonomous vehicles
JP2020162016A (ja) * 2019-03-27 2020-10-01 ソニー株式会社 状態検出装置、状態検出システム及び状態検出方法
KR102452526B1 (ko) 2019-03-28 2022-10-06 이에스에스-헬프, 아이엔씨. 원격 차량 위험 및 통신 비콘
US11252185B2 (en) 2019-03-28 2022-02-15 NTT Security Corporation Graph stream mining pipeline for efficient subgraph detection
WO2020204809A1 (en) * 2019-03-29 2020-10-08 Agency For Science, Technology And Research Classifying signals for movement control of an autonomous vehicle
EP3730331B1 (de) * 2019-04-26 2023-03-08 Zenuity AB Verfahren und vorrichtung zum steuern einer fahrerunterstützung
TWI749323B (zh) * 2019-04-30 2021-12-11 先進光電科技股份有限公司 行動載具輔助系統
EP3744253A1 (de) * 2019-05-28 2020-12-02 Kubatronik Leiterplatten GmbH Prüfvorrichtung zum prüfen des zustands eines benutzers einer vorrichtung und transportvorrichtung mit solch einer prüfvorrichtung
US11571155B2 (en) * 2019-06-06 2023-02-07 Honda Motor Co., Ltd. System and method for completing a measurement of anxiety
KR20210013924A (ko) * 2019-07-29 2021-02-08 현대자동차주식회사 운전자 모니터링 장치 및 방법
CN110525444B (zh) * 2019-08-20 2022-05-10 浙江吉利汽车研究院有限公司 一种针对驾驶员身体异常状况的处理方法及装置
US11826146B2 (en) * 2019-10-10 2023-11-28 Waymo Llc Psychomotor vigilance testing for persons tasked with monitoring autonomous vehicles
CN110606214A (zh) * 2019-10-28 2019-12-24 航宇救生装备有限公司 一种飞行员智能防护系统架构
GB2589337A (en) * 2019-11-27 2021-06-02 Continental Automotive Gmbh Method of determining fused sensor measurement and vehicle safety system using the fused sensor measurement
US11200407B2 (en) * 2019-12-02 2021-12-14 Motorola Solutions, Inc. Smart badge, and method, system and computer program product for badge detection and compliance
JP7351253B2 (ja) * 2020-03-31 2023-09-27 いすゞ自動車株式会社 許否決定装置
US11033214B1 (en) * 2020-05-19 2021-06-15 United Arab Emirates University Wearable eye tracking system
US11070454B1 (en) 2020-06-22 2021-07-20 Bank Of America Corporation System for routing functionality packets based on monitoring real-time indicators
DE102020210325B4 (de) 2020-08-13 2024-02-08 Volkswagen Aktiengesellschaft Vorrichtung zur Linderung von Symptomen der Willis-Ekbom-Krankheit in einem Kraftfahrzeug, Kraftfahrzeug und Computerprogrammprodukt
WO2022072656A1 (en) * 2020-09-30 2022-04-07 Joyson Safety Systems Acquisition Llc Force sensing seat belt sensor assembly
US11845441B2 (en) * 2020-11-02 2023-12-19 Imam Abdulrahman Bin Faisal University Speed based hands-on alarm system for a steering wheel
CN113616191A (zh) * 2021-06-30 2021-11-09 展讯半导体(南京)有限公司 基于智能头盔的生命体征监测方法、系统、头盔及介质
US11667303B2 (en) * 2021-11-02 2023-06-06 Robert Bosch Gmbh Hands-off detection for autonomous and partially autonomous vehicles
CN116211310A (zh) * 2023-05-09 2023-06-06 中国第一汽车股份有限公司 一种肌电传感器和一种肌电传感器的检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465079A (en) 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
US5585785A (en) 1995-03-03 1996-12-17 Gwin; Ronnie Driver alarm
EP0773504A1 (de) 1995-11-08 1997-05-14 Oxford Medical Limited Verbesserungen in Bezug auf physiologische Überwachung
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5813993A (en) 1996-04-05 1998-09-29 Consolidated Research Of Richmond, Inc. Alertness and drowsiness detection and tracking system
US5846206A (en) 1994-06-07 1998-12-08 Biosys Ab Method and apparatus for monitoring and estimating the awakeness of a person

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3953831A (en) 1973-07-09 1976-04-27 Estrada Richard J Alarm system for use with cigarette lighter receptacle of vehicle
US3918176A (en) * 1974-05-22 1975-11-11 Us Transport Visual divided attention alcohol safety interlock system
US4259665A (en) * 1979-05-29 1981-03-31 Rmr Systems, Inc. Driver sleep or fatigue alarm
JPS6015240A (ja) * 1983-07-04 1985-01-25 Nippon Soken Inc シートベルト装置
US4706072A (en) * 1983-11-30 1987-11-10 Aisin Seiki Kabushiki Kaisha Human condition monitoring and security controlling apparatus on a road-vehicle
US4660528A (en) * 1986-03-17 1987-04-28 Gene Buck Apparatus for remote termination of the operation of a selected motor vehicle
JPH0779803B2 (ja) * 1987-12-09 1995-08-30 日本電装株式会社 居眠り検出装置
AU632932B2 (en) 1990-06-26 1993-01-14 Compumedics Limited Analysis system for physiological variables
JP3369201B2 (ja) 1991-10-02 2003-01-20 マツダ株式会社 覚醒度維持装置
US5289824A (en) * 1991-12-26 1994-03-01 Instromedix, Inc. Wrist-worn ECG monitor
JP3269153B2 (ja) * 1993-01-06 2002-03-25 三菱自動車工業株式会社 覚醒度判定装置
JPH06197888A (ja) * 1993-01-06 1994-07-19 Mitsubishi Motors Corp 車両用居眠り警報装置
JP2639619B2 (ja) 1993-09-13 1997-08-13 月星化成株式会社 防滑性靴底
GB9323970D0 (en) 1993-11-22 1994-01-12 Toad Innovations Ltd Safety device
US5595488A (en) * 1994-08-04 1997-01-21 Vigilant Ltd. Apparatus and method for monitoring and improving the alertness of a subject
US5691693A (en) * 1995-09-28 1997-11-25 Advanced Safety Concepts, Inc. Impaired transportation vehicle operator system
JP3011358B2 (ja) * 1994-11-16 2000-02-21 パイオニア株式会社 心拍測定装置
JP3512493B2 (ja) 1994-11-16 2004-03-29 パイオニア株式会社 運転精神状態検出装置
US5682882A (en) * 1995-04-28 1997-11-04 Lieberman; Harris R. Vigilance monitor system
EP1433417B1 (de) * 1995-05-12 2007-12-05 Seiko Epson Corporation Gerät zur Kontrolle eines physiologischen Zustands
RU2107460C1 (ru) * 1996-05-28 1998-03-27 Акционерное общество закрытого типа "Нейроком" Способ регистрации кожно-гальванических реакций и устройство для его осуществления
JP3183161B2 (ja) * 1996-04-12 2001-07-03 三菱自動車工業株式会社 覚醒度推定装置
US6265978B1 (en) * 1996-07-14 2001-07-24 Atlas Researches, Ltd. Method and apparatus for monitoring states of consciousness, drowsiness, distress, and performance
IL118854A0 (en) * 1996-07-15 1996-10-31 Atlas Dan Personal micro-monitoring and alerting device for sleepiness
US5835868A (en) * 1996-08-30 1998-11-10 Mcelroy; Alejandro S. Automated system for immobilizing a vehicle and method
US6070098A (en) * 1997-01-11 2000-05-30 Circadian Technologies, Inc. Method of and apparatus for evaluation and mitigation of microsleep events
US5942979A (en) * 1997-04-07 1999-08-24 Luppino; Richard On guard vehicle safety warning system
US6154123A (en) * 1997-09-05 2000-11-28 Breed Automotive Technology, Inc. Driver alertness monitoring system
DE19801009C1 (de) * 1998-01-14 1999-04-22 Daimler Chrysler Ag Verfahren und Vorrichtung zum Abbremsen eines Fahrzeugs
US6218947B1 (en) * 2000-05-23 2001-04-17 Ronald L. Sutherland Driver sleep alarm

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465079A (en) 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
US5846206A (en) 1994-06-07 1998-12-08 Biosys Ab Method and apparatus for monitoring and estimating the awakeness of a person
US5585785A (en) 1995-03-03 1996-12-17 Gwin; Ronnie Driver alarm
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
EP0773504A1 (de) 1995-11-08 1997-05-14 Oxford Medical Limited Verbesserungen in Bezug auf physiologische Überwachung
US5813993A (en) 1996-04-05 1998-09-29 Consolidated Research Of Richmond, Inc. Alertness and drowsiness detection and tracking system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018113488B4 (de) 2017-06-08 2023-02-02 Toyota Jidosha Kabushiki Kaisha Fahrbewusstseinsabschätzvorrichtung
DE102018217692B4 (de) 2017-10-24 2023-05-04 Lear Corporation Schläfrigkeitserfassungssystem
DE102019212412A1 (de) * 2019-08-20 2021-02-25 Zf Friedrichshafen Ag Überwachungsvorrichtung und Verfahren zur Überwachung eines Lebewesens im Innenraum eines Fahrzeugs und Computerprogramm
DE102021101208A1 (de) 2021-01-21 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem sowie Kraftfahrzeug mit einem Fahrerassistenzsystem
DE102022210376B3 (de) 2022-09-30 2023-12-07 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung an einen eine Kontaktlinse auf einem Auge tragenden Nutzer eines Kraftfahrzeugs

Also Published As

Publication number Publication date
US6575902B1 (en) 2003-06-10
DE19983911T5 (de) 2013-01-31
US8096946B2 (en) 2012-01-17
WO2000044580A8 (en) 2000-09-28
WO2000044580A1 (en) 2000-08-03
AU2271000A (en) 2000-08-18
US20040044293A1 (en) 2004-03-04
AU767533B2 (en) 2003-11-13
US20150088397A1 (en) 2015-03-26
US20120179008A1 (en) 2012-07-12

Similar Documents

Publication Publication Date Title
DE19983911B4 (de) Wachsamkeitsüberwachungssystem
DE102018217692B4 (de) Schläfrigkeitserfassungssystem
DE102019201695A1 (de) Biometriksensorfusion für die Klassifizierung des Zustands eines Fahrzeuginsassen
DE102012002037B4 (de) Vorrichtung zur Durchführung von Fahrerzustandsanalysen
DE102019200412A1 (de) Sitzsystem mit einer Erfassung und Stimulation eines Insassen
DE102018220286A1 (de) Ablenkungserfassungssystem
EP2316340B1 (de) Signalerfassungsvorrichtung zur Erfassung eines Differenzsignals für eine elektrische Messung eines Vitalparameters eines Lebewesens und Verfahren
DE202012001096U1 (de) Vorrichtung zur Durchführung von Fahrerzustandsanalysen
WO2002096694A1 (de) Verfahren und vorrichtung zur charakterisierung des zustandes des fahrers eines kraftfahrzeuges
US20200241525A1 (en) Computer-based apparatus system for assessing, predicting, correcting, recovering, and reducing risk arising from an operator?s deficient situation awareness
EP2909827A1 (de) Verfahren und unterstützungssystem zum unterstützen eines fahrers eines kraftfahrzeuges sowie messverfahren und messsystem zum bestimmen eines mentalen zustandes eines fahrers eines kraftfahrzeuges
DE112018002426T5 (de) Fahrzeugantriebssteuerungssystem und fahrzeugantriebs-steuerungsverfahren
DE102014113116A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Unachtsamkeit eines Fahrers
DE102020202388A1 (de) Verfahren zum Einstellen einer Signalvorrichtung zur Ausgabe von Signalen an einen Fahrer und ein System
DE102020127613A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Fahrer-Erfahrungs-Fahrmodells mittels Fehlerüberwachung
DE102021108656A1 (de) Sicherheitssystem eines Fahrzeugs
DE102020206972A1 (de) System zum Erkennen und Beeinflussen eines Schlaganfalls eines Fahrzeuginsassen
DE102019208970A1 (de) Steuergerät zum Einsatz in einem Kraftfahrzeug
DE19545392B4 (de) Verfahren und Vorrichtung zum Schalten und/oder Steuern, insbesondere eines Rechners
DE102018206237A1 (de) Verfahren und Vorrichtung zur Müdigkeitserkennung einer Person
DE102020212928A1 (de) Vorrichtung und verfahren zur steuerung einer notfahrsituation mithilfe von gehirnwellen
DE102019215691A1 (de) Verfahren und Vorrichtung zur Zustandserkennung eines Fahrzeuginsassen
DE102008051388A1 (de) Vorrichtung zur Aufmerksamkeitsbeurteilung eines Fahrers, insbesondere zur Erkennung eines Sekundenschlafs des Fahrers
DE102019208992A1 (de) Steuergerät zum Einsatz in einem Kraftfahrzeug
DE102019208979A1 (de) Steuergerät zum Einsatz in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R016 Response to examination communication
R082 Change of representative

Representative=s name: LOESCH, CHRISTOPH, DIPL.-WIRTSCH.-ING., DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R071 Expiry of right