DE102020215667A1 - System und verfahren zum überwachen eines kognitiven zustands eines fahrers eines fahrzeugs - Google Patents

System und verfahren zum überwachen eines kognitiven zustands eines fahrers eines fahrzeugs Download PDF

Info

Publication number
DE102020215667A1
DE102020215667A1 DE102020215667.0A DE102020215667A DE102020215667A1 DE 102020215667 A1 DE102020215667 A1 DE 102020215667A1 DE 102020215667 A DE102020215667 A DE 102020215667A DE 102020215667 A1 DE102020215667 A1 DE 102020215667A1
Authority
DE
Germany
Prior art keywords
helmet
driver
vehicle
cognitive load
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020215667.0A
Other languages
English (en)
Inventor
Liu Ren
Shabnam Ghaffarzadegan
Zeng Dai
Benzun Pious Wisely Babu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102020215667A1 publication Critical patent/DE102020215667A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/30Mounting radio sets or communication systems
    • A42B3/303Communication between riders or passengers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • A42B3/046Means for detecting hazards or accidents
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/30Mounting radio sets or communication systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0006ECG or EEG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/082Evaluation by breath analysis, e.g. determination of the chemical composition of exhaled breath
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4845Toxicology, e.g. by detection of alcohol, drug or toxic products
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J27/00Safety equipment
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/24Drug level, e.g. alcohol
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/20Cycle computers as cycle accessories
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3866Transceivers carried on the body, e.g. in helmets carried on the head

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Psychology (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Toxicology (AREA)

Abstract

Ein Helm beinhaltet einen oder mehrere Sensoren, die sich in dem Helm befinden und ausgelegt sind zum Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers eines Fahrzeugs angeben, einen drahtlosen Sendeempfänger in Kommunikation mit dem Fahrzeug, eine Steuerung in Kommunikation mit dem einen oder den mehreren Sensoren und dem drahtlosen Sendeempfänger, wobei die Steuerung ausgelegt ist zum Bestimmen einer kognitiven Belastung des Passagiers unter Verwendung zumindest der kognitiven Belastungsdaten und Senden eines drahtlosen Befehls zu dem Fahrzeug unter Verwendung des drahtlosen Sendeempfängers, um Befehle zum Anpassen einer Fahrerassistenzfunktion auszuführen, wenn die kognitive Belastung über einer Schwelle liegt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft intelligente Helme bei Fahrzeugen mit Sattelsitz.
  • HINTERGRUND
  • Ermüdung aufgrund alltäglicher Bedingungen, wie etwa unzureichend Schlaf, langanhaltende mentale oder physische Arbeit, Schichtarbeit, längere Zeiträume unter Stress oder Besorgnis usw., kann bewirken, dass sich ein Fahrer müde, matt oder schläfrig fühlt. Ermüdung kann die Konzentration und das Leistungsniveau eines Fahrers beeinflussen. Ermüdung kann sogar Unfälle während des Fahrzeugbetriebs verursachen, einschließlich jene bei Fahrern eines zweirädrigen Fahrzeugs, bei denen die volle Aufmerksamkeit des Fahrers zu allen Zeiten unerlässlich sein kann.
  • Es stehen auf dem Markt mehrere Vorrichtungen in der Form von am Kopf oder am Handgelenk getragenen Geräten zur Verfügung, um die Ermüdung eines Autofahrers zu überwachen. Diese Vorrichtungen verwenden Bewegungssensoren, EEG, Augenlidbewegungssensoren und andere Sensoren, um die Wachsamkeit des Fahrers, hauptsächlich für Autofahrer oder Industriearbeiter, zu detektieren. Es gibt jedoch keine Vorrichtung, die spezifisch Fahrer eines zweirädrigen Fahrzeugs anzielt.
  • KURZFASSUNG
  • Gemäß einer Ausführungsform beinhaltet ein Helm einen oder mehrere Sensoren, die sich in dem Helm befinden und ausgelegt sind zum Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers eines Fahrzeugs angeben, einen drahtlosen Sendeempfänger in Kommunikation mit dem Fahrzeug, eine Steuerung in Kommunikation mit dem einen oder den mehreren Sensoren und dem drahtlosen Sendeempfänger, wobei die Steuerung ausgelegt ist zum Bestimmen einer kognitiven Belastung des Passagiers unter Verwendung zumindest der kognitiven Belastungsdaten und Senden eines drahtlosen Befehls zu dem Fahrzeug unter Verwendung des drahtlosen Sendeempfängers, um Befehle zum Anpassen einer Fahrerassistenzfunktion auszuführen, wenn die kognitive Belastung über einer Schwelle liegt.
  • Gemäß einer Ausführungsform beinhaltet ein Helm einen oder mehrere Sensoren, die sich in dem Helm befinden und ausgelegt sind zum Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers eines Fahrzeugs mit Sattelsitz angeben, einen drahtlosen Sendeempfänger in Kommunikation mit dem Fahrzeug, eine Steuerung in Kommunikation mit dem einen oder den mehreren Sensoren und dem drahtlosen Sendeempfänger, wobei die Steuerung ausgelegt ist zum Bestimmen einer kognitiven Belastung des Passagiers unter Verwendung zumindest der kognitiven Belastungsdaten und Senden eines Befehls zu dem Fahrzeug, um Befehle zum Anpassen einer Fahrerassistenzfunktion auszuführen, wenn die kognitive Belastung über einer ersten Schwelle liegt.
  • Gemäß einer Ausführungsform beinhaltet ein Verfahren zum Überwachen eines einen Helm tragenden Fahrers auf einem Fahrzeug mit Sattelsitz Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers des Fahrzeugs mit Sattelsitz angeben, Kommunizieren von Informationen mit einem Fernserver und dem Fahrzeug mit Sattelsitz, Bestimmen einer kognitiven Belastung des Fahrers unter Verwendung zumindest der kognitiven Belastungsdaten, und Ausführen von Befehlen, die zu dem Fahrzeug mit Sattelsitz zu senden sind, um eine Fahrerassistenzfunktion des Fahrzeugs mit Sattelsitz anzupassen, wenn die kognitive Belastung über einer Schwelle liegt.
  • Figurenliste
    • 1 ist ein Beispiel eines Systemdesigns 100, das einen Smart-Helm 101 und ein Motorrad 103 beinhaltet.
    • 2 ist ein Beispiel eines Systems, das einen Smart-Helm beinhaltet, der eine kognitive Belastung identifizieren kann.
    • 3 ist ein beispielhaftes Flussdiagramm 300 zum Identifizieren einer kognitiven Belastung eines Fahrers eines Fahrzeugs mit Sattelsitz.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Offenbarung werden hier beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht notwendigerweise maßstabsgetreu; manche Merkmale könnten übertrieben oder minimiert sein, um Einzelheiten spezieller Komponenten zu zeigen. Die hier offenbarten speziellen strukturellen und funktionalen Details sind daher nicht als beschränkend aufzufassen, sondern lediglich als eine repräsentative Basis, um einem Fachmann zu lehren, die Ausführungsformen verschiedentlich einzusetzen. Durchschnittsfachleute auf dem Gebiet werden verstehen, dass verschiedene unter Bezugnahme auf irgendeine der Figuren veranschaulichte und beschriebene Merkmale mit in einer oder mehreren anderen Figuren veranschaulichten Merkmalen kombiniert werden können, um Ausführungsformen zu produzieren, die nicht explizit veranschaulicht oder beschrieben sind. Die Kombinationen von veranschaulichten Merkmalen stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Verschiedene Kombinationen und Modifikationen der mit den Lehren dieser Offenbarung konsistenten Merkmale könnten jedoch für spezielle Anwendungen oder Implementierungen erwünscht sein.
  • Diese Offenbarung nimmt Bezug auf Helme und Fahrzeuge mit Sattelsitz. Es sollte verstanden werden, dass sich ein „Fahrzeug mit Sattelsitz“ typischerweise auf ein Motorrad bezieht, aber einen beliebigen Typ von Kraftfahrzeug einschließen kann, bei dem der Fahrer typischerweise auf einem Sattel sitzt und bei dem typischerweise Helme getragen werden, da es keinen Fahrgastraum zum Schutz der Fahrer gibt. Außer einem Motorrad kann dies auch andere angetriebene zweirädrige (PTW: Powered Two-Wheeler) Fahrzeuge wie etwa Geländemotorräder, Motorroller und dergleichen beinhalten. Dies kann auch angetriebene dreirädrige oder vierrädrige Fahrzeuge wie etwa ein Geländefahrzeug (ATV: All-Terrain Vehicle) und dergleichen beinhalten. Jegliche Bezüge spezifisch auf ein Motorrad, Fahrzeug oder Fahrrad können auch für ein beliebiges anderes Fahrzeug mit Sattelsitz gelten, insofern nicht anders angemerkt.
  • Der Helm oder das PTW kann auch eine elektrische Steuereinheit (ECU) beinhalten. Die ECU kann allgemeiner als eine Steuerung bezeichnet werden und kann eine beliebige Steuerung sein, die beispielsweise in der Lage ist, Informationen von verschiedenen Sensoren zu empfangen, die Informationen zu verarbeiten und Anweisungen zum Anpassen von Fahrassistenzfunktionen auszugeben. In dieser Offenbarung können sich die Begriffe „Steuerung“ und „System“ auf Prozessorhardware (gemeinsam genutzt, dediziert oder Gruppe), die Code ausführt, und Speicherhardware (gemeinsam genutzt, dediziert oder Gruppe) beziehen, die durch die Prozessorhardware ausgeführten Code speichert, Teil davon sein oder diese beinhalten. Der Code ist konfiguriert zum Bereitstellen der Merkmale der hierin beschriebenen Steuerung und Systeme. In einem Beispiel kann die Steuerung einen Prozessor, einen Speicher und eine nichtflüchtige Speicherung beinhalten. Der Prozessor kann eine oder mehrere Vorrichtungen beinhalten, die aus Mikroprozessoren, Mikrocontrollern, Digitalsignalprozessoren, Mikrocomputern, Zentralverarbeitungseinheiten, feldprogrammierbaren Gate-Arrays, programmierbaren Logikvorrichtungen, Zustandsmaschinen, Logikschaltungen, analogen Schaltungen, digitalen Schaltungen oder beliebigen anderen Vorrichtungen ausgewählt sind, die (analoge oder digitale) Signale basierend auf computerausführbaren Anweisungen manipulieren, die sich in dem Speicher befinden. Der Speicher kann eine einzige Speichervorrichtung oder mehrere Speichervorrichtungen beinhalten, die unter anderem Direktzugriffsspeicher („RAM“), flüchtigen Speicher, nichtflüchtigen Speicher, statischen Direktzugriffsspeicher („SRAM“), dynamischen Direktzugriffsspeicher („DRAM“), Flash-Speicher, Cache-Speicher oder eine beliebige andere Vorrichtung, die zum Speichern von Informationen in der Lage ist, beinhalten. Die nichtflüchtige Speicherung kann eine oder mehrere beständige Datenspeicherungsvorrichtungen beinhalten, wie etwa eine Festplatte, ein optisches Laufwerk, ein Bandlaufwerk, eine nichtflüchtige Solid-State-Vorrichtung oder eine beliebige andere Vorrichtung, die zum beständigen Speichern von Informationen in der Lage ist. Der Prozessor kann ausgelegt sein zum Lesen in den Speicher und Ausführen von computerausführbaren Anweisungen, die ein oder mehrere Softwareprogramme verkörpern, die sich in der nichtflüchtigen Speicherung befinden. Programme, die sich in der nichtflüchtigen Speicherung befinden, können ein Betriebssystem oder eine Anwendung beinhalten oder Teil davon sein und können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -technologien erschaffen wurden, einschließlich unter anderem, und entweder allein oder in Kombination, Java, C, C++, C#, Objective-C, Fortran, Pascal, Java Script, Python, Perl und PL/SQL. Die computerausführbaren Anweisungen der Programme können bei Ausführung durch den Prozessor ausgelegt sein, eine Aktivierung von Fahrerassistenzfunktionen zu bewirken, wenn zum Beispiel eine kognitive Schwelle überschritten ist.
  • Implementierungen des Gegenstands und der in dieser Patentschrift beschriebenen Operationen können in einer digitalen elektronischen Schaltungsanordnung oder in Computersoftware, die auf einem greifbaren Medium verkörpert ist, Firmware oder Hardware implementiert werden, einschließlich der in dieser Patentschrift offenbarten Strukturen und ihrer strukturellen Äquivalente, oder in Kombinationen einer oder mehrerer von diesen. Implementierungen des in dieser Patentschrift beschriebenen Gegenstands können als ein oder mehrere Computerprogramme, die auf einem greifbaren Medium verkörpert sind, implementiert werden, d. h. ein oder mehrere Module von Computerprogrammanweisungen, die auf einem oder mehreren Computerspeicherungsmedien codiert sind, zur Ausführung durch eine oder zur Steuerung des Betriebs einer Datenverarbeitungseinrichtung. Ein Computerspeicherungsmedium kann eine computerlesbare Speicherungsvorrichtung, ein computerlesbares Speicherungssubstrat, ein/e Direkt- oder Seriell-Zugriffsspeicherarray oder -vorrichtung oder eine Kombination eines oder mehrerer von diesen sein oder in diesen enthalten sein. Das Computerspeicherungsmedium kann auch eine oder mehrere separate Komponenten oder Medien (z. B. mehrere CDs, Platten oder andere Speicherungsvorrichtungen) sein oder in diesen enthalten sein. Das Computerspeicherungsmedium kann greifbar und nichttransitorisch sein.
  • Ein Computerprogramm (auch als Programm, Software, Softwareanwendung, Script oder Code bekannt) kann in einer beliebigen Form von Programmiersprache geschrieben sein, einschließlich kompilierten Sprachen, interpretierten Sprachen, deklarativen Sprachen und prozeduralen Sprachen, und das Computerprogramm kann in einer beliebigen Form eingesetzt werden, einschließlich als ein unabhängiges Programm oder als ein Modul, eine Komponente, eine Subroutine, ein Objekt oder eine andere Einheit, die sich zur Verwendung in einer Rechenumgebung eignet. Ein Computerprogramm kann, muss aber nicht, einer Datei in einem Dateisystem entsprechen. Ein Programm kann in einem Teil einer Datei, der andere Programme oder Daten hält (z. B. ein oder mehrere Scripts, die in einem Markup-Sprache-Dokument gespeichert sind), in einer einzelnen Datei, die dem Programm in Frage dediziert ist, oder in mehreren koordinierten Dateien (z. B. Dateien, die ein/e oder mehrere Module, Bibliotheken, Teilprogramme oder Teile von Code speichern) gespeichert sein. Ein Computerprogramm kann so eingesetzt werden, dass es auf einem Computer oder auf mehreren Computern ausgeführt wird, die sich an einem Ort befinden oder über mehrere Orte verteilt und durch ein Kommunikationsnetzwerk miteinander verbunden sind.
  • Die in dieser Patentschrift beschriebenen Prozesse und Logikflüsse können durch einen oder mehrere programmierbare Prozessoren durchgeführt werden, die ein oder mehrere Computerprogramme ausführen, um Handlungen durch Operieren an Eingabedaten und Erzeugen einer Ausgabe durchzuführen. Die Prozesse und Logikflüsse können auch durch eine Spezialzweck-Logikschaltungsanordnung, z. B. ein feldprogrammierbares Gate-Array („FPGA“) oder eine anwendungsspezifische integrierte Schaltung („ASIC“), durchgeführt werden und eine Einrichtung kann als diese implementiert werden. Eine solche Spezialzweckschaltung kann als ein Computerprozessor bezeichnet werden, selbst wenn sie kein Allzweckprozessor ist.
  • Ein Smart-Helm kann ein Merkmal zum Identifizieren und Bestimmen eines kognitiven Zustands einschließlich Ermüdung beinhalten. Zusätzlich kann der Smart-Helm Identifizierungsmerkmale für Alkoholkonsum beinhalten. Die nachstehend beschriebenen Ausführungsformen können Gehirnwellen und andere physiologische Signale, Fahrmuster, Tageszeit, Zweck der Fahrt, Umgebungsbedingungen usw. messen. Ein Sensor kann am Helm genutzt werden, um direkt mit einem Schädel des Fahrers verbunden zu werden, um Gehirnwellen und andere Messungen leicht zu verfolgen. Solche Eingaben können fusioniert werden, um den kognitiven Zustand des Fahrers zu identifizieren und gewisse Sicherheitsmerkmale des Fahrzeugs (z. B. Motorrads) auszulösen.
  • 1 ist ein Beispiel eines Systemdesigns 100, das einen Smart-Helm 101 und ein Motorrad 103 beinhaltet. Der Smart-Helm 101 und das Motorrad 103 können verschiedene miteinander interagierende Komponenten und Sensoren beinhalten. Der Smart-Helm 101 kann sich auf das Sammeln von Daten bezüglich der Körper- und Kopfbewegung eines Fahrers konzentrieren. In einem Beispiel kann der Smart-Helm 101 eine Kamera 102 beinhalten. Die Kamera 102 des Helms 101 kann einen Primärsensor beinhalten, der zur Positions- und Orientierungserkennung von sich bewegenden Fahrzeugen genutzt wird. Somit kann die Kamera 102 zur Außenseite des Helms 101 ausgerichtet sein, um andere Fahrzeuge und Objekte im Umfeld eines Fahrers zu verfolgen. Die Kamera 102 kann Schwierigkeiten haben, Dynamiken solcher Objekte und Fahrzeuge zu erfassen. In einem anderen Beispiel kann der Helm 101 zusätzlich zu oder anstelle der Kamera 102 mit Radar- oder LIDAR-Sensoren ausgestattet sein.
  • Der Helm 101 kann auch eine inertiale Helm-Messeinheit 104 (Helm-IMU) beinhalten. Die Helm-IMU 104 kann zum Verfolgen einer hochdynamischen Bewegung des Kopfes eines Fahrers genutzt werden. Somit kann die Helm-IMU 104 zum Verfolgen der Richtung, in die ein Fahrer schaut, oder der Fahrerblickrichtung genutzt werden. Zusätzlich kann die Helm-IMU 104 zum Verfolgen plötzlicher Bewegungen und anderer auftretender Bewegungen genutzt werden. Eine IMU kann einen oder mehrere Bewegungssensoren beinhalten.
  • Eine inertiale Messeinheit (IMU) kann eine spezifische Kraft des Körpers, eine Winkelrate und manchmal das Erdmagnetfeld unter Verwendung einer Kombination von Beschleunigungsmessern und Gyroskopen, manchmal auch Magnetometern, messen und melden. IMUs werden typischerweise zum Manövrieren eines Flugzeugs, einschließlich unter anderem unbemannten Luftfahrzeugen (UAVs), und eines Raumfahrzeugs, einschließlich Satelliten und Landefahrzeugen, verwendet. Die IMU kann als eine Komponente von inertialen Navigationssystemen genutzt werden, die in verschiedenen Fahrzeugsystemen verwendet werden. Die von den Sensoren der IMU gesammelten Daten können einem Computer ermöglichen, eine Motorposition zu verfolgen.
  • Eine IMU kann durch das Detektieren der aktuellen Beschleunigungsrate unter Verwendung einer oder mehrerer Achsen funktionieren und Änderungen von Drehattributen wie Nicken, Rollen und Gieren unter Verwendung einer oder mehrerer Achsen detektieren. Typischerweise beinhaltet eine IMU auch ein Magnetometer, das zur Unterstützung der Kalibration gegenüber Orientierungsdrift durch Verwenden der Messungen des Erdmagnetfeldes verwendet werden kann. Inertiale Navigationssysteme enthalten IMUs, die Winkel- und Linear-Beschleunigungsmesser (für Positionsänderungen) aufweisen; manche IMUs beinhalten ein Gyroskopelement (zum Beibehalten einer absoluten Winkelreferenz). Winkelratenmesser messen, wie sich ein Fahrzeug im Raum drehen kann. Es kann mindestens einen Sensor für jede der drei Achsen geben: Nicken (Nase auf und ab), Gieren (Nase links und rechts) und Rollen (im Uhrzeigersinn oder gegen den Uhrzeigersinn vom Cockpit). Linear-Beschleunigungsmesser können nicht-gravitative Beschleunigungen des Fahrzeugs messen. Da er sich in drei Achsen bewegen kann (auf & ab, links & rechts, vorwärts & rückwärts), kann es einen Linear-Beschleunigungsmesser für jede Achse geben. Die drei Gyroskope sind üblicherweise in einem ähnlichen orthogonalen Muster angeordnet und messen die Rotationsposition in Bezug auf ein beliebig gewähltes Koordinatensystem. Ein Computer kann die aktuelle Position des Fahrzeugs kontinuierlich berechnen. Für jeden der sechs Freiheitsgrade (x, y, z und Ox, Oy und Oz) kann er die erfasste Beschleunigung, zusammen mit einer Schätzung der Schwerkraft, nach der Zeit integrieren, um die aktuelle Geschwindigkeit zu berechnen. Er kann auch die Geschwindigkeit integrieren, um die aktuelle Position zu berechnen. Manche der durch eine IMU bereitgestellten Messungen sind nachstehend aufgelistet: a ^ B = R B W ( a w g w ) + b a + η a
    Figure DE102020215667A1_0001
    ω ^ B = ω B + b g + η g
    Figure DE102020215667A1_0002
    (âB, (ω̂B) sind die Rohmessungen von der IMU im Körperrahmen der IMU. aw, ωB sind die erwartete korrekte Beschleunigung und die Gyroskopratenmessungen. ba, bg sind die Bias-Offsets im Beschleunigungsmesser und im Gyroskop. ηa, ηg sind das Rauschen im Beschleunigungsmesser und im Gyroskop.
  • Der Helm 101 kann auch einen Augen-Tracker 106 beinhalten. Der Augen-Tracker 106 kann zum Bestimmen einer Richtung, in die ein Fahrer des Motorrads 103 schaut, genutzt werden. Der Augen-Tracker 106 kann auch zum Identifizieren von Schläfrigkeit und Müdigkeit eines Fahrers des PTW genutzt werden. Der Augen-Tracker 106 kann verschiedene Teile des Auges identifizieren (z. B. Netzhaut, Hornhaut usw.), um zu bestimmen, wohin ein Benutzer blickt. Der Augen-Tracker 106 kann eine Kamera oder einen anderen Sensor beinhalten, um die Verfolgung der Augenbewegung eines Fahrers zu unterstützen.
  • Der Helm 101 kann auch einen Helm-Prozessor 108 beinhalten. Der Helm-Prozessor 107 kann zur Sensorfusion von Daten genutzt werden, die durch die verschiedenen Kameras und Sensoren sowohl des Motorrads 103 als auch des Helms 101 gesammelt werden. In einer anderen Ausführungsform kann der Helm einen oder mehrere Sendeempfänger beinhalten, die zur Kurzstreckenkommunikation und Langstreckenkommunikation genutzt werden. Die Kurzstreckenkommunikation des Helms kann eine Kommunikation mit dem Motorrad 103 oder anderen nahegelegenen Fahrzeugen und Objekten beinhalten. In einer anderen Ausführungsform kann die Langstreckenkommunikation eine Kommunikation mit einem bordexternen Server, dem Internet, der „Cloud“, eine Zellularkommunikation usw. beinhalten. Der Helm 101 und das Motorrad 103 können unter Verwendung von Drahtlosprotokollen miteinander kommunizieren, die durch einen Sendeempfänger implementiert werden, der sich sowohl an dem Helm 101 als auch dem Motorrad 103 befindet. Solche Protokolle können Bluetooth, WiFi usw. beinhalten. Der Helm 101 kann auch ein Heads-Up-Display (HUD) beinhalten, das zum Ausgeben grafischer Bilder auf einem Visier des Helms 101 genutzt wird.
  • Das Motorrad 103 kann eine vorwärts gerichtete Kamera 105 beinhalten. Die vorwärts gerichtete Kamera 105 kann sich an einem Scheinwerfer oder einem anderen ähnlichen Bereich des Motorrads 103 befinden. Die vorwärts gerichtete Kamera 105 kann zur Unterstützung der Identifizierung, wohin sich das PTW bewegt, genutzt werden. Ferner kann die vorwärts gerichtete Kamera 105 verschiedene sich vor dem Motorrad 103 befindliche Objekte oder Fahrzeuge identifizieren. Die vorwärts gerichtete Kamera 105 kann somit verschiedene Sicherheitssysteme unterstützen, wie etwa eine intelligente Geschwindigkeitsregelung oder Kollisionsdetektionssysteme.
  • Das Motorrad 103 kann eine Motorrad-IMU 107 beinhalten. Die Motorrad-IMU 107 kann an einem Scheinwerfer oder einem anderen ähnlichen Bereich des PTW angebracht sein. Die Motorrad-IMU 107 kann inertiale Daten sammeln, die zum Verständnis der Bewegung des Motorrads genutzt werden können. Die Motorrad-IMU 107 weist einen Mehrachsen-Beschleunigungsmesser auf, typischerweise in drei orthogonalen Achsen. Gleichermaßen kann die Motorrad-IMU 107 auch mehrere Gyroskope beinhalten.
  • Das Motorrad 103 kann eine Fahrerkamera 109 beinhalten. Die Fahrerkamera 109 kann zum Verfolgen eines Fahrers des Motorrads 103 genutzt werden. Die Fahrerkamera 109 kann an verschiedenen Orten entlang des Lenkers des Motorrads oder an anderen Orten montiert sein, sodass sie zum Fahrer ausgerichtet ist. Die Fahrerkamera 109 kann zum Erfassen von Bildern oder Video des Fahrers genutzt werden, die im Gegenzug für verschiedene Berechnungen genutzt werden, wie etwa das Identifizieren verschiedener Körperteile oder der Bewegung des Fahrers. Die Fahrerkamera 109 kann auch zum Fokussieren auf die Augen des Fahrers genutzt werden. Demnach kann eine Augenblickrichtungsbewegung bestimmt werden, um herauszufinden, wohin der Fahrer schaut.
  • Das Motorrad 103 kann eine elektronische Steuereinheit 111 beinhalten. Die ECU 111 kann zum Verarbeiten von durch Sensoren an dem Motorrad gesammelten Daten sowie von durch Sensoren an dem Helm gesammelten Daten genutzt werden. Die ECU 111 kann die von den verschiedenen IMUs und Kameras empfangenen Daten nutzen, um verschiedene Positionen zu verarbeiten und zu berechnen oder eine Objekterkennung durchzuführen. Die ECU 111 kann mit der Fahrerkamera 109 sowie der vorwärts gerichteten Kamera 105 in Kommunikation stehen. Beispielsweise können die Daten von den IMUs in die ECU 111 eingespeist werden, um eine Position bezüglich eines Referenzpunkts sowie eine Orientierung zu identifizieren. Wenn Bilddaten mit solchen Berechnungen kombiniert werden, kann die Bewegung des Motorrads genutzt werden, um die Richtung zu identifizieren, in die ein Fahrer blickt oder auf die er sich konzentriert. Die Bilddaten von sowohl der vorwärts gerichteten Kamera am Motorrad als auch der Kamera am Helm werden verglichen, um die relative Orientierung zwischen dem Motorrad und dem Kopf des Fahrers zu bestimmen. Der Bildvergleich kann basierend auf weniger zahlreichen Merkmalen, die von beiden Kameras (z. B. Fahrerkamera 109 und vorwärts gerichteten Kamera 105) extrahiert werden, durchgeführt werden. Das Motorrad 103 kann eine Motorrad-Zentralverarbeitungseinheit 113 beinhalten, um die ECU zu unterstützen. Das System kann somit die Aufmerksamkeit, Haltung, Position, Orientierung, Kontakte (z. B. Griff am Lenker) des Fahrers, Fahrerrutschgrad (z. B. Kontakt zwischen Fahrer und Sitz), Fahrer-zu-Fahrzeug-Beziehung und Fahrer-zu-Welt-Beziehung kontinuierlich überwachen.
  • 2 offenbart ein Beispiel für einen Smart-Helm, der Sensoren zur Unterstützung der Identifikation einer kognitiven Belastung eines Fahrers beinhaltet. Der Smart-Helm 200 kann einen Elektroenzephalogramm(EEG)-Sensor 201 beinhalten. Der Smart-Helm 200 kann typische Merkmale eines Helms beinhalten, der zum Bereitstellen von Sicherheit für einen Fahrer genutzt wird, einschließlich eines Visiers, einer harten Außenschale und einer weichen Innenschale, die den gesamten Kopf eines Fahrers bedeckt. Die EEG-Sensoren 201 können Elektroenzephalogramm(EEG)-Signale von einem oder mehreren EEG-Sensoren erfassen, die zum Erfassen von EEG-Signalen vom Kopf eines Benutzers angeordnet sind. Das System kann die Signale zum Überwachen der EEG-Aktivitätssignale nutzen, die durch den Benutzer aufgezeigt und durch die Sensoreinheit erfasst werden. Das integrierte System kann ferner eine Datenverarbeitungseinheit zum Verarbeiten mehrerer EEG-Signale und Kommunizieren mit der Datenverarbeitungseinheit des Smart-Helms beinhalten. Die Prozesse zum Analysieren der erfassten EEG-Signale können an der Datenverarbeitungseinheit durchgeführt werden oder können die Verarbeitungseinheit der portablen elektronischen Vorrichtung nutzen.
  • Der Smart-Helm 200 kann auch einen Fahrmustersensor 203 beinhalten. Der Fahrmustersensor 203 kann zum Identifizieren eines Fahrverhaltens des Fahrers genutzt werden. Falls ein Fahrer beispielsweise immer zum Abweichen in andere Fahrbahnen tendiert, kann er solche Informationen nutzen. Eine Fahrerleistungsbeurteilungsvorrichtung kann Fahrerleistung basierend auf dynamischen Daten des PTW beurteilen, die entweder über eine eingebettete Datenquelle (wie etwa den CAN-Bus) oder eine installierte Datenquelle (wie etwa Gyroskop usw.) gesammelt werden. Die Fahrerleistungsbeurteilungsvorrichtung könnte für eine Entscheidung verwendet werden, ob sich ein Fahrer ausreichend auf die Fahraufgabe konzentriert oder ob der Fahrer fähig ist, mit der aktuellen Fahrumgebung umzugehen. Die von Fahrerleistungsdaten gesammelten Daten können auch zum Identifizieren einer kognitiven Belastung des Fahrers verwendet werden.
  • Der Smart-Helm 200 kann auch ein Fahrzweckidentifizierungsmerkmal 205 beinhalten. Das Fahrzweckidentifizierungsmerkmal 205 kann den Zweck der Fahrt bestimmen, die in die kognitive Belastung des Benutzers mit einzubeziehen ist. Falls das Fahrzweckidentifizierungsmerkmal 205 beispielsweise erkennt, dass die Pendelstrecke eine vertraute Pendelstrecke auf vertrauten Straßen ist, die nicht die gleiche kognitive Belastung erfordern als eine neue Erfahrung, wie etwa Fahren in einem dichten städtischen Bereich, in dem der Fahrer niemals zuvor gefahren ist, kann es annehmen, dass die kognitive Belastung des Fahrers reduziert sein würde. Das Fahrzweckidentifizierungsmerkmal 205 kann mit einem Navigationssystem arbeiten, um einen identifizierten Bestimmungsort zu bestimmen.
  • Der Smart-Helm 200 kann auch einen Umgebungseinflusssensor 207 (z. B. Kamera, Radar, LiDAR, fahrzeuginterne Kamera, Geschwindigkeitssensor, Scheibenwischersensor, biometrischer Sensor usw.) sowie fahrzeugexterne Server zum Verständnis der Umgebungsbedingungen bezüglich der Umgebung des Fahrers beinhalten. Das PTW kann andere Sensoren nutzen, wie etwa Nebelleuchten, Scheibenwischer, Regensensoren, Feuchtigkeitssensoren usw., die auch als Eingaben zum Bestimmen der kognitiven Belastung genutzt werden können. Wenn beispielsweise eine Nebelleuchte aktiviert ist oder sich die Scheibenwischer schneller bewegen oder ein Regensensor einen höheren Niederschlag identifiziert, kann die kognitive Belastung des Fahrers hoch sein. Fahrzeugexterne Daten können zum Identifizieren von Faktoren genutzt werden, bei denen sich ein Benutzer durchgehend ganz auf das Fahren konzentriert und die die kognitive Belastung erhöhen können. Beispielsweise können Wetterdaten von einem fahrzeugexternen Server Wetterbedingungen identifizieren. Die Wetterdaten können Unwetteraktualisierungen, schlechte Fahrbedingungen (z. B. glatte Straße) und andere Dinge identifizieren, die die kognitive Belastung eines Fahrers beeinflussen können.
  • Der Smart-Helm 200 kann auch Sensoren zum Identifizieren der Tageszeit 209 nutzen, die in die kognitive Belastung mit einzubeziehen ist. Solche Sensoren können eine Uhr oder einen Photozellensensor, einen Photowiderstand, einen lichtdetektierenden Widerstand oder einen anderen Sensor beinhalten, der in der Lage ist, Licht oder das Nichtvorhandensein von Licht zu detektieren. Somit kann der Sensor basierend auf einer Zeit oder einer Lichtintensität außerhalb des Motorrads verstehen, dass es Tageszeit oder Nachtzeit ist. Der Sensor kann sich an einer Außenfläche des Helms befinden. In einer anderen Ausführungsform kann ein GPS-Empfänger genutzt werden, um Abend- und Morgendämmerung für das PTW zu identifizieren.
  • Der Smart-Helm 200 kann auch physiologische Sensoren 211 beinhalten. Die physiologischen Sensoren können Sensoren beinhalten, die in der Lage sind, Herzrate, Atmungsrate oder Blutdruck zu identifizieren. Die physiologischen Sensoren 211 können auch Blutvolumendruck, Blutvolumenpuls des Kopfes, Elektrokardiographie, elektrodermale Aktivität (mit einem Q-Sensor), Elektromyographie (EMG), Emotionssensor (ECG) usw. beinhalten. Solche physiologischen Sensoren können einen Wärmeflusssensor zum Messen einer Temperatur des Benutzers oder verschiedene Sensoren einschließlich On-Chip-Bild- und -Farbsensoren beinhalten, und Sensoren, die pH-Wert, Temperatur und Druck messen, können ein schnelles und genaues Diagnosewerkzeug zum Detektieren gastrointestinaler Anomalien bieten. Datenverarbeitungsschritte wie Filtern, Rauschunterdrückung und Verstärkung können angewendet werden, um die Genauigkeit zu verbessern.
  • Der Smart-Helm 200 kann auch verschiedene Sensoren zum Überwachen der Verkehrsbedingungen im Umfeld des PTW nutzen. Fahrzeugexterne Daten können zum Identifizieren von Verkehrsfaktoren genutzt werden, bei denen sich ein Benutzer durchgehend ganz auf das Fahren konzentriert und die die kognitive Belastung erhöhen können. Beispielsweise können Verkehrsdaten von einem fahrzeugexternen Server schwere Verkehrsbedingungen oder Unfälle identifizieren. Die Verkehrsdaten können Verkehrsflussaktualisierungen, Unfälle und andere Ereignisse identifizieren, die den Verkehrsfluss und im Gegenzug die kognitive Belastung des Fahrers beeinflussen können.
  • Ein OMS, das in dem Helm oder an einem geeigneten Ort montiert sein kann, könnte die Interaktion des Benutzers mit dem PTW oder jegliche anderen Ablenkungen beobachten. Das OMS evaluiert die tatsächlichen kognitiven Anforderungen oder potenzielle kognitiven Anforderungen aus dem Interagieren mit dem PTW. Falls das OMS beispielsweise detektiert, dass der Benutzer aktiv schnell fährt, während er einen Telefonanruf an dem Freisprechsystem entgegennimmt, kann seine kognitive Belastung als hoch evaluiert werden. Falls das OMS in einem anderen Beispiel einen anderen Passagier auf dem PTW als den Fahrer detektiert, kann das OMS vorhersagen, dass sich die kognitive Anforderung des Benutzers möglicherweise bald erhöhen wird.
  • Der Smart-Helm 200 oder ein Fernserver kann genutzt werden, um die verschiedenen Sensordaten zum Identifizieren einer kognitiven Belastung oder eines mentalen Zustands unter Verwendung einer Merkmalsextraktion 215 zu sammeln. Die Merkmalsextraktion 215 kann Roheingangssignale oder Statistiken der Signale nehmen und sie zum Trainieren eines maschinellen Lernmodells 217 nutzen, um den mentalen Zustand 221 oder den Alkoholkonsum 219 des Fahrers vorherzusagen. Andere Klassifizierer für maschinelles Lernen als die traditionellen, wie etwa Entscheidungsbaum und Support-Vektor-Maschine, bis hin zu fortgeschrittenen Verfahren wie etwa Deep Learning, können bei 217 verwendet werden. Ein Multitasking-Klassifizierer wird an den extrahierten Merkmalen trainiert, um 219 und 221 vorherzusagen. Die Vorhersagen des mentalen Zustands des Fahrers können zum Warnen des Fahrers verwendet werden, indem Töne oder Vibrationen am Motorradlenker geplant werden. Die Alkoholeinflussergebnisse können verwendet werden, um den Fahrer daran zu hindern, das Fahrzeug zu betreiben. Beispielsweise kann der Smart-Helm unter Verwendung eines in den Helm eingebauten Alkoholtestgeräts identifizieren, dass der Fahrer unter Alkoholeinfluss steht, und im Gegenzug sendet der Helm Befehle zu dem PTW, um Merkmale zu aktivieren oder den Betrieb des PTW zu sperren.
  • 3 ist ein beispielhaftes Flussdiagramm 300 zum Identifizieren einer kognitiven Belastung eines Fahrers eines PTW. Das Flussdiagramm 300 kann an einer PTW-seitigen Anwendung in einer Fahrzeugsteuerung oder fahrzeugextern bei einem Fernserver implementiert werden. Das System kann bei Schritt 201 Sensordaten und beliebige andere Daten sammeln, die zum Identifizieren der kognitiven Belastung des Fahrers genutzt werden. Das System kann mit Sensoren in dem Helm oder PTW sowie fahrzeugexternen Servern kommunizieren. Solche Sensoren und Daten können jene beinhalten, die oben in 1 und 2 beschrieben sind.
  • Das System kann bei Schritt 203 auch bestimmen, ob eine kognitive Belastung des Benutzers vorhanden ist. Das System kann verschiedene Sensoren im Helm nutzen, um die Identifizierung einer kognitiven Belastung des das PTW steuernden Fahrers zu unterstützen. Der Helm kann auch mit dem PTW kommunizieren, um andere Informationen zum Identifizieren einer kognitiven Belastung zu sammeln. Beispielsweise kann das System einen Fahrzeuggeschwindigkeitssensor nutzen, um zu identifizieren, wie schnell das Fahrzeug fährt. Auf hoher Ebene, je schneller das Fahrzeug fährt, als desto größer kann die kognitive Belastung des Fahrers angenommen werden (z. B. konzentriert sich der Fahrer auf das Fahren anstatt die Aufgabe). Je höher die kognitive Belastung, desto mehr kann somit der Benutzer mit zusätzlichen Aufgaben abgelenkt sein, die den Benutzer daran hindern werden, in der Lage zu sein, sich auf zusätzliche Informationen auf einer Schnittstelle zu konzentrieren, wenn eine Videokonferenzsitzung stattfindet. Die oben beschriebenen Ausführungsformen können auch bei einer Mehrstufen-Präsentations-HMI basierend auf der kognitiven Arbeitslast des Benutzers angewendet werden. Beispielsweise könnte die höchste Stufe von HMI alle Merkmale eines Konferenzanrufs beinhalten. Die verbleibenden Stufen werden nur einen reduzierten Satz der Konferenzanrufmerkmale beinhalten.
  • Auf anderer Ebene kann die kognitive Belastung des Fahrers durch ein am PTW befindliches DSM (z. B. zum Fahrer zeigende Kamera) bestimmt werden, dass das Verhalten des Passagiers überwacht, einschließlich Gesichtsbewegung, Augenbewegung usw. Die kognitive Belastung des Fahrers kann durch ein DSM bestimmt werden, das die umliegende Fahrzeugumgebung überwacht, einschließlich der Verkehrsbedingungen, der Nähe zu anderen Fahrzeugen, des Komplexitätsniveaus der Straßenstruktur und der Anzahl von Objekten im Umfeld des PTW usw. Falls sich beispielsweise viele Fahrzeuge oder Objekte im Umfeld des Fahrzeugs befinden, kann die kognitive Belastung des Fahrers höher sein. Falls das DSM daran scheitert, Objekte zu identifizieren, oder nur eine beschränkte Anzahl von Objekten identifiziert, kann die kognitive Belastung des Fahrers niedrig sein.
  • Ferner können Informationen zum Identifizieren eines Fahrers des Fahrzeugs genutzt werden, um eine Schwelle für eine kognitive Belastung des Fahrers anzupassen. Beispielsweise kann ein Alter oder die Fahrerfahrung des Fahrers mit einspielen, dass die kognitive Belastungsschwelle eines Fahrers niedriger ist. Die Identifikation eines Fahrers kann durch Benutzerprofildaten oder Informationen bestimmt werden, die von einem Mobiltelefon, einer Kamera (z. B. Gesichtserkennung) oder Fahrzeugeinstellungen erhalten werden. Das System kann bestimmen, wie lange der Fahrer ein PTW gefahren hat (z. B. Erfahrung), sowie Alter, Unfallgeschichte, Strafzettel usw. bestimmen. Das System kann eine Schwelle für die kognitive Belastung aufweisen, die zum Bestimmen, ob das PTW zu betreiben ist oder nicht, Warnen des Fahrers oder Aktivieren einiger Fahrerassistenzfunktionen gesetzt ist. Falls beispielsweise eine kognitive Belastung eines Fahrers als hoch bestimmt wird, kann ein adaptives Geschwindigkeitsregelungsmerkmal aktiviert werden. Das System kann die kognitiven Belastungsdaten zum Identifizieren oder Schätzen einer kognitiven Belastung des Fahrers nutzen.
  • Bei Schritt 305 kann das System bestimmen, ob die kognitive Belastung des Fahrers eine Schwelle überschreitet. Das System kann die Schwelle basierend auf verschiedenen Faktoren im PTW anpassen, wie etwa einem Fahrer des PTW. Die Schnittstelle oder fahrergestützten Funktionen können auch eine automatische Anpassung der Schwelle ermöglichen, die durch den Fahrer oder über die Schnittstelle gesetzt werden kann. Demnach können die kognitiven Belastungsdaten gesammelt und analysiert werden, um gemessen und mit der Schwelle verglichen zu werden, sodass bestimmt wird, wie das PTW Anpassungen vornehmen kann, um den Fahrer zu warnen (z. B. Töne abspielen oder Vibration am Motorradlenker), oder ein Fahrassistenzmerkmal zu aktivieren, oder in manchen Umständen den Betrieb des Motorrads zu stoppen. Das System kann mehr als eine Schwelle aufweisen. Falls mehrere Schwellen verwendet werden, kann das System somit mehrere Schnittstellen nutzen, die variierende Inhaltsniveaus für jede Schwelle aufweisen. Anstatt nur zwei verschiedene Gegenmaßnahmen für die kognitive Belastung aufzuweisen, kann das System somit drei, vier, fünf, sechs usw. verschiedene Gegenmaßnahmen aufweisen, die durch Variieren von Schwellen oder Niveaus angepasst werden.
  • Bei Schritt 308 kann das Fahrzeugsystem Befehle zum Anpassen eines Fahrassistenzmerkmals ausführen, wenn die kognitive Belastung über einem Schwellenbetrag liegt. Falls ein Fahrer als überlastet (z. B. der Fahrer bewegt sich nicht, Fahren bei freier Bahn, autonomes/teilautonomes Fahrsystem hilft aus) bestimmt wird, kann das System somit annehmen, dass der Fahrer Unterstützung zum Betreiben des PTW braucht, und eine Benachrichtigung an den Fahrer liefern oder eine Fahrerassistenzfunktion aktivieren. Die Benachrichtigung kann Vibrieren des Sattels oder des Lenkers des PTW sowie eine Benachrichtigung beinhalten, die auf der Anzeige des HUD des Helms gezeigt oder hörbar von Lautsprechern im Helm ausgegeben wird. Die Fahrerassistenzfunktion kann Aktivieren (über einen drahtlosen Befehl, der vom Helm zum PTW gesendet wird) eines adaptiven Geschwindigkeitsregelungssystems, von teilautonomen Fahren, einer Spurhalteassistenzfunktion usw. beinhalten. Falls die kognitive Belastung hoch ist, kann der Helm in einem Beispiel einen drahtlosen Befehl zu dem PTW senden, um den Betrieb des PTW sicher zu beenden. Das System kann verschiedene Schwellen zum Betreiben verschiedener Funktionen beinhalten. Das System kann somit eine Vielfalt von Merkmalen, die bei einer ersten Schwelle zu aktivieren sind, und andere Merkmale bei höheren Schwellen beinhalten. Falls basierend auf den Daten eine kognitive Belastung als hoch erachtet wird oder der Fahrer als unter Alkoholeinfluss angenommen wird, kann der Betrieb des Fahrzeugs abgeschaltet werden. Das System kann eine Benachrichtigung vor dem Aktivieren der Fahrerassistenzfunktion senden, die dem Fahrer ermöglichen kann, die Aktivierung des Merkmals abzubrechen oder die Aktivierung des Merkmals zu bestätigen.
  • Bei Schritt 309 kann das Fahrzeugsystem damit fortfahren, die kognitive Belastung selbst nach der Aktivierung der Benachrichtigung oder der Fahrerassistenzfunktion zu überwachen. Die Benachrichtigung kann Vibrieren des Sattels oder des Lenkers des PTW sowie eine Benachrichtigung beinhalten, die auf der Anzeige des HUD des Helms gezeigt oder hörbar von Lautsprechern im Helm ausgegeben wird. Das System kann eine Funktion deaktivieren oder den Betrieb gewisser Fahrzeugfunktionen ermöglichen, falls die kognitive Belastung letztendlich unter die Schwelle fällt. Falls ein Fahrer als nicht überlastet (z. B. das PTW bewegt sich nicht, Fahren bei freier Bahn, autonomes/teilautonomes Fahrsystem hilft aus usw.) bestimmt wird, kann das System somit annehmen, dass der Fahrer das PTW betreiben kann und keine Unterstützung braucht. Somit kann das System die Daten einfach nur kontinuierlich überwachen.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können lieferbar sein an/implementiert werden durch eine Verarbeitungsvorrichtung, eine Steuerung oder einen Computer, welche bzw. welcher eine beliebige existierende programmierbare elektronische Steuereinheit oder dedizierte elektronische Steuereinheit beinhalten kann. Gleichermaßen können die Prozesse, Verfahren oder Algorithmen als Daten und durch eine Steuerung oder einen Computer ausführbare Anweisungen in vielen Formen gespeichert werden, unter anderem einschließlich Informationen, die auf nichtbeschreibbaren Speichermedien, wie etwa ROM-Vorrichtungen, permanent gespeichert sind, und Informationen, die auf beschreibbaren Speichermedien, wie etwa Disketten, Magnetbändern, CDs, RAM-Vorrichtungen und anderen magnetischen und optischen Medien, änderbar gespeichert sind. Die Prozesse, Verfahren oder Algorithmen können auch in einem ausführbaren Software-Objekt implementiert sein. Alternativ können die Prozesse, Verfahren oder Algorithmen in Gänze oder teilweise unter Verwendung geeigneter Hardwarekomponenten umgesetzt werden, wie etwa anwendungsspezifischer integrierter Schaltungen (ASICs), feldprogrammierbarer Gate-Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderer Hardwarekomponenten oder -vorrichtungen oder einer Kombination von Hardware-, Software- und Firmwarekomponenten.
  • Obgleich oben beispielhafte Ausführungsformen beschrieben sind, ist es nicht beabsichtigt, dass diese Ausführungsformen alle möglichen durch die Ansprüche eingeschlossenen Formen beschreiben. Die in der Beschreibung verwendeten Ausdrücke sind eher Ausdrücke der Beschreibung statt der Beschränkung und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne von dem Gedanken und dem Schutzumfang der Offenbarung abzuweichen. Wie zuvor beschrieben wurde, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung auszubilden, die möglicherweise nicht explizit beschrieben oder veranschaulicht wurden. Obgleich verschiedene Ausführungsformen als Vorteile ergebend oder gegenüber anderen Ausführungsformen oder Implementierungen im Stand der Technik bezüglich einer oder mehrerer erwünschter Charakteristiken bevorzugt beschrieben worden sein können, erkennen Durchschnittsfachleute auf dem Gebiet, dass ein oder mehrere Merkmale oder Charakteristiken beeinträchtigt werden können, um erwünschte Gesamtsystemattribute zu erzielen, die von der speziellen Anwendung und Implementierung abhängen. Diese Attribute können unter anderem Kosten, Stärke, Haltbarkeit, Lebenszykluskosten, Vermarktungsfähigkeit, Erscheinungsbild, Aufmachung, Größe, Wartbarkeit, Gewicht, Herstellbarkeit, Montagefreundlichkeit usw. beinhalten. Von daher liegen jegliche in dem Maße als weniger wünschenswert als andere Ausführungsformen oder Implementierungen im Stand der Technik bezüglich eines oder mehreren Charakteristiken beschriebene Ausführungsformen nicht außerhalb des Schutzumfangs der Offenbarung und können für gewisse Anwendungen wünschenswert sein.

Claims (20)

  1. Helm, der Folgendes umfasst: einen oder mehrere Sensoren, die sich im Helm befinden und ausgelegt sind zum Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers eines Fahrzeugs mit Sattelsitz angeben; einen drahtlosen Sendeempfänger in Kommunikation mit dem Fahrzeug; eine Steuerung in Kommunikation mit dem einen oder den mehreren Sensoren und dem drahtlosen Sendeempfänger, wobei die Steuerung ausgelegt ist zum: Bestimmen einer kognitiven Belastung des Fahrers unter Verwendung zumindest der kognitiven Belastungsdaten; und Senden eines drahtlosen Befehls zu dem Fahrzeug unter Verwendung des drahtlosen Sendeempfängers, um Befehle zum Anpassen einer Fahrerassistenzfunktion auszuführen, wenn die kognitive Belastung über einer Schwelle liegt.
  2. Helm nach Anspruch 1, wobei die Steuerung ferner ausgelegt ist zum Stoppen des Betriebs des Fahrzeugs, wenn die kognitive Belastung über der Schwelle liegt.
  3. Helm nach Anspruch 1, wobei die Schwelle basierend auf einem Benutzerprofil anpassbar ist.
  4. Helm nach Anspruch 1, wobei die Steuerung ferner ausgelegt ist zum Erhalten von Benutzerprofilinformationen von einem mit dem Fahrer assoziierten Mobiltelefon über den drahtlosen Sendeempfänger und Anpassen der Schwelle als Reaktion auf die Benutzerprofilinformationen.
  5. Helm nach Anspruch 1, wobei der drahtlose Sendeempfänger ausgelegt ist zum Kommunizieren mit einer fahrzeuginternen Fahrzeugkamera, die ausgelegt ist zum Überwachen der Bewegung des Fahrers, und die Steuerung ferner ausgelegt ist zum Nutzen von mit der Bewegung des Passagiers assoziierten Informationen, um die kognitive Belastung zu bestimmen.
  6. Helm nach Anspruch 1, wobei die Steuerung ferner ausgelegt ist zum Erhalten von Benutzerprofilinformationen von einem mit dem Fahrer des Fahrzeugs assoziierten Key Fob und Anpassen der Schwelle als Reaktion auf die Benutzerprofilinformationen.
  7. Helm nach Anspruch 1, wobei der Helm eine Helmanzeige beinhaltet, die ein Heads-Up-Display (HUD) beinhaltet, das ausgelegt ist zum Anzeigen einer Benachrichtigung bezüglich der Aktivierung der Fahrerassistenzfunktion.
  8. Helm nach Anspruch 1, wobei der eine oder die mehreren sich im Helm befindlichen Sensoren einen EEG-Sensor beinhalten.
  9. Helm, der Folgendes umfasst: einen oder mehrere Sensoren, die sich im Helm befinden und ausgelegt sind zum Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers eines Fahrzeugs mit Sattelsitz angeben; einen drahtlosen Sendeempfänger in Kommunikation mit dem Fahrzeug, eine Steuerung in Kommunikation mit dem einen oder den mehreren Sensoren und dem drahtlosen Sendeempfänger, wobei die Steuerung ausgelegt ist zum: Bestimmen einer kognitiven Belastung des Fahrers unter Verwendung zumindest der kognitiven Belastungsdaten; und Senden eines Befehls zu dem Fahrzeug, um Befehle zum Anpassen einer Fahrerassistenzfunktion auszuführen, wenn die kognitive Belastung über einer ersten Schwelle liegt.
  10. Helm nach Anspruch 9, wobei die Steuerung ferner ausgelegt ist zum Senden eines Befehls zu dem Fahrzeug, um den Betrieb des Fahrzeugs zu stoppen, wenn die kognitive Belastung über einer zweiten Schwelle liegt.
  11. Helm nach Anspruch 10, wobei die zweite Schwelle eine höhere kognitive Belastung als die erste Schwelle angibt.
  12. Helm nach Anspruch 9, wobei die kognitiven Belastungsdaten Alkoholkonsumdaten beinhalten, die von einem Alkoholtestgerät im Helm erhalten werden.
  13. Helm nach Anspruch 9, wobei der Helm eine Helmanzeige beinhaltet, die ein Heads-Up-Display (HUD) beinhaltet, das ausgelegt ist zum Anzeigen einer Benachrichtigung bezüglich der Aktivierung der Fahrerassistenzfunktion.
  14. Helm nach Anspruch 9, wobei sich der drahtlose Sendeempfänger in Kommunikation mit einem Fernserver befindet, der ausgelegt ist zum Bestimmen der kognitiven Belastung und Senden von dieser über den drahtlosen Sendeempfänger zu dem Helm.
  15. Helm nach Anspruch 9, wobei die Steuerung ferner ausgelegt ist zum Anpassen der ersten Schwelle als Reaktion auf ein Benutzerprofil, das von einer Mobilvorrichtung empfangen wird, die mit dem Fahrer assoziiert ist und sich in Kommunikation mit dem Fahrzeug befindet.
  16. Verfahren zum Überwachen eines einen Helm tragenden Fahrers auf einem Fahrzeug mit Sattelsitz, das Folgendes umfasst: Erhalten kognitiver Belastungsdaten, die eine kognitive Belastung eines Fahrers des Fahrzeugs mit Sattelsitz angeben; Kommunizieren von Informationen mit einem Fernserver und dem Fahrzeug mit Sattelsitz, Bestimmen einer kognitiven Belastung des Fahrers unter Verwendung zumindest der kognitiven Belastungsdaten; und Ausführen von Befehlen, die zu dem Fahrzeug mit Sattelsitz zu senden sind, um eine Fahrerassistenzfunktion des Fahrzeugs mit Sattelsitz anzupassen, wenn die kognitive Belastung über einer Schwelle liegt.
  17. Verfahren nach Anspruch 16, wobei das Verfahren den Schritt des Benachrichtigens des Fahrers über eine Anpassung der Fahrerassistenzfunktion beinhaltet.
  18. Verfahren nach Anspruch 16, wobei das Verfahren den Schritt des Anpassens der Schwelle basierend auf einem Benutzerprofil beinhaltet.
  19. Verfahren nach Anspruch 16, wobei das Verfahren den Schritt des Anpassens der Schwelle basierend auf einem Benutzerprofil beinhaltet.
  20. Verfahren nach Anspruch 16, wobei das Verfahren den Schritt des Benachrichtigens des Fahrers über eine Anpassung der Fahrerassistenzfunktion mittels einer Benachrichtigung auf einer Anzeige des Helms beinhaltet, wobei die Benachrichtigung eine Bestätigungsoption zum Bestätigen der Anpassung und eine Abbruchoption zum Abbrechen der Anpassung der Fahrerassistenzfunktion beinhaltet.
DE102020215667.0A 2019-12-27 2020-12-10 System und verfahren zum überwachen eines kognitiven zustands eines fahrers eines fahrzeugs Pending DE102020215667A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/728,001 US20210195981A1 (en) 2019-12-27 2019-12-27 System and method for monitoring a cognitive state of a rider of a vehicle
US16/728,001 2019-12-27

Publications (1)

Publication Number Publication Date
DE102020215667A1 true DE102020215667A1 (de) 2021-07-01

Family

ID=76310435

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020215667.0A Pending DE102020215667A1 (de) 2019-12-27 2020-12-10 System und verfahren zum überwachen eines kognitiven zustands eines fahrers eines fahrzeugs

Country Status (4)

Country Link
US (1) US20210195981A1 (de)
JP (1) JP2021107608A (de)
CN (1) CN113040459A (de)
DE (1) DE102020215667A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3084580C (en) * 2017-09-06 2021-11-02 Damon Motors Inc. Determination of a motorcycle rider's experience level
US11373447B2 (en) * 2020-02-19 2022-06-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems including image detection to inhibit vehicle operation
CN114359805A (zh) * 2022-01-04 2022-04-15 济南昊影电子科技有限公司 一种骑行状态采集及事故分析处理方法和系统
WO2023187819A1 (en) * 2022-03-26 2023-10-05 Tvs Motor Company Limited A headgear
WO2023248237A1 (en) * 2022-06-23 2023-12-28 Tvs Motor Company Limited System and method for monitoring health of one or more users of a two-wheeled vehicle
US20240108263A1 (en) * 2022-09-30 2024-04-04 Joshua R&D Technologies, LLC Driver/operator fatigue detection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5127576B2 (ja) * 2008-06-11 2013-01-23 ヤマハ発動機株式会社 精神作業負荷検出装置及びそれを備えた自動二輪車
US10029696B1 (en) * 2016-03-25 2018-07-24 Allstate Insurance Company Context-based grading
US10455882B2 (en) * 2017-09-29 2019-10-29 Honda Motor Co., Ltd. Method and system for providing rear collision warning within a helmet

Also Published As

Publication number Publication date
CN113040459A (zh) 2021-06-29
JP2021107608A (ja) 2021-07-29
US20210195981A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
DE102020215667A1 (de) System und verfahren zum überwachen eines kognitiven zustands eines fahrers eines fahrzeugs
DE102017114049B4 (de) Systeme zum auswählen und durchführen von routen für autonome fahrzeuge
US10525984B2 (en) Systems and methods for using an attention buffer to improve resource allocation management
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
DE102021126254A1 (de) Überwachen der Aufmerksamkeit und der kognitiven Belastung der Insassen für autonome und halbautonome Fahranwendungen
DE102021206235A1 (de) Maschinenlern-basierte sicherheitsgurt-detektion und benutzungserkennung unter verwenden von messmarkierung
DE19734307C2 (de) Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
DE102017119556A1 (de) Warnung über die wiederaufnahme eines angehaltenen fahrzeugs in den verkehr
DE102017111843A1 (de) Systeme, um einen Nutzer mittels Gehanweisungen in erweiterter Realität dynamisch zu einem Abholungsort eines autonom fahrenden Fahrzeugs zu führen
DE102017212935A1 (de) System und Verfahren zum Erkennen von Ablenkung und einer nach unten gerichteten vertikalen Kopfhaltung in einem Fahrzeug
DE102015115666A1 (de) Leistungsfahrsystem und Leistungsfahrverfahren
DE102015105494A1 (de) Systeme und Verfahren zur Auslegung physiologischer Fahrerdaten basierend auf Fahrzeugereignissen
US10967871B1 (en) Automatically estimating skill levels and confidence levels of drivers
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102013200132A1 (de) Fahrspurhaltesystem mit aktiver Hinterradsteuerung
CN110826369A (zh) 一种驾驶员驾驶时注意力检测方法和系统
CN102975718B (zh) 用以确定车辆驾驶员对物体状态预期的方法、系统和收录计算机程序产品的计算机可读介质
DE112020006181T5 (de) Blickbestimmung mit blendung als eingabe
WO2019149874A1 (de) Verfahren und vorrichtung zum betreiben eines anzeigesystems mit einer datenbrille
DE102020215630B4 (de) System und verfahren zur fahrzeugbewussten gestenerkennung in fahrzeugen mit smart-helmen
DE102018127605A1 (de) Informationsverarbeitungsvorrichtung, fahrerüberwachungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
DE102018127600A1 (de) Informationsverarbeitungsvorrichtung, Fahrerüberwachungssystem, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE102020213102A1 (de) Einrichtung und system bezüglich eines intelligenten helms
DE102013201379A1 (de) Kamerasystem für ein Fahrzeug, Verfahren und Vorrichtung zum Steuern eines Bildbereichs eines Bildes einer Fahrzeugkamera für ein Fahrzeug
DE102020215921A1 (de) Einrichtung und warnsystem für intelligenten helm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE

R016 Response to examination communication