DE102020215630A1 - System und verfahren zur fahrzeugbewussten gestenerkennung in fahrzeugen mit smart-helmen - Google Patents

System und verfahren zur fahrzeugbewussten gestenerkennung in fahrzeugen mit smart-helmen Download PDF

Info

Publication number
DE102020215630A1
DE102020215630A1 DE102020215630.1A DE102020215630A DE102020215630A1 DE 102020215630 A1 DE102020215630 A1 DE 102020215630A1 DE 102020215630 A DE102020215630 A DE 102020215630A DE 102020215630 A1 DE102020215630 A1 DE 102020215630A1
Authority
DE
Germany
Prior art keywords
helmet
vehicle
data
gesture
imu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102020215630.1A
Other languages
English (en)
Other versions
DE102020215630B4 (de
Inventor
Liu Ren
Shabnam Ghaffarzadegan
Zeng Dai
Benzun Pious Wisely BABU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102020215630A1 publication Critical patent/DE102020215630A1/de
Application granted granted Critical
Publication of DE102020215630B4 publication Critical patent/DE102020215630B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0825Indicating performance data, e.g. occurrence of a malfunction using optical means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3866Transceivers carried on the body, e.g. in helmets carried on the head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Helmets And Other Head Coverings (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Ein Helm beinhaltet einen Sendeempfänger, der ausgelegt ist zum Empfangen von Fahrzeugdaten von einem oder mehreren sich an einem Fahrzeug befindlichen Sensoren, eine inertiale Messeinheit (IMU Inertial Measurement Unit), die ausgelegt ist zum Sammeln von Helmbewegungsdaten des mit einem Fahrer des Fahrzeugs assoziierten Helms, und einen Prozessor in Kommunikation mit dem Sendeempfänger und der IMU, der programmiert ist zum Empfangen, über den Sendeempfänger, von Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren, Bestimmen einer Geste als Reaktion auf die Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren und die Helmbewegungsdaten von der IMU, und Ausgeben, auf einem Display des Helms, einer Statusschnittstelle bezüglich des Fahrzeugs als Reaktion auf die Geste.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft intelligente Helme, wie etwa jene, die bei Motorrädern oder anderen Fahrzeugen einschließlich Geländemotorrädern, dreirädrigen Fahrzeugen oder vierrädrigen Fahrzeugen wie etwa einem Geländefahrzeug oder dergleichen eingesetzt werden.
  • HINTERGRUND
  • Smart-Helme können durch Fahrer zweirädriger Fahrzeuge genutzt werden, um Informationen bezüglich am Kopf angebrachter Dursichtdisplays bereitzustellen. Die Helme können eine ungehinderte Sicht der Umgebung bereitstellen, während Warnungen, Benachrichtigungen und Statusinformationen für den Benutzer oder Fahrer überlagert werden. Die Interaktion mit solchen Informationen kann für eine immersive Benutzererfahrung unentbehrlich sein. Gegenwärtige Helme ermöglichen eine Sprachinteraktion, die zum Navigieren und Auswählen der Displayelemente zu verwenden ist. Während der Fahrer mit hoher Geschwindigkeit fährt, kann eine Sprachinteraktion jedoch vergleichsweise langsam und beschränkt sein. In den meisten Fällen kann die Sprachinteraktion mit der Fahrergegensprechanlage gemultiplext sein, was der Funktionalität Beschränkungen auferlegt. Zusätzlich kann die Sprachinteraktion dem Fahrer im Vergleich zu anderen Interaktionsmodalitäten eine höhere kognitive Belastung auferlegen. Das Ergänzen der Sprachinteraktion mit zusätzlichen Interaktionsmodalitäten kann vorteilhaft sein.
  • KURZFASSUNG
  • Gemäß einer Ausführungsform beinhaltet ein Helm einen Sendeempfänger, der ausgelegt ist zum Empfangen von Fahrzeugdaten von einem oder mehreren sich an einem Fahrzeug befindlichen Sensoren, eine inertiale Messeinheit (IMU: Inertial Measurement Unit), die ausgelegt ist zum Sammeln von Bewegungsdaten des durch den Fahrer des Fahrzeugs getragenen Helms, und einen Prozessor in Kommunikation mit dem Sendeempfänger und der IMU, der programmiert ist zum Empfangen, über den Sendeempfänger, von Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren, Bestimmen einer Geste als Reaktion auf die Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren und die Helmbewegungsdaten von der IMU, und Ausgeben, auf einem Display des Helms, einer Statusschnittstelle bezüglich des Fahrzeugs als Reaktion auf die Geste.
  • Gemäß einer zweiten Ausführungsform beinhaltet ein System, das einen Helm und ein Fahrzeug mit mindestens zwei Rädern beinhaltet, einen Helm-Sendeempfänger, der ausgelegt ist zum Empfangen von Fahrzeugdaten von einem oder mehreren sich an dem Fahrzeug befindlichen Sensoren, eine inertiale Helm-Messeinheit (Helm-IMU), die ausgelegt ist zum Sammeln von mit dem Helm assoziierten Helmbewegungsdaten, eine dem Fahrer zugewandte, sich an dem Fahrzeug befindliche Kamera, die ausgelegt ist zum Überwachen eines Fahrers des Fahrzeugs und Sammeln von Fahrerbilddaten, und einen Prozessor in dem Helm in Kommunikation mit dem Helm-Sendeempfänger und der Helm-IMU. Der Prozessor ist ferner programmiert zum Empfangen, über den Sendeempfänger, von Gestendaten von dem Helm-Sendeempfänger und Fahrzeugbewegungsdaten von einer Fahrzeug-IMU, Bestimmen einer Geste als Reaktion auf die Gestendaten und Kompensieren von dieser mit den Fahrzeugbewegungsdaten, und Ausgeben, auf einem Display eines Helms, einer Handlung als Reaktion auf die Geste.
  • Gemäß einer dritten Ausführungsform beinhaltet ein Helm einen Sendeempfänger, der ausgelegt ist zum Empfangen von Fahrzeugdaten von einem oder mehreren sich an einem Fahrzeug befindlichen Sensoren, eine inertiale Messeinheit (IMU), die ausgelegt ist zum Sammeln von Helmbewegungsdaten des mit einem Fahrer des Fahrzeugs assoziierten Helms, und einen Prozessor in Kommunikation mit dem Sendeempfänger und der IMU, der programmiert ist zum Empfangen, über den Sendeempfänger, von Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren, Bestimmen einer Geste als Reaktion auf die Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren und die Helmbewegungsdaten von der IMU und Ausführen eines Befehls als Reaktion auf die Geste.
  • Figurenliste
    • 1 ist ein Beispiel eines Systemdesigns 100, das einen Smart-Helm 101 und ein Motorrad 103 beinhaltet.
    • 2 ist ein Beispiel eines Systemdesigns für einen Smart-Helm und ein Motorrad, das eine Gestenerkennung ermöglicht.
    • 3 ist ein beispielhaftes Flussdiagramm eines Smart-Helms, der eine Gestenerkennung ermöglicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Offenbarung werden hier beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht notwendigerweise maßstabsgetreu; manche Merkmale könnten übertrieben oder minimiert sein, um Einzelheiten spezieller Komponenten zu zeigen. Die hier offenbarten speziellen strukturellen und funktionalen Details sind daher nicht als beschränkend aufzufassen, sondern lediglich als eine repräsentative Basis, um einen Fachmann zu lehren, die Ausführungsformen verschiedentlich einzusetzen. Durchschnittsfachleute auf dem Gebiet werden verstehen, dass verschiedene unter Bezugnahme auf irgendeine der Figuren veranschaulichte und beschriebene Merkmale mit in einer oder mehreren anderen Figuren veranschaulichten Merkmalen kombiniert werden können, um Ausführungsformen zu produzieren, die nicht explizit veranschaulicht oder beschrieben sind. Die Kombinationen von veranschaulichten Merkmalen stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Verschiedene Kombinationen und Modifikationen der mit den Lehren dieser Offenbarung konsistenten Merkmale könnten jedoch für spezielle Anwendungen oder Implementierungen erwünscht sein.
  • Diese Offenbarung nimmt Bezug auf Helme und Fahrzeuge mit Sattelsitz. Es sollte verstanden werden, dass sich ein „Fahrzeug mit Sattelsitz“ typischerweise auf ein Motorrad bezieht, aber einen beliebigen Typ von Kraftfahrzeug einschließen kann, bei dem der Fahrer typischerweise auf einem Sattel sitzt und bei dem typischerweise Helme getragen werden, da es keinen Fahrgastraum zum Schutz des Fahrers gibt. Außer einem Motorrad kann dies auch angetriebene zweirädrige (PTW: Powered Two-Wheeler) Fahrzeuge wie etwa Geländemotorräder, Motorroller und dergleichen beinhalten. Dies kann auch angetriebene dreirädrige oder vierrädrige Fahrzeuge wie etwa ein Geländefahrzeug (ATV: All-Terrain Vehicle) und dergleichen beinhalten. Jegliche Bezüge spezifisch auf ein Motorrad oder Bike können auch für ein beliebiges anderes Fahrzeug mit Sattelsitz gelten, insofern nicht anders angemerkt.
  • Ein System kann zum Erkennen von Kopfgesten auf einem zwei (oder mehr) rädrigen Fahrzeug für das Interagieren mit einem Smart-Helm-Display genutzt werden. Die detektierten Gesten können zum Steuern des Display-Layouts auf dem Smart-Helm verwendet werden. Übliche Kopfgesten wie etwa Nicken, Kippen, Hochschauen, Schwenken und Kopfneigung usw. können zum Interagieren mit dem Smart-Helm verwendet werden. Somit muss der Fahrer möglicherweise nicht seine Hände nutzen, die den Lenker halten können, um das System zu betreiben. Die Bewegungsmessungen vom Motorrad können verwendet werden, um die Bewegungsmessungen vom Kopf des Fahrers zu kompensieren, wodurch ermöglicht wird, bestehende Gestenerkennungsmodule zu verwenden.
  • Die folgende Offenbarung beschreibt ein System, das einem Fahrer ermöglicht, mit einem Smart-Helm basierend auf Kopfgesten zu interagieren. Das System verwendet Sensoren am Smart-Helm in Verbindung mit den Sensoren am Motorrad, um Gesten robust zu detektieren. Die detektierten Gesten werden zum Steuern des Display-Layouts auf dem Smart-Helm verwendet. Übliche Kopfgesten wie etwa Nicken, Kippen, Hochschauen, Schwenken und Kopfneigung werden zum Interagieren mit dem Smart-Helm verwendet. Diese Gesten können durchgeführt werden, während der Fahrer weiterhin die Straße aufmerksam betrachtet. Da diese Interaktionen natürlich sind, können sie während der Verwendung der Gegensprechanlage durchgeführt werden.
  • Eine Gestenerkennung kann unter Verwendung von Messungen entweder von visuellen Kameras oder inertialen Messeinheiten (IMU) durchgeführt werden, die an dem Helm angebracht sind. Eine IMU erzeugt eine Zeitreihenmessung der Linearbeschleunigung und Drehrate. Ein Ende-zu-Ende-Verfahren kann lernen, Gesten basierend auf Rohmessungen von der IMU zu erkennen. Um Gesten unter durch die Fahrzeugbewegung verursachten dynamischen Bedingungen robust zu erkennen, muss das System möglicherweise Gesten abtasten, während der Fahrer Fahrzeugbewegungen erlebt. Um eine robuste Kopfgestenerkennung durchzuführen, muss das System möglicherweise Gesten sammeln, während das Fahrzeug eine Bewegung erlebt, wie etwa Rucken eines Rades, Fahrzeugneigung usw.
  • Wie nachstehend offenbart, kann das System eine IMU am Motorrad zusätzlich zu den IMU-Messungen vom Helm nutzen, um eine robuste Gestenerkennung durchzuführen. Das System kann mit visuellen Kameramessungen unterstützt werden. Die basierend auf den IMU-Beobachtungen geschätzte Motorradbewegung wird zum Stabilisieren der IMU-Bewegung vom Helm verwendet. Dies kann ermöglichen, dass eine Gestenerkennung, die an stationären Fahrern trainiert wird, bei bewegten Bedingungen verwendet wird. Obwohl eine Ausführungsform möglicherweise keine visuellen Messungen von einer Kamera verwendet, kann der gleiche Ansatz erweitert werden, sodass zusätzliche Sensoren wie etwa Kameras verwendet werden.
  • 1 ist ein Beispiel eines Systemdesigns 100, das einen Smart-Helm 101 und ein Motorrad 103 beinhaltet. Der Smart-Helm 101 und das Motorrad 103 können verschiedene miteinander interagierende Komponenten und Sensoren beinhalten. Der Smart-Helm 101 kann sich auf das Sammeln von Daten bezüglich der Körper- und Kopfbewegung eines Fahrers konzentrieren. In einem Beispiel kann der Smart-Helm 101 eine Kamera 102 beinhalten. Die Kamera 102 des Helms 101 kann einen Primärsensor beinhalten, der zur Positions- und Orientierungserkennung von sich bewegenden Fahrzeugen genutzt wird. Somit kann die Kamera 102 zur Außenseite des Helms 101 ausgerichtet sein, um andere Fahrzeuge und Objekte im Umfeld eines Fahrers zu verfolgen. Die Kamera 102 kann Schwierigkeiten haben, Dynamiken solcher Objekte und Fahrzeuge zu erfassen. In einem anderen Beispiel kann der Helm 101 zusätzlich zu oder anstelle der Kamera 102 mit Radar- oder LIDAR-Sensoren ausgestattet sein.
  • Der Helm 101 kann auch eine inertiale Helm-Messeinheit 104 (Helm-IMU) beinhalten. Die Helm-IMU 104 kann zum Verfolgen einer hochdynamischen Bewegung des Kopfes eines Fahrers genutzt werden. Somit kann die Helm-IMU 104 zum Verfolgen der Richtung, in die ein Fahrer schaut, oder der Fahrerblickrichtung genutzt werden. Zusätzlich kann die Helm-IMU 104 zum Verfolgen plötzlicher Bewegungen und anderer auftretender Bewegungen genutzt werden. Eine IMU kann einen oder mehrere Bewegungssensoren beinhalten.
  • Eine inertiale Messeinheit (IMU) kann eine spezifische Kraft des Körpers, eine Winkelrate und manchmal das Erdmagnetfeld unter Verwendung einer Kombination von Beschleunigungsmessern und Gyroskopen, manchmal auch Magnetometern, messen und melden. IMUs werden typischerweise zum Manövrieren eines Flugzeugs, einschließlich unter anderem unbemannten Luftfahrzeugen (UAVs), und eines Raumfahrzeugs, einschließlich Satelliten und Landefahrzeugen, verwendet. Die IMU kann als eine Komponente von inertialen Navigationssystemen genutzt werden, die in verschiedenen Fahrzeugsystemen verwendet werden. Die von den Sensoren der IMU gesammelten Daten können einem Computer ermöglichen, eine Motorposition zu verfolgen.
  • Eine IMU kann durch das Detektieren der aktuellen Beschleunigungsrate unter Verwendung einer oder mehrerer Achsen funktionieren und Änderungen von Drehattributen wie Nicken, Rollen und Gieren unter Verwendung einer oder mehrerer Achsen detektieren. Typischerweise beinhaltet eine IMU auch ein Magnetometer, das zur Unterstützung der Kalibration gegenüber Orientierungsdrift durch Verwenden der Messungen des Erdmagnetfeldes verwendet werden kann. Inertiale Navigationssysteme enthalten IMUs, die Winkel- und Linear-Beschleunigungsmesser (für Positionsänderungen) aufweisen; manche IMUs beinhalten ein Gyroskoppelement (zum Beibehalten einer absoluten Winkelreferenz). Winkelratenmesser messen, wie sich ein Fahrzeug im Raum drehen kann. Es kann mindestens einen Sensor für jede der drei Achsen geben: Nicken (Nase auf und ab), Gieren (Nase links und rechts) und Rollen (im Uhrzeigersinn oder gegen den Uhrzeigersinn vom Cockpit). Linear-Beschleunigungsmesser können nicht-gravitative Beschleunigungen des Fahrzeugs messen. Da er sich in drei Achsen bewegen kann (auf & ab, links & rechts, vorwärts & rückwärts), kann es einen Linear-Beschleunigungsmesser für jede Achse geben. Die drei Gyroskope sind üblicherweise in einem ähnlichen orthogonalen Muster angeordnet und messen die Rotationsposition in Bezug auf ein beliebig gewähltes Koordinatensystem. Ein Computer kann die aktuelle Position des Fahrzeugs kontinuierlich berechnen. Für jeden der sechs Freiheitsgrade (x, y, z und Ox, Oy und Oz) kann er die erfasste Beschleunigung, zusammen mit einer Schätzung der Schwerkraft, nach der Zeit integrieren, um die aktuelle Geschwindigkeit zu berechnen. Er kann auch die Geschwindigkeit integrieren, um die aktuelle Position zu berechnen. Manche der durch eine IMU bereitgestellten Messungen sind nachstehend aufgelistet: a ^ B = R B W ( a w g w ) + b a + η a
    Figure DE102020215630A1_0001
    ω ^ B = ω B + b g + η g
    Figure DE102020215630A1_0002
    (âB, (ω̂B) sind die Rohmessungen von der IMU im Körperrahmen der IMU. aw, ωB sind die erwartete korrekte Beschleunigung und die Gyroskopratenmessungen. ba, bg sind die Bias-Offsets im Beschleunigungsmesser und im Gyroskop. ηa, ηg, sind das Rauschen im Beschleunigungsmesser und im Gyroskop.
  • Der Helm 101 kann auch einen Augen-Tracker 106 beinhalten. Der Augen-Tracker 106 kann zum Bestimmen einer Richtung, in die ein Fahrer des Motorrads 103 schaut, genutzt werden. Der Augen-Tracker 106 kann auch zum Identifizieren von Schläfrigkeit und Müdigkeit eines Fahrers des PTW genutzt werden. Der Augen-Tracker 106 kann verschiedene Teile des Auges identifizieren (z. B. Netzhaut, Hornhaut usw.), um zu bestimmen, wohin ein Benutzer blickt. Der Augen-Tracker 106 kann eine Kamera oder einen anderen Sensor beinhalten, um die Verfolgung der Augenbewegung eines Fahrers zu unterstützen.
  • Der Helm 101 kann auch einen Helm-Prozessor 108 beinhalten. Der Helm-Prozessor 107 kann zur Sensorfusion von Daten genutzt werden, die durch die verschiedenen Kameras und Sensoren sowohl des Motorrads 103 als auch des Helms 101 gesammelt werden. In einer anderen Ausführungsform kann der Helm einen oder mehrere Sendeempfänger beinhalten, die zur Kurzstreckenkommunikation und Langstreckenkommunikation genutzt werden. Die Kurzstreckenkommunikation des Helms kann eine Kommunikation mit dem Motorrad 103 oder anderen nahegelegenen Fahrzeugen und Objekten beinhalten. In einer anderen Ausführungsform kann die Langstreckenkommunikation eine Kommunikation mit einem bordexternen Server, dem Internet, der „Cloud“, eine Zellularkommunikation usw. beinhalten. Der Helm 101 und das Motorrad 103 können unter Verwendung von Drahtlosprotokollen miteinander kommunizieren, die durch einen Sendeempfänger implementiert werden, der sich sowohl an dem Helm 101 als auch dem Motorrad 103 befindet. Solche Protokolle können Bluetooth, WiFi usw. beinhalten. Der Helm 101 kann auch ein Heads-Up-Display (HUD) beinhalten, das zum Ausgeben grafischer Bilder auf einem Visier des Helms 101 genutzt wird.
  • Das Motorrad 103 kann eine vorwärts gerichtete Kamera 105 beinhalten. Die vorwärts gerichtete Kamera 105 kann sich an einem Scheinwerfer oder einem anderen ähnlichen Bereich des Motorrads 103 befinden. Die vorwärts gerichtete Kamera 105 kann zur Unterstützung der Identifizierung, wohin sich das PTW bewegt, genutzt werden. Ferner kann die vorwärts gerichtete Kamera 105 verschiedene sich vor dem Motorrad 103 befindliche Objekte oder Fahrzeuge identifizieren. Die vorwärts gerichtete Kamera 105 kann somit verschiedene Sicherheitssysteme unterstützen, wie etwa eine intelligente Geschwindigkeitsregelung oder Kollisionsdetektionssysteme.
  • Das Motorrad 103 kann eine Motorrad-IMU 107 beinhalten. Die Motorrad-IMU 107 kann an einem Scheinwerfer oder einem anderen ähnlichen Bereich des PTW angebracht sein. Die Motorrad-IMU 107 kann inertiale Daten sammeln, die zum Verständnis der Bewegung des Motorrads genutzt werden können. Gleichermaßen kann die Motorrad-IMU 107 einen Mehrachsen-Beschleunigungsmesser aufweisen, typischerweise in drei orthogonalen Achsen. Gleichermaßen kann die Motorrad-IMU 107 auch mehrere Gyroskope beinhalten.
  • Das Motorrad 103 kann eine Fahrerkamera 109 beinhalten. Die Fahrerkamera 109 kann zum Verfolgen eines Fahrers des Motorrads 103 genutzt werden. Die Fahrerkamera 109 kann an verschiedenen Orten entlang des Lenkers des Motorrads oder an anderen Orten montiert sein, sodass sie zum Fahrer ausgerichtet ist. Die Fahrerkamera 109 kann zum Erfassen von Bildern oder Video des Fahrers genutzt werden, die im Gegenzug für verschiedene Berechnungen genutzt werden, wie etwa das Identifizieren verschiedener Körperteile oder der Bewegung des Fahrers. Die Fahrerkamera 109 kann auch zum Fokussieren auf die Augen des Fahrers genutzt werden. Demnach kann eine Augenblickrichtungsbewegung bestimmt werden, um herauszufinden, wohin der Fahrer schaut.
  • Das Motorrad 103 kann eine elektronische Steuereinheit 111 beinhalten. Die ECU 111 kann zum Verarbeiten von durch Sensoren an dem Motorrad gesammelten Daten sowie von durch Sensoren an dem Helm gesammelten Daten genutzt werden. Die ECU 111 kann die von den verschiedenen IMUs und Kameras empfangenen Daten nutzen, um verschiedene Positionen zu verarbeiten und zu berechnen oder eine Objekterkennung durchzuführen. Die ECU 111 kann mit der Fahrerkamera 109 sowie der vorwärts gerichteten Kamera 105 in Kommunikation stehen. Beispielsweise können die Daten von den IMUs in die ECU 111 eingespeist werden, um eine Position bezüglich eines Referenzpunkts sowie eine Orientierung zu identifizieren. Wenn Bilddaten mit solchen Berechnungen kombiniert werden, kann die Bewegung des Motorrads genutzt werden, um die Richtung zu identifizieren, in die ein Fahrer blickt oder auf die er sich konzentriert. Die Bilddaten von sowohl der vorwärts gerichteten Kamera am Motorrad als auch der Kamera am Helm werden verglichen, um die relative Orientierung zwischen dem Motorrad und dem Kopf des Fahrers zu bestimmen. Der Bildvergleich kann basierend auf weniger zahlreichen Merkmalen, die von beiden Kameras (z. B. Fahrerkamera 109 und vorwärts gerichteten Kamera 105) extrahiert werden, durchgeführt werden. Das Motorrad 103 kann eine Motorrad-Zentralverarbeitungseinheit 113 beinhalten, um die ECU zu unterstützen. Das System kann somit die Aufmerksamkeit, Haltung, Position, Orientierung, Kontakte (z. B. Griff am Lenker) des Fahrers, Fahrerrutschgrad (z. B. Kontakt zwischen Fahrer und Sitz), Fahrer-zu-Fahrzeug-Beziehung und Fahrer-zu-Welt-Beziehung kontinuierlich überwachen.
  • 2 veranschaulicht ein Blockdiagramm eines Systems zur Gestenerkennung an einem Smart-Helm. Um die Robustheit des Gestenerkennungssystems zu verbessern und die Fahrzeugbewegung zu kompensieren, kann das System die Messungen von der Motorrad-IMU 203 verwenden. Die Messungen von der am Motorrad angebrachten Motorrad-IMU 203 ( z ¬ B ( t B ) )
    Figure DE102020215630A1_0003
    (z. B. Fahrbewegung des Motorrads zu einem speziellen Zeitpunkt) und der am Helm angebrachten IMU (zH(tR)) (z. B. Fahrbewegung des Helms zu einem speziellen Zeitpunkt) werden jedoch zu unterschiedlichen Zeitinstanzen an Vorrichtungen mit unterschiedlichen Taktdomänen erfasst. Daher werden in dem Synchronisationsblock von dem Helm und dem Motorrad empfangene Zeitstempeldaten verglichen, um eine Taktdomänensynchronisation durchzuführen. Unter Verwendung des Ergebnisses der Synchronisation können die IMU-Messungen vom Motorrad (z. B. Motorrad-IMU) zu der Helm-Taktdomäne zeitverschoben werden. Die Ausgabe des Synchronisationsblocks kann zeitreihensynchronisierte Bewegungsdaten (IMU-Messungen) von dem Helm und dem Motorrad sein. f : { z B ( t B ) , t ¬ H } > z B ( t H )
    Figure DE102020215630A1_0004
  • Der Synchronisationsblock 205 kann Software beinhalten, die zum Synchronisieren aller gesammelten Daten genutzt wird, um die Identifizierung der Geste zu unterstützen, einschließlich Bilddaten sowie anderer Sensordaten. Der Synchronisationsblock 205 kann nicht nur die Bewegungsdaten von der Helm-IMU 201 und der Motorrad-IMU 203 sammeln, sondern kann auch Bilddaten nutzen, die von sich an dem Motorrad oder an dem Helm befindlichen Kameras gesammelt werden. Somit können die Kameradaten (z. B. Bilddaten) auch bei der Unterstützung der Identifizierung, ob eine Geste vorgenommen wird, genutzt werden. Beispielsweise kann die Kamera eine stationäre Position für den Fahrer während normaler Fahrperioden überwachen, kann jedoch einen Detektionsmechanismus enthalten, um zu erkennen, wann sich der Helm des Fahrers auf eine gewisse Weise nach oben oder unten bewegt.
  • Die gemessenen Beschleunigungen und Drehraten von der IMU am Helm (z. B. Helm-IMU 201) müssen möglicherweise durch das Entfernen des Effekts der Fahrzeugbewegung kompensiert werden. Beispielsweise muss das System möglicherweise die Fahrumgebung verstehen, um zu verstehen, wann der Benutzer eine Geste bereitstellt, und die Geste von einer Kopfbewegung unterscheiden, die als Reaktion auf Fahrbahnunebenheiten oder anderen natürlichen Fahrvorkommnissen aufgetreten ist. Das System kann den Effekt der Fahrzeugbewegung unter Verwendung der zeitsynchronisierten Messungen vom Motorrad (z. B. Motorrad-IMU, Motorrad-Kamera 203 usw.) entfernen. Der zeitsynchronisierte Block kann Daten von dem Helm und dem Motorrad zu spezifischen Zeiten vergleichen, um festzustellen, ob es eine Korrelation, verursacht durch die Fahrzeugumgebung, gegenüber einer Geste gibt. Eine relative Starrkörpertransformation zwischen dem Fahrzeug und der Helm-IMU (THB(l)) wird zum Transformieren der Messungen von der Motorrad-IMU in den Koordinatenrahmen der Helm-IMU verwendet. Der transformierte Wert kann subtrahiert werden, um die kompensierten Helmmessungen (zc(l)) zu schätzen. Die Starrkörpertransformation ist zeitabhängig und muss kontinuierlich geschätzt werden. Ein nichtlineares Filter kann genutzt werden, um den Fehler zwischen einer vorhergesagten Stellung des Helms und der beobachteten Stellung durch das Integrieren von Helm-IMU-Messungen zu minimieren. Die vorhergesagte Stellung des Helms wird unter Verwendung eines bzw. basierend auf einem menschlichen Skelettmodell abgeleitet. Das Ergebnis des nichtlinearen Filters ist die relative Transformation THB(1). z c ( t H ) = z H ( t H ) T H B ( t H ) z B ( t H )
    Figure DE102020215630A1_0005
  • Ein Gestenerkenner 209 kann Software zur Gestenerkennung beinhalten. Die Gestenerkennung kann durch Vergleichen der aktuellen kompensierten Helm-IMU-Messsequenz über ein Fenster w , z ¬ ¬ c ( t H w : t H + w )
    Figure DE102020215630A1_0006
    mit einer Datenbank von Helm-IMU-Bewegungssequenzen für jede Geste durchgeführt werden. Das Fenster kann ein Zeitraum zum Vergleichen von Datenpunkten verschiedener Zeiten über eine festgelegte Zeitdauer sein. Verschiedene Gesten, wie etwa Nicken, Schwenken, Hochschauen, Neigen, Kippen, stationäre Gesten, können in einer statischen Umgebung vortrainiert werden. Somit kann das System eine Option zum Aktivieren eines Lernmodus beinhalten, der einen Benutzer auffordert, solche Gesten (das Nicken, Schwenken, Hochschauen, Neigen, Kippen, stationäre Gesten) nachzuahmen, um die IMU-Daten als eine Basislinie aufzuzeichnen, wenn sich das Motorrad in der statischen Umgebung befindet. Jede Geste kann unter Verwendung einer anderen internen Repräsentation codiert werden. Somit kann jede der Gesten eine assoziierte IMU-Messung über einen Zeitraum aufweisen, um mit dieser Geste assoziiert zu werden. Der Gestenerkenner kann eine Wahrscheinlichkeit für jede Klasse von Geste während der Laufzeit bereitstellen. Es können Bayessches Lernen, Deep Learning oder andere Lernansätze verwendet werden, um ein Erkennungsmodell für erlernte Gesten zu erzeugen. Inferenzen können an diesem Modell vorgenommen werden, um die Geste als assoziierte Wahrscheinlichkeiten zu detektieren und zu identifizieren. Die Klasse mit der höchsten Wahrscheinlichkeit wird als die Ausgabe ausgewählt. Die Ausgabe kann eine Handlung anordnen, die mit jeder Geste assoziiert ist. Beispielsweise kann eine Linksneigung oder Rechtsneigung mit dem Aktivieren eines Blinkers assoziiert sein. Der Helm kann solche Daten drahtlos zu dem Motorrad senden, um das Motorrad aufzufordern, den Befehl zu initiieren. Ein Filter basierend auf der Historie der Detektorausgaben wird verwendet, um Rauschen zu reduzieren und Ausreißerdetektionen durchzuführen.
  • Der Ereignismanager 211 kann die Ausgabe vom Gestenerkennungsblock des Fahrers mit den Informationen von der Motorrad-ECU 213 synchronisieren. Die Motorrad-ECU 213 kann genutzt werden, um Nachrichten von den unterschiedlichen Teilen des Motorrads anzusammeln, sowie Daten und andere Informationen von anderen Sensoren am Motorrad zu sammeln. Der Ereignismanager kann Auslösenachrichten für Benachrichtigungen, Warnungen und Fahrzeuginformationen enthalten, die für den Fahrer angezeigt oder unter Verwendung einer Audiotonausgabe bereitgestellt werden. Der Ereignismanager 211 kann eine Finite-State-Maschine verwenden, deren Übergänge durch die Auslösenachricht von der ECU und die erkannten Gesten bestimmt werden. Somit kann eine andere Geste basierend auf den Nachrichten, die von dem Ereignismanager von dem Motorrad, dem Helm oder einem fahrzeugexternen Server abgerufen werden, getaktet werden. Somit kann eine Geste eines Nickens vom Helm unterschiedliche Ausgabebefehle einschließen, wenn eine Warnung für niedrigen Kraftstoff vorhanden ist, gegenüber der Situation, wenn das Motorrad eine Geschwindigkeitsregelung nutzt. Falls der Fahrer die Gegensprechanlage nutzt, können gleichermaßen Gestenoperationen zum Steuern der Gegensprechanlage verwendet werden, die in anderen Bedingungen zum Abspielen von Audio/Musik verwendet werden könnten.
  • Der Ereignismanager 211 kann die Display-Steuerung 215 ansteuern oder betreiben. Die Display-Steuerung 215 kann Informationen über das Layout für unterschiedliche Informationen enthalten. Beispielsweise kann die Display-Steuerung 215 entscheiden, welche Statusinformationen auf dem Helm-Display gezeigt werden, und auch die Art und Weise, mit der sie bereitgestellt werden müssen. Ferner kann die Display-Steuerung 215 auch die Elemente einer grafischen Benutzeroberfläche (GUI) und die auf dem Smart-Helm-Display angezeigten Animationen speichern. Die Steuerungs- und Navigations-GUI-Elemente können basierend auf den Eingaben von dem Gestenerkenner geändert werden. Beispielsweise kann ein Nicken nach links oder rechts unter Verwendung des Smart-Helms beispielsweise den Navigationsdisplaybildschirm ändern, der auf dem Smart-Helm angezeigt wird, oder kann einen Modus von Audiomodus auf Navigationsmodus ändern. Die Display-Steuerung 215 kann auch ein Profil von Layouts für unterschiedliche Fahrszenarien enthalten, die unter Verwendung von Gesten geändert werden können. Beispielsweise können die Layouts Schnittstellen für Audiobildschirme, Freisprechkommunikation, Fahrzeuginformationen (z. B. Geschwindigkeit, Motordrehzahl, Reifendruck, Temperatur, Kraftstoffeffizienz, Kraftstoffverbrauch, Kraftstoffpegel usw.), Navigationsinformationen usw. beinhalten.
  • Das Smart-Helm-Display 217 kann zum Ausgeben von Objekten auf einem HUD genutzt werden. Der Helm unter anderem eine nach vorne zeigende Kamera, eine nach hinten zeigende Kamera, einen Beschleunigungsmesser, einen unbeständigen Speicher, einen beständigen Speicher, eine Leistungsquelle, einen Datenverbinder, ein HUD, ein globales Positionierungssystem (GPS), einen Prozessor, einen Netzwerk-Sendeempfänger, einen Bluetooth-Sendeempfänger und dergleichen beinhalten. In der Ausführungsform kooperieren die elektronischen Komponenten, um eine Vielfalt von Aufgaben durchzuführen, einschließlich unter anderem Anzeigen von Fahrzeuginstrumentierungsinformationen, automatisches Durchführen von Notfallprozeduren (z. B. Anrufen eines EMS), Präsentieren einer Vorkollisionswarnung, Aufzeichnen von Sensorinformationen (z. B. IMU-Daten) usw. Das Smart-Display 217 kann ein HUD beinhalten, das ein transparentes Display sein kann, das Daten präsentieren kann, ohne dass der Fahrer von einem ausgewählten Blickpunkt wegschauen muss. Das Smart-Display 217 kann innerhalb eines Visiers präsentiert werden (z. B. eingebettetes Display), innerhalb eines Displays nahe dem Helm präsentiert werden und dergleichen. Die Technologie des Displays 217 kann ein Flüssigkristalldisplay (LCD), Flüssigkristall auf Silizium (LCoS: Liquid Crystal on Silicon), digitale Mikro-Spiegel (DMD: Digital Micro-Mirrors), eine organische Leuchtdiode (OLED), einen optischen Wellenleiter, einen Scanning-Laser und dergleichen beinhalten. Das Display 217 kann relevante Informationen in Echtzeit oder fast Echtzeit präsentieren.
  • 3 ist ein beispielhaftes Flussdiagramm eines Smart-Helms, der eine Gestenerkennung ermöglicht. Bei Schritt 301 kann das System sowohl die Helmdaten als auch die Motorraddaten sammeln. Solche Daten können IMU- und Bilddaten vom Helm sowie von dem Motorrad oder einem angetriebenen zweirädrigen Fahrzeug beinhalten. Das System kann die Daten ansammeln, um die Daten später zur Bestimmung zu nutzen, ob eine Geste durch den Benutzer für einen Befehl ausgeführt wurde, oder zur Bestimmung, wie die Bewegung des Motorrads zu kompensieren ist, um eine Geste zu identifizieren. Somit will das System das Identifizieren einer Geste während eine unbeabsichtigten Gegebenheit vermeiden, wenn die Straßenbedingungen oder die Bewegung des Motorrads ein Rucken oder andere plötzliche Bewegung des Helms verursachen. Wie erläutert, können die durch die Motorrad-IMU gesammelten Motorradbewegungsdaten und/oder die Bilddaten genutzt werden, um die Bewegung des Motorrads zu kompensieren.
  • Bei Schritt 303 kann das System die Helmdaten und Motorraddaten analysieren, die von den verschiedenen Sensoren, Kameras und anderen Komponenten gesammelt werden. Das System kann die Daten entweder offline an einem Fernserver (z. B. der Cloud), an dem Helm über den Prozessor des Helms oder an dem Motorrad über den Prozessor des Motorrads analysieren. Daraus kann das System Bewegungsdaten sowohl des Helms als auch des Motorrads sammeln, um zu bestimmen, ob der Benutzer absichtlich versucht, eine Geste zum Aktivieren eines Befehls oder einer Handlung zu erzeugen. Die Analyse kann eine Kompensation der Fahrzeugbewegung beinhalten, wie oben mit Bezug auf 2 besprochen.
  • Bei Schritt 305 kann das System bestimmen, ob die Geste erkannt wurde. Somit kann die Bewegung mit einer Basisliniengestenmessung übereinstimmen oder fast mit dieser übereinstimmen oder eine Bewegungsschwelle überschreiten, um als eine Geste identifiziert zu werden. Das System kann Basislinienmessungen für jede Geste basierend auf der Helm-IMU beinhalten. Das System kann auch Kameradaten von einem Motorrad oder am Helm nutzen, um die Identifizierung der Geste unter Verwendung von Bildern, die mit der Geste verglichen werden können, zu unterstützen. Ferner kann es eine jegliche Bewegung vom Motorrad, wie durch die IMU aufgezeigt, kompensieren.
  • Bei Schritt 307 kann das System die Geste und einen assoziierten Befehl in Bezug auf die Geste identifizieren. Das System kann eine Nachschlagetabelle aufweisen, die jeden assoziierten Befehl als in Beziehung zu jeder Geste stehend speichert. Beispielsweise kann eine Kopfneigung nach rechts einen rechten Blinker aktivieren, und eine Kopfneigung nach links kann einen linken Blinker aktivieren. Die Nachschlagetabelle kann Informationen darüber beinhalten, welcher Befehl zu welcher Steuerung gesendet werden muss. Ferner kann die Nachschlagetabelle auch unterschiedliche Befehle für unterschiedliche Gesten basierend auf der Display-Schnittstelle des Smart-Displays abbilden. Beispielsweise kann ein Kopfnicken während eines Audiomodus den Track ändern, aber ein Kopfnicken während eines Freisprechtelefongesprächs kann eine Anruflautstärke ändern.
  • Bei Schritt 309 kann das System dann den mit der Geste assoziierten Befehl ausgeben. Die Befehle beinhalten Veranlassen, dass ein Prozessor Befehle bezüglich der Geste ausführt, gefolgt von dem Anzeigen jeglicher relevanter Informationen auf dem Display des Smart-Helms. Die Befehle können mit Merkmalen am Fahrzeughelm oder am Motorrad selbst in Beziehung stehen. Ferner können die Befehle erfordern, dass drahtlose Daten oder andere Informationen zwischen dem Helm, dem Motorrad, den fahrzeugexternen Servern, anderen Motorrädern usw. ausgetauscht werden. Informationen können auch auf einem Kombi-Instrument des Motorrads angezeigt werden, um das Ausführen des Befehls zu identifizieren oder einen Status zu aktualisieren.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können lieferbar sein an/implementiert werden durch eine Verarbeitungsvorrichtung, eine Steuerung oder einen Computer, welche bzw. welcher eine beliebige existierende programmierbare elektronische Steuereinheit oder dedizierte elektronische Steuereinheit beinhalten kann. Gleichermaßen können die Prozesse, Verfahren oder Algorithmen als Daten und durch eine Steuerung oder einen Computer ausführbare Anweisungen in vielen Formen gespeichert werden, unter anderem einschließlich Informationen, die auf nichtbeschreibbaren Speichermedien, wie etwa ROM-Vorrichtungen, permanent gespeichert sind, und Informationen, die auf beschreibbaren Speichermedien, wie etwa Disketten, Magnetbändern, CDs, RAM-Vorrichtungen und anderen magnetischen und optischen Medien, änderbar gespeichert sind. Die Prozesse, Verfahren oder Algorithmen können auch in einem ausführbaren Software-Objekt implementiert sein. Alternativ können die Prozesse, Verfahren oder Algorithmen in Gänze oder teilweise unter Verwendung geeigneter Hardwarekomponenten umgesetzt werden, wie etwa anwendungsspezifischer integrierter Schaltungen (ASICs), feldprogrammierbarer Gate-Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderer Hardwarekomponenten oder -vorrichtungen oder einer Kombination von Hardware-, Software- und Firmwarekomponenten.
  • Obgleich oben beispielhafte Ausführungsformen beschrieben sind, ist es nicht beabsichtigt, dass diese Ausführungsformen alle möglichen durch die Ansprüche eingeschlossenen Formen beschreiben. Die in der Beschreibung verwendeten Ausdrücke sind eher Ausdrücke der Beschreibung statt der Beschränkung und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne von dem Gedanken und dem Schutzumfang der Offenbarung abzuweichen. Wie zuvor beschrieben wurde, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung auszubilden, die möglicherweise nicht explizit beschrieben oder veranschaulicht wurden. Obgleich verschiedene Ausführungsformen als Vorteile ergebend oder gegenüber anderen Ausführungsformen oder Implementierungen im Stand der Technik bezüglich einer oder mehrerer erwünschter Charakteristika bevorzugt beschrieben worden sein können, erkennen Durchschnittsfachleute auf dem Gebiet, dass ein oder mehrere Merkmale oder Charakteristika beeinträchtigt werden können, um erwünschte Gesamtsystemattribute zu erzielen, die von der speziellen Anwendung und Implementierung abhängen. Diese Attribute können unter anderem Kosten, Stärke, Haltbarkeit, Lebenszykluskosten, Vermarktungsfähigkeit, Erscheinungsbild, Aufmachung, Größe, Wartbarkeit, Gewicht, Herstellbarkeit, Montagefreundlichkeit usw. beinhalten. Von daher liegen jegliche in dem Maße als weniger wünschenswert als andere Ausführungsformen oder Implementierungen im Stand der Technik bezüglich eines oder mehreren Charakteristiken beschriebene Ausführungsformen nicht außerhalb des Schutzumfangs der Offenbarung und können für gewisse Anwendungen wünschenswert sein.

Claims (20)

  1. Helm, der Folgendes umfasst: einen Sendeempfänger, der dazu ausgelegt ist, Fahrzeugdaten von einem oder mehreren sich an einem Fahrzeug befindlichen Sensoren zu empfangen; eine inertiale Messeinheit (IMU), die dazu ausgelegt ist, Bewegungsdaten des mit einem Fahrer des Fahrzeugs assoziierten Helms zu sammeln; und einen Prozessor in Kommunikation mit dem Sendeempfänger und der IMU, der programmiert ist zum: Empfangen, über den Sendeempfänger, von Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren, Bestimmen einer Geste als Reaktion auf die Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren und die Helmbewegungsdaten von der IMU; und Ausgeben, auf einem Display des Helms, einer Statusschnittstelle bezüglich des Fahrzeugs als Reaktion auf die Geste.
  2. Helm nach Anspruch 1, wobei sowohl die Fahrzeugdaten als auch die Helmbewegungsdaten Zeitstempel beinhalten, die identifizieren, wann die Fahrzeugdaten oder die Helmbewegungsdaten gesammelt wurden.
  3. Helm nach Anspruch 1, wobei der Helm ferner eine Augenverfolgungseinheit beinhaltet, die dazu ausgelegt ist, Augenverfolgungsdaten des Fahrers des Fahrzeugs zu sammeln.
  4. Helm nach Anspruch 1, wobei der Prozessor ferner programmiert ist, die Helmbewegungsdaten unter Verwendung zumindest der Fahrzeugdaten zu kompensieren.
  5. Helm nach Anspruch 5, wobei der Prozessor ferner programmiert ist, unter Verwendung der Zeitstempel von den Fahrzeugdaten und den Helmbewegungsdaten zu kompensieren.
  6. Helm nach Anspruch 1, wobei der Prozessor ferner ausgelegt ist, die Geste als Reaktion auf ein Nicken, Schwenken, Hochschauen, Neigen oder Kippen zu bestimmen.
  7. Helm nach Anspruch 1, wobei der Helm ein Heads-Up-Display beinhaltet, das dazu ausgelegt ist, grafische Bilder auf einem Visier des Helms auszugeben.
  8. Helm nach Anspruch 1, wobei das Fahrzeug ein Motorrad oder eine motorisierte Zweiradeinheit ist.
  9. System, das einen Helm und ein Fahrzeug mit mindestens zwei Rädern beinhaltet, und Folgendes umfasst: einen Helm-Sendeempfänger, der dazu ausgelegt ist, Fahrzeugdaten von einem oder mehreren sich an dem Fahrzeug befindlichen Sensoren zu empfangen; eine inertiale Helm-Messeinheit (Helm-IMU), die dazu ausgelegt ist, mit dem Helm assoziierte Helmbewegungsdaten zu sammeln; eine dem Fahrer zugewandte, sich an dem Fahrzeug befindliche Kamera, die dazu ausgelegt ist, einen Fahrer des Fahrzeugs zu überwachen und Fahrerbilddaten zu sammeln; und einen Prozessor im Helm in Kommunikation mit dem Helm-Sendeempfänger und der Helm-IMU, der programmiert ist zum: Empfangen, über den Sendeempfänger, von Gestendaten von dem Helm-Sendeempfänger und von Fahrzeugbewegungsdaten von einer Fahrzeug-IMU; Bestimmen einer Geste als Reaktion auf die Gestendaten und Kompensieren der Helmbewegungsdaten mit den Fahrzeugdaten; und Ausgeben, auf einem Display eines Helms, einer Handlung als Reaktion auf die Geste.
  10. System nach Anspruch 9, wobei der Prozessor im Helm ferner programmiert ist, einen Lernmodus zu aktivieren, um eine oder mehrere Gesten in einer statischen Fahrzeugumgebung zu identifizieren, wenn sich das Fahrzeug nicht im Betrieb befindet.
  11. System nach Anspruch 11, wobei das Display des Helms ein Heads-Up-Display beinhaltet, das dazu ausgelegt ist, grafische Bilder auf einem Visier des Helms auszugeben.
  12. System nach Anspruch 11, wobei das Fahrzeug ein Motorrad oder eine motorisierte Zweiradeinheit ist.
  13. System nach Anspruch 11, wobei der Prozessor ferner ausgelegt ist, die Geste unter Verwendung zumindest der Fahrerbilddaten zu bestimmen.
  14. System nach Anspruch 11, wobei die Fahrzeugdaten Fahrzeugbewegungsdaten beinhalten, die von einer inertialen Fahrzeug-Messeinheit gesammelt werden.
  15. Helm, der Folgendes umfasst: einen Sendeempfänger, der dazu ausgelegt ist, Fahrzeugdaten von einem oder mehreren sich an einem Fahrzeug befindlichen Sensoren zu empfangen; eine inertiale Messeinheit (IMU), die dazu ausgelegt ist, Helmbewegungsdaten des mit einem Fahrer des Fahrzeugs assoziierten Helms zu sammeln; und einen Prozessor in Kommunikation mit dem Sendeempfänger und der IMU, der programmiert ist zum: Empfangen, über den Sendeempfänger, von Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren; und Bestimmen einer Geste als Reaktion auf die Fahrzeugdaten von dem einen oder den mehreren sich an dem Fahrzeug befindlichen Sensoren und die Helmbewegungsdaten von der IMU; und Ausführen eines Befehls als Reaktion auf die Geste.
  16. Helm nach Anspruch 16, wobei der Prozessor ferner programmiert ist, einen Status des Fahrzeugs auf einem Display des Helms als Reaktion auf die Geste auszugeben.
  17. Helm nach Anspruch 16, wobei das Motorrad eine dem Fahrer zugewandte Kamera beinhaltet, die dazu ausgelegt ist, Bilddaten in der Nähe des Fahrers zu sammeln.
  18. Helm nach Anspruch 16, wobei der Prozessor ferner programmiert ist, den Befehl auszuführen, um eine Funktion am Fahrzeug zu aktivieren.
  19. Helm nach Anspruch 17, wobei der Prozessor ferner programmiert ist, den Befehl über den Sendeempfänger zu dem Fahrzeug zu senden.
  20. Helm nach Anspruch 17, wobei der Prozessor ferner programmiert ist, einen Lernmodus zu aktivieren, um eine oder mehrere Gesten in einer statischen Fahrzeugumgebung zu identifizieren, wenn sich das Fahrzeug nicht im Betrieb befindet.
DE102020215630.1A 2019-12-23 2020-12-10 System und verfahren zur fahrzeugbewussten gestenerkennung in fahrzeugen mit smart-helmen Active DE102020215630B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/725,170 US11500470B2 (en) 2019-12-23 2019-12-23 System and method of vehicle aware gesture recognition in vehicles with smart helmets
US16/725,170 2019-12-23

Publications (2)

Publication Number Publication Date
DE102020215630A1 true DE102020215630A1 (de) 2021-06-24
DE102020215630B4 DE102020215630B4 (de) 2024-06-06

Family

ID=76205936

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020215630.1A Active DE102020215630B4 (de) 2019-12-23 2020-12-10 System und verfahren zur fahrzeugbewussten gestenerkennung in fahrzeugen mit smart-helmen

Country Status (4)

Country Link
US (1) US11500470B2 (de)
JP (1) JP2021098923A (de)
CN (1) CN113080560A (de)
DE (1) DE102020215630B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117441980A (zh) * 2023-12-20 2024-01-26 武汉纺织大学 一种基于多传感信息智能计算的智能头盔系统及方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3839811B1 (de) * 2019-12-18 2024-03-13 Tata Consultancy Services Limited Systeme und verfahren zur gestenerkennung basierend auf shapelet-zerlegung unter verwendung von radar
CN116142364A (zh) * 2023-02-17 2023-05-23 昆明理工大学 一个电动自行车转弯防滑预警系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9370302B2 (en) 2014-07-08 2016-06-21 Wesley W. O. Krueger System and method for the measurement of vestibulo-ocular reflex to improve human performance in an occupational environment
KR101518904B1 (ko) 2013-09-23 2015-05-11 현대자동차 주식회사 차량용 조작 장치
US10086894B2 (en) 2015-09-08 2018-10-02 Brake Free Technologies Safety device
WO2018006332A1 (zh) * 2016-07-07 2018-01-11 深圳企管加企业服务有限公司 一种基于移动终端的智能门禁管理方法及系统
US10482669B2 (en) * 2016-09-23 2019-11-19 Apple Inc. Augmented virtual display
US10186065B2 (en) * 2016-10-01 2019-01-22 Intel Corporation Technologies for motion-compensated virtual reality
CN108572719A (zh) 2017-03-13 2018-09-25 北京杜朗自动化系统技术有限公司 利用体态识别的智能头盔控制方法及系统
US11099558B2 (en) * 2018-03-27 2021-08-24 Nvidia Corporation Remote operation of vehicles using immersive virtual reality environments
US10867218B2 (en) * 2018-04-26 2020-12-15 Lear Corporation Biometric sensor fusion to classify vehicle passenger state
US10665067B2 (en) * 2018-06-15 2020-05-26 Immersion Corporation Systems and methods for integrating haptics overlay in augmented reality
WO2020069460A1 (en) * 2018-09-28 2020-04-02 Bounce Imaging, Inc. Panoramic camera and image processing systems and methods
US11595878B2 (en) * 2018-10-24 2023-02-28 Google Llc Systems, devices, and methods for controlling operation of wearable displays during vehicle operation
US11102654B2 (en) * 2018-11-01 2021-08-24 Polaris Industries Inc. Connected helmet system and method of operating the same
US11638130B2 (en) * 2018-12-21 2023-04-25 Qualcomm Incorporated Rendering of sounds associated with selected target objects external to a device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117441980A (zh) * 2023-12-20 2024-01-26 武汉纺织大学 一种基于多传感信息智能计算的智能头盔系统及方法
CN117441980B (zh) * 2023-12-20 2024-03-22 武汉纺织大学 一种基于多传感信息智能计算的智能头盔系统及方法

Also Published As

Publication number Publication date
US11500470B2 (en) 2022-11-15
CN113080560A (zh) 2021-07-09
JP2021098923A (ja) 2021-07-01
US20210191518A1 (en) 2021-06-24
DE102020215630B4 (de) 2024-06-06

Similar Documents

Publication Publication Date Title
DE102020215630B4 (de) System und verfahren zur fahrzeugbewussten gestenerkennung in fahrzeugen mit smart-helmen
US11127373B2 (en) Augmented reality wearable system for vehicle occupants
CN106657717B (zh) 一种用于在头戴式显示设备上显示图像的方法
US20190166354A1 (en) System and method for dynamic in-vehicle virtual reality
EP3519877B1 (de) Technologien für bewegungskompensierte virtuelle realität
US8963742B1 (en) Head-up display/synthetic vision system predicted flight path depiction
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
JP5030142B2 (ja) 集中度評価装置及びこれを用いた車両用表示装置
DE102020215667A1 (de) System und verfahren zum überwachen eines kognitiven zustands eines fahrers eines fahrzeugs
US11610342B2 (en) Integrated augmented reality system for sharing of augmented reality content between vehicle occupants
US10559135B1 (en) Fixed holograms in mobile environments
DE102014206626A1 (de) Müdigkeitserkennung mithilfe von Datenbrillen (HMD)
US11110933B2 (en) Driving support device, wearable device, driving support system, driving support method, and computer-readable recording medium
DE102018201509A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102020213102A1 (de) Einrichtung und system bezüglich eines intelligenten helms
CN112513784B (zh) 自动隐藏显示内容的、用于车辆的数据眼镜
WO2021117606A1 (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
US20210201854A1 (en) Mobile calibration of displays for smart helmet
EP3390132A1 (de) Verfahren und system zur darstellung einer bildinformation für einen fahrer eines fahrzeugs, insbesondere für einen zweiradfahrer
DE102019131640A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
US11948227B1 (en) Eliminating the appearance of vehicles and/or other objects when operating an autonomous vehicle
US20230230503A1 (en) System for tracking and displaying the position of a motor vehicle and of a user

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative