DE102016120945B4 - Schnittstelle am Fahrzeug für am Körper tragbare Geräte - Google Patents

Schnittstelle am Fahrzeug für am Körper tragbare Geräte Download PDF

Info

Publication number
DE102016120945B4
DE102016120945B4 DE102016120945.7A DE102016120945A DE102016120945B4 DE 102016120945 B4 DE102016120945 B4 DE 102016120945B4 DE 102016120945 A DE102016120945 A DE 102016120945A DE 102016120945 B4 DE102016120945 B4 DE 102016120945B4
Authority
DE
Germany
Prior art keywords
vehicle
user
wearable device
gesture
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016120945.7A
Other languages
English (en)
Other versions
DE102016120945A1 (de
Inventor
Joseph F. Szczerba
Roy J. Mathieu
Roger L. HERSBERGER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/341,738 external-priority patent/US10019070B2/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102016120945A1 publication Critical patent/DE102016120945A1/de
Application granted granted Critical
Publication of DE102016120945B4 publication Critical patent/DE102016120945B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Fahrzeugtransportsystem zur Bereitstellung einer Rückmeldung für ein von einem Benutzer getragenes am Körper tragbares Gerät (300, 521, 522, 523, 524, 571, 702), umfassend:eine hardwarebasierte Verarbeitungseinheit (106);ein hardwarebasiertes computerlesbares Speichergerät (104), umfassend:ein Modul (204) zur Identifikation einer Fahrzeugfunktion, das, wenn es von der Verarbeitungseinheit (106) ausgeführt wird:feststellt, dass eine Auslösebedingung aufgetreten ist; undzum Antworten auf die Auslösebedingung eine Kommunikationsfunktion des am Körper tragbaren Geräts (300, 521, 522, 523, 524, 571, 702) bestimmt, was umfasst, dass ein Fahrzeugsignal an das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) übertragen wird; undein Aktivierungsmodul (214), das, wenn es von der Verarbeitungseinheit (106) ausgeführt wird, das Übertragen des Fahrzeugsignals an das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) einleitet;wobei die Auslösebedingung umfasst, dass ein Benutzer, der das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) am Körper trägt, einen Teil des Benutzerkörpers in eine Vorab-Anordnung für Gesten bewegt, in welcher der Benutzer das Fahrzeug (102) nicht mit dem Körperteil kontaktiert, wobei die Vorab-Anordnung umfasst, dass der Benutzer die Hand hebt und zu einem Heads-Up-Display (HUD) zeigt; undwobei das Fahrzeugsignal ausgestaltet ist, um zu veranlassen, dass das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) betätigt wird, um den Benutzer zu informieren, dass die Vorab-Anordnung für Gesten von dem Fahrzeugtransportsystem erkannt worden ist.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft allgemein Interaktionen zwischen Fahrzeug und Benutzer und insbesondere Systeme und Verfahren, welche Interaktionen zwischen Fahrzeug und Benutzer unter Verwendung eines vom Benutzer am Körper tragbaren Geräts (wearable device) erweitern.
  • HINTERGRUND
  • Moderne Fahrzeuge weisen viele elektronische Merkmale auf, welche die Bequemlichkeit und Sicherheit fördern. Ein Beispiel dafür ist das Aufsperren des Fahrzeugs, das durch einen Knopfdruck an einem tragbaren Schlüsselanhänger oder an einem am Fahrzeug angebrachten Tastenfeld ausgelöst werden kann. Benutzer sparen Zeit dadurch, dass sie keinen herkömmlichen Schlüssel in das Fahrzeug einstecken müssen.
  • Ein weiteres neues Fahrzeugmerkmal sind durch Fußstoß aktivierte Heckklappen, bei denen ein oder mehrere Sensoren an der Unterseite des Fahrzeugs das Öffnen der Heckklappe auslösen, wenn sie den Fuß eines Benutzers erfassen, der unter eine hintere Stoßstange des Fahrzeugs geschoben wird.
  • Diese Entwicklungen haben das Fahrzeug zwar bequemer gemacht, jedoch gibt es viele Möglichkeiten, um Interaktionen zwischen Fahrzeug und Benutzer zu verbessern.
  • Die Druckschrift DE 10 2006 011 704 A1 offenbart eine Vorrichtung zum Steuern eines Fahrzeugbetriebs aus der Ferne, die eine Aktion eines Fahrzeugbedieners empfängt und ein erstes Signal, das der Aktion entspricht, drahtlos an ein Fahrzeug sendet. Die Vorrichtung empfängt ein zweites Signal vom Fahrzeug, das eine Rückmeldung der Aktion enthält, und gibt diese Rückmeldung an den Bediener aus.
  • In der Druckschrift US 8 159 324 B2 ist ein tragbares elektronisches Gerät zum Steuern und Verwalten von Funktionen und/oder Daten eines Fahrzeugs offenbart, wobei das elektronische Gerät eine Anzeige und mehrere Steuertasten aufweist, um eine Reihe von Fahrzeugfunktionen anzuzeigen und durch die Tasten zu aktivieren.
  • Die Druckschrift US 2015 / 0 116 078 A1 offenbart einen erweiterten Fahrzeug-Schlüsselanhänger mit einem Beschleunigungssensor, der eine Beschleunigung des Schlüsselanhängers erfasst und an einen Controller des Schlüsselanhängers überträgt, wobei der Schlüsselanhänger eine Fahrzeugfunktion unter Verwendung der Ausgabe des Beschleunigungssensors steuert.
  • In der Druckschrift EP 2 733 581 A2 ist ein am Körper tragbares elektronisches Gerät mit einem Sensor und einem Prozessor offenbart, wobei der Prozessor durch den Sensor eine Bewegung zumindest eines Teils eines Arms eines Benutzers erfasst, an dem das elektronische Gerät angeordnet ist, und darauf basierend eine von dem Benutzer ausgeführte Geste erfasst.
  • Die Druckschrift US 2015 / 0 120 151 A1 offenbart ein Fahrzeugsystem zum Aktivieren einer Fahrzeugkomponente, um Zugang zu einem Fahrzeug zu erhalten, bei dem ein erster Empfänger im Fahrzeug ein Funksignal mit ersten Identifikationsdaten eines elektronischen Geräts empfängt. Wenn zweite Identifikationsdaten, die im Fahrzeug gespeichert sind, mit den ersten Identifikationsdaten übereinstimmen, wird geprüft, ob ein passender Fahrzeugzugangsschlüssel vorhanden ist.
  • In der Druckschrift WO 2013 / 053 776 A2 ist eine Fernbedingung für ein Parkassistenzsystem offenbart, wobei die Fernbedingung Bedienelemente zum Steuern des Ein- und Ausparkens aufweist und in einer bidirektionalen drahtlosen Kommunikation mit dem Parkassistenzsystem steht, um Hindernisinformationen anzuzeigen und das Ein- und Ausparken zu steuern.
  • ZUSAMMENFASSUNG
  • Die Systeme und Verfahren der vorliegenden Offenbarung ermöglichen es, dass Benutzer mit einem Fahrzeug unter Verwendung eines am Körper tragbaren Geräts interagieren.
  • In verschiedenen Ausführungsformen ermöglichen die Systeme dem Benutzer, Fahrzeugrückmeldungen mit Hilfe des am Körper tragbaren Geräts zu empfangen. Eine Rückmeldung umfasst beispielsweise eine haptische Rückmeldung, die mit Hilfe des am Körper tragbaren Geräts bereitgestellt wird und eine korrespondierende Fahrzeugfunktion anzeigt, etwa Fahranweisungen.
  • Der Begriff intelligent bzw. smart kann verwendet werden, um am Körper tragbare Geräte der vorliegenden Technologie zu bezeichnen. Der Begriff kann eine Vielfalt von Eigenschaften bezeichnen, etwa einfach, dass das am Körper tragbare Gerät eine elektronische Struktur und Funktionalität aufweist. In einigen Fällen ist das Gerät deshalb intelligent, weil es mit einem Computer ausgestattet ist, oder weil es einen Controller oder Verarbeitungsmerkmale aufweist und/oder weil es ein Speichergerät aufweist, das Anweisungen enthält, die von einem Prozessor ausgeführt werden können.
  • Beispielhafte intelligente am Körper tragbare Geräte umfassen eine Sonnenbrille oder eine andere Brille, einen Armreif, einen Ring, einen Manschettenknopf, einen Gürtelanhänger, einen Anhänger am Schuh oder Stiefel (FußbekleidungsAnhänger), Geräte an der Beinbekleidung, Geräte an der Armbekleidung, Kleidung allgemein, Uhren, Ohrringe, Ohrstöpsel, Ohrhörer, ein Headset, einen Hut oder andere Geräte an der Kopfbedeckung, und einen Ring.
  • Eine intelligente Sonnenbrille, etwa diejenige, die in 7 gezeigt ist, kann beispielsweise ausgestaltet sein, um an einer rechten Seite mit einer niedrigen Frequenz und/oder einer niedrigen Amplitude zu vibrieren, wenn in Übereinstimmung mit einem Navigationssystem, das in der Sonnenbrille oder im Fahrzeug betrieben wird, bald ein Abbiegen nach rechts benötigt wird, und um mit einer höheren Frequenz und/oder Amplitude zu vibrieren, wenn die Abbiegestelle näherkommt. Ein intelligentes am Kopf tragbares Gerät mit oder ohne Brille kann einen oder zwei Ohrlautsprecher (z.B. Ohrstöpsel oder Ohrringe) enthalten, wie in 7 gezeigt ist.
  • Wie gezeigt kann das Fahrzeug feststellen, dass der Benutzer auf etwas hingewiesen werden soll, das einen Fokus auf der rechten oder linken Seite aufweist. In einigen Ausführungsformen wird die Ausgabe an den Benutzer in einem zweckdienlichen räumlichen Kontext gehandhabt oder bereitgestellt, etwa indem eine Vibration oder ein Ton an einen rechten Abschnitt der Brille an der Schläfe [engl.: template] geliefert wird, wenn die Gefahr oder Situation - z.B. die Richtung des laut Navigation benötigten Abbiegens - auf die hingewiesen wird, rechts vom Benutzer liegt.
  • Die Anordnung kann außerdem einen räumlichen Kontext abgesehen von links/rechts in Betracht ziehen, etwa vorne/hinten. Das Fahrzeugsignal kann ausgestaltet sein, um dann, wenn sich eine Gefahr hinter dem Auto befindet, zu veranlassen, dass eine am Körper tragbare Brille eine Vibration an den Schläfen bereitstellt und um zu veranlassen, dass die Gestellabschnitte die Vibration bereitstellen, wenn die Gefahr voraus liegt.
  • Analog können beispielsweise intelligente Ohrringe oder intelligente Ohrstöpsel unabhängig davon, ob sie Teil der Brille sind, ausgestaltet sein, um eine Vibration auf die gleiche Weise bereitzustellen.
  • Oder intelligente Ohrringe oder intelligente Ohrstöpsel können ausgestaltet sein, um in Verbindung mit Navigationsoperationen Geräusche bereitzustellen, etwa leise Piepstöne mit einem geringen Tempo und/oder geringer Lautstärke, wenn bald ein Abbiegen nach rechts benötigt wird, und sie können mit einem höheren Tempo und/oder einer höheren Lautstärke ertönen, wenn die Abbiegestelle näherkommt.
  • Zusätzlich zu haptischen und akustischen Ausgaben an den Benutzer mit Hilfe des am Körper tragbaren Geräts können das am Körper tragbare Gerät und das Fahrzeug ausgestaltet sein, um für den Benutzer andere Typen von Kommunikationen bereitzustellen, etwa visuelle. Als Beispiel kann eine intelligente Brille ein Licht oder eine Meldung auf dem Brillenglas präsentieren. Bei betrachteten Ausführungsformen kann die Ausgabe Text, Bilder, Symbole oder dergleichen enthalten, die beispielsweise mit Hilfe eines Brillenglases von einer intelligenten Brille oder von einem intelligenten Armreif bereitgestellt werden.
  • In einigen Ausführungsformen kann das intelligente am Körper tragbare Gerät verwendet werden, um dem Benutzer zu bestätigen, dass eine von dem Benutzer an das Fahrzeug gegebene Anweisung, etwa durch eine Geste, am Fahrzeug tatsächlich angekommen ist. Beispielsweise kann eine haptische Rückmeldung bereitgestellt werden, um anzuzeigen, ob eine Eingabe vom Benutzer an das Fahrzeug, etwa eine Geste von einem im Fahrzeug befindlichen Benutzer von dem Fahrzeug korrekt empfangen wurde.
  • Der Begriff Geste wird nicht in einer eingeschränkten Bedeutung verwendet und er kann eine beliebige Bewegung des Benutzers umfassen.
  • Die Benutzergeste, etwa eine Geste zum Wählen einer Infotainment-Anwendung des Fahrzeugs, kann von dem Fahrzeug erfasst werden, oder von dem am Körper tragbaren Gerät erfasst und dann an das Fahrzeug übermittelt werden. Und das Fahrzeug kann an das am Körper tragbare Gerät ein Signal zurückgeben, welches den Empfang der Geste bestätigt und das am Körper tragbare Gerät betätigt, um die Bestätigung (z.B. akustisch, haptisch) an den Benutzer zu liefern. Diese Typen von Ausführungsformen können insofern hilfreich sein, als vermieden wird, dass sich der Benutzer fragt, ob seine Geste von dem Fahrzeug registriert worden ist, und um so zu vermeiden, dass der Benutzer meint, dass er die Geste immer wieder wiederholen muss.
  • Als Beispiel kann ein/e intelligente/r/s Armreif, Ring, Armband, Manschettenknopf, Halskette, Hut, Hemd oder Uhr, etwa die Beispiele für den intelligenten Armreif, das intelligente Armband oder die intelligente Uhr von 3 und 6 ausgestaltet sein, um in Ansprechen auf ein Fahrzeugsignal zu vibrieren, was anzeigt, dass die Geste des Benutzers, die ausgeführt wurde, um eine Benutzeranweisung an das Fahrzeug zu übermitteln, von dem Fahrzeug tatsächlich empfangen wurde und von diesem gerade verarbeitet wird.
  • Das am Körper tragbare Gerät ist in verschiedenen Implementierungen ausgestaltet, um an Kommunikationen über kurze, mittlere und/oder lange Distanzen teilzunehmen. Das am Körper tragbare Gerät kann mit Geräten wie etwa dem Fahrzeug oder mit anderen drahtlosen Vorrichtungen, etwa Mobilfunkmasten, Satelliten, Signalfeuern am Straßenrand usw. drahtlos kommunizieren. In einigen Fällen greift das am Körper tragbare Gerät beim Betrieb des Systems auf beliebige einer Vielzahl von Kommunikationsnetzwerken zu, etwa auf das Internet.
  • Kommunikationen können an ein entferntes System gesendet oder von diesem empfangen werden, etwa an eine entfernte Anruf- oder Steuerungszentrale wie das OnStar®-System. Diese Zentralen weisen Möglichkeiten zum Interagieren mit Mitgliedern eines Fahrzeugagententeams und Mitgliedern ihrer Benutzerteams über Kommunikationen über eine weite Entfernung auf, etwa Satelliten- oder Mobilfunkkommunikation. OnStar ist eine eingetragene Marke der OnStar Corporation, die eine Tochter der General Motors Company ist.
  • Das Fahrzeug ist in einigen Ausführungsformen ausgestaltet, um eine Bewegung des am Körper tragbaren Geräts zu erfassen und darauf zu antworten, welche ausgeführt wird, während das Gerät gerade außerhalb des Fahrzeugs bewegt wird, und auch eine Bewegung, die innerhalb des Fahrzeugs ausgeführt wird.
  • In verschiedenen Ausführungsformen ist das Fahrzeug ausgestaltet, um die Anwesenheit eines am Körper tragbaren Geräts, das von dem Benutzer am Körper getragen wird, zu erfassen oder um die Anwesenheit auf der Grundlage von Signalen zu bestimmen, die es davon empfängt.
  • Das am Körper tragbare Gerät ist in einigen Ausführungsformen ausgestaltet, um auf der Grundlage von Benutzerbewegungen, die das am Körper tragbare Gerät einbeziehen, verschiedene Signale an das Fahrzeug zu senden. Eine erste Bewegung eines Benutzerarms, der eine intelligente Uhr trägt, kann bewirken, dass die intelligente Uhr in Ansprechen auf die erste Bewegung ein erstes korrespondierendes Signal an das Fahrzeug sendet - um beispielsweise eine spezielle Infotainment-Anwendung am Fahrzeug zu wählen - und eine zweite Bewegung des Benutzerarms mit der intelligenten Uhr kann veranlassen, dass die Uhr in Ansprechen auf die zweite Bewegung an das Fahrzeug ein zweites korrespondierendes Signal sendet, das sich von dem ersten Signal unterscheidet, um beispielsweise die Auswahl eines speziellen Medienstücks einzuleiten, das über die Infotainment-Anwendung, die durch die erste Bewegung gewählt wurde, verfügbar ist.
  • In einigen Ausführungsformen ist das Fahrzeug ausgestaltet, um Bewegungen des Körpers des Benutzers, etwa ohne Einschränkung Hand- oder Armgesten, auch ohne die Verwendung eines intelligenten am Körper tragbaren Geräts zu erfassen und darauf zu antworten. Das Fahrzeug kann ausgestaltet sein, um die Benutzerbewegung auf eine beliebige von verschiedenen geeigneten Weisen zu erfassen, etwa durch Verwendung einer Fahrzeugkamera und/oder eines Radars und/oder anderer Sensoren. Das Fahrzeug kann ausgestaltet sein, um in Ansprechen auf eine erste Bewegung einer Benutzerhand oder eines Benutzerarms beispielsweise zu veranlassen, dass das Fahrzeug eine erste korrespondierende Funktion ausführt, und um in Ansprechen auf eine zweite Bewegung der Hand oder des Arms des Benutzers eine zweite korrespondierende Funktion auszuführen.
  • Die vorliegende Technologie fördert eine bequemere und sicherere Verwendung des Fahrzeugs. Das System kann ausgestaltet sein, um den Benutzer unmittelbar, in Echtzeit, mit Hilfe einer Betätigung eines am Körper tragbaren Geräts - z.B. einer Vibration - zu benachrichtigen, um zu bestätigen, dass eine oder mehrere Gesten des Benutzers - etwa das Zeigen auf eine HVAC-Temperaturkomponente (erste Bewegung) und dann das Wischen nach unten (zweite Bewegung) auf eine niedrigere Temperatur - von dem Fahrzeug empfangen und erkannt wurden. In diesem Szenario fördert die Technologie die Sicherheit, indem ein Bedarf oder eine Neigung des Benutzers vermieden wird, die Eingabebewegung immer wieder zu wiederholen, wie es bei Benutzern üblich ist, wenn sie nicht sicher sind, ob ihre Eingabe von einer elektronischen Vorrichtung empfangen worden ist.
  • In einer betrachteten Ausführungsform wird eine Kommunikation an den Benutzer bereitgestellt, um dem Benutzer zu bestätigen, dass er das Gestenerkennungsprogramm des am Körper tragbaren Geräts und/oder des Fahrzeugs eingeschaltet hat. Bei dem Beispiel mit einem Radio wird das System beispielsweise, nachdem ein Benutzer seinen Finger oder seine Hand auf das Radio zeigen lässt, und eventuell nachdem er ihn/sie eine oder zwei Sekunden lang allgemein in dieser Stellung gehalten hat (abhängig von der Systemprogrammierung oder der dazu hinzugefügten Benutzervorliebe) eine sanfte Ausgabe ausgeben - beispielsweise eine Vibration, einen Ton usw. - um den Benutzer darauf hinzuweisen, dass die Gestenerkennung aktiv ist und seine Hand erkannt hat. Dadurch fährt der Benutzer fort, die Geste zuversichtlich auszuführen, da er weiß, dass das System seine Geste überwacht.
  • In verschiedenen Ausführungsformen fördert die Technologie die Sicherheit, indem sie erlaubt, dass der Benutzer auf weniger umständliche Weisen kommunizieren kann, etwa indem der Benutzer ohne seine Augen von der Straße abwenden zu müssen, in der Lage ist, um (1) allgemein, aber ausreichend zu gestikulieren, um mit dem Fahrzeug zum Geben von Anweisungen zu kommunizieren, (2) um Anweisungen zu empfangen, etwa eine Navigationsrückmeldung, die anzeigt, dass bald ein Abbiegen nach links oder rechts benötigt wird, oder dass eine Abbiegestelle verpasst worden ist, und (3) um eine Bestätigung eines Systemempfangs einer Benutzeranweisung zu empfangen, die dem Fahrzeug durch eine Geste oder auf andere Art bereitgestellt wurde.
  • Andere Aspekte der vorliegenden Erfindung werden sich teilweise ergeben und teilweise hier nachstehend dargelegt.
  • Figurenliste
    • 1 veranschaulicht auf schematische Weise eine Computerarchitektur in Übereinstimmung mit verschiedenen Ausführungsformen der vorliegenden Offenbarung.
    • 2 zeigt beispielhafte Speicherkomponenten der Computerarchitektur von 1.
    • 3 zeigt ein beispielhaftes am Körper tragbares Gerät, das von einem Benutzer am Körper getragen wird.
    • 4 zeigt ein beispielhaftes Verfahren in Übereinstimmung mit Ausführungsformen der vorliegenden Technologie.
    • 5 zeigt Eingaben und Ausgaben eines beispielhaften Systems in Übereinstimmung mit Ausführungsformen der vorliegenden Technologie.
    • 6 zeigt eine beispielhafte Implementierung mit einem am Handgelenk angebrachten am Körper tragbaren Gerät.
    • 7 zeigt eine weitere beispielhafte Implementierung mit einer intelligenten Sonnenbrille.
  • Die Figuren sind nicht unbedingt maßstabsgetreu und einige Merkmale können hervorgehoben oder minimiert sein, um Details von speziellen Komponenten zu zeigen.
  • GENAUE BESCHREIBUNG
  • I. Einführung
  • Wie vorgeschrieben werden hier detaillierte Ausführungsformen der vorliegenden Offenbarung offenbart. Die offenbarten Ausführungsformen sind nur Beispiele, die in verschiedenen und alternativen Formen ausgeführt werden können, und Kombinationen daraus. Die Begriffe zum Beispiel, beispielhaft und ähnliche Begriffe bezeichnen, so wie sie hier verwendet werden, umfassend Ausführungsformen, die als Veranschaulichung, Beispiel, Modell oder Muster dienen.
  • In einigen Instanzen wurden gut bekannte Komponenten, Systeme, Materialien oder Verfahren nicht im Detail beschrieben, um ein Verschleiern der vorliegenden Offenbarung zu vermeiden. Spezielle hier offenbarte strukturelle und funktionale Details dürfen daher nicht als Beschränkung interpretiert werden, sondern nur als Grundlage für die Ansprüche und als repräsentative Grundlage zur Unterrichtung des Fachmanns darüber, wie die vorliegende Offenbarung zu verwenden ist.
  • Die Systeme der vorliegenden Offenbarung enthalten speziell ausgestaltete Fahrzeugvorrichtungen und in einigen Ausführungsformen speziell ausgestaltete am Körper tragbare Benutzergeräte.
  • Die Fahrzeugvorrichtungen enthalten beliebige ausgewählte Sensoren und/oder Kommunikationsempfänger zum Empfangen von Benutzereingaben, speziell programmierte Berechnungskomponenten zur Bestimmung von Fahrzeugfunktionen, die mit Benutzereingaben korrespondieren, und Ausgabekomponenten zum Aktivieren der identifizierten Fahrzeugfunktionen.
  • Am Körper tragbare Geräte sind ausgestaltet, um Fahrzeugsignale von dem Fahrzeug zu empfangen, und sie kommunizieren entsprechend mit dem Benutzer, etwa durch Bereitstellen einer haptischen Kommunikation mit dem Benutzer. Die Fahrzeugvorrichtung ist ausgestaltet, um die Fahrzeugsignale an das am Körper tragbare Gerät zu liefern.
  • Das am Körper tragbare Gerät ist in einigen Ausführungsformen ausgestaltet, um eine Benutzergeste zu erfassen und um ein korrespondierendes Benutzergestensignal an das Fahrzeug zu senden. In einigen Ausführungsformen ist das Fahrzeug ausgestaltet, um Signale von dem am Körper tragbaren Gerät zu empfangen, etwa das Benutzergestensignal, das eine Geste anzeigt, die von dem Benutzer ausgeführt wurde.
  • Durch die vorliegende Technologie wird eine bequemere und sicherere Benutzung des Fahrzeugs gefördert. Die Sicherheit wird beispielsweise dadurch gefördert, dass der Benutzer unmittelbar in Echtzeit (beispielsweise durch eine Vibration des am Körper tragbaren Geräts) darüber benachrichtigt wird, dass seine Geste (z.B. das Zeigen auf eine HVAC-Temperaturkomponente) von dem Fahrzeug empfangen und erkannt worden ist, wodurch ein Bedürfnis oder eine Neigung des Benutzers zur Wiederholung der Eingabeaktion (z.B. der Geste) vermieden wird, was üblich ist, wenn sich ein Benutzer nicht sicher ist, ob seine Eingabe von dem Fahrzeug empfangen worden ist. Als weiteres Beispiel kann die Sicherheit auch dadurch gefördert werden, dass der Benutzer seine Augen nicht von der Straße abwenden muss, um eine Rückmeldung zu erhalten, etwa eine Navigationsrückmeldung, die anzeigt, dass ein Abbiegen nach links oder rechts bald benötigt wird, oder dass eine Abbiegestelle versäumt worden ist.
  • Obwohl die vorliegende Technologie hier primär in Verbindung mit Kraftfahrzeugen beschrieben ist, ist die Technologie nicht durch diesen Fokus begrenzt. Die Konzepte können auf eine große Vielfalt von Anwendungen erweitert werden, etwa Flugzeuge, Wasserfahrzeuge, Produktionsmaschinen oder Geräte, Haushaltsanwendungen, dergleichen und weitere.
  • Es werden nun zunächst beispielhafte Systeme in Verbindung mit 1 und 2 beschrieben und schematisch gezeigt.
  • II. Fahrzeugeigene Rechenarchitektur - Fig. 1
  • Mit Bezug nun auf die Figuren und speziell auf die erste Figur, veranschaulicht 1 ein computerbasiertes System 100, etwa einen On-Board-Computer (OBC) eines Fahrzeugs 102, etwa eines Kraftfahrzeugs.
  • In einer betrachteten Ausführungsform ist ein Teil oder das gesamte System 100 bei einer entfernten Anruf- oder Steuerungszentrale wie dem erwähnten OnStar®-System positioniert.
  • Wie nachstehend weiter beschrieben wird, kann das computerbasierte System 100 von 1 auch ein Modell für andere elektronische Systeme der vorliegenden Technologie sein, etwa für ein Rechensystem eines von einem Benutzer am Körper tragbaren Geräts.
  • Im vorliegenden Abschnitt wird das computerbasierte System 100 primär als OBC beschrieben. Der OBC 100 kann eine primäre Recheneinheit des Fahrzeugs 102, etwa eine elektronische Steuerungseinheit (ECU) des Fahrzeugs 102, oder ein Teil davon sein.
  • Der OBC 100 enthält ein computerlesbares Speichermedium oder ein Datenspeichergerät 104 und eine Hardwareverarbeitungseinheit 106, die mit dem computerlesbaren Speichergerät 104 mit Hilfe einer Kommunikationskopplung 108, wie etwa mit einem Computerbus, verbunden ist oder verbindbar ist.
  • Die Hardwareverarbeitungseinheit 106 kann mehrere Prozessoren enthalten oder daraus bestehen, welche verteilte Prozessoren oder parallele Prozessoren in einer einzigen Maschine oder in mehreren Maschinen enthalten können. Die Hardwareverarbeitungseinheit kann zur Unterstützung einer virtuellen Verarbeitungsumgebung verwendet werden. Die Hardwareverarbeitungseinheit kann eine Zustandsmaschine, eine anwendungsspezifische integrierte Schaltung (ASIC), ein programmierbares Gatearray (PGA), das ein Feld-PGA umfasst, oder eine Zustandsmaschine enthalten. Bezugnahmen hierin darauf, dass die Hardwareverarbeitungseinheit einen Code oder Anweisungen ausführt, um Operationen, Handlungen, Aufgaben, Funktionen, Schritte oder dergleichen auszuführen, können umfassen, dass die Hardwareverarbeitungseinheit die Operationen direkt ausführt und/oder dass ermöglicht wird, dass sie mit einem anderen Gerät oder einer anderen Komponente zusammenarbeitet oder dieses lenkt, um die Operationen auszuführen.
  • In verschiedenen Ausführungsformen ist das Datenspeichergerät ein beliebiges aus einem flüchtigen Medium, einem nichtflüchtigen Medium, einem ausbaubaren Medium und einem nicht ausbaubaren Medium. Der Begriff computerlesbare Medien und Varianten desselben bezeichnet, so wie er in der Beschreibung und den Ansprüchen verwendet wird, konkrete Speichermedien. Die Medien können ein Gerät sein und sie können nicht transitorisch sein.
  • In einigen Ausführungsformen enthalten die Speichermedien flüchtige und/oder nichtflüchtige, ausbaubare und/oder nicht ausbaubare Medien, wie zum Beispiel Speicher mit wahlfreiem Zugriff (RAM), Festwertspeicher (ROM), elektrisch löschbaren, programmierbaren Festwertspeicher (EEPROM), einen Halbleiterspeicher oder eine andere Speichertechnologie, eine CD-ROM, eine DVD, eine BLU-RAY oder einen anderen Speicher mit optischen Scheiben, ein Magnetband, einen Magnetplattenspeicher oder andere magnetische Speichergeräte.
  • Das Datenspeichergerät 104 enthält ein oder mehrere Speichermodule zum Speichern von computerlesbaren Anweisungen, die von dem Prozessor 106 abgearbeitet werden können, um die hier beschriebenen Funktionen auszuführen.
  • Beispielsweise enthält das Datenspeichergerät 104 teambasierte Module 110 einer Fahrzeug-Maschinen-Umgebung. In einigen Ausführungsformen enthält das Datenspeichergerät 104 außerdem Zubehör- oder Unterstützungskomponenten 112, etwa zusätzliche Software und/oder Daten, die das Ausführen der Verfahren der vorliegenden Offenbarung unterstützen.
  • Das Fahrzeug 102 enthält außerdem ein Kommunikations-Teilsystem 114 zur Kommunikation mit externen Geräten. Das Fahrzeug 102 kommuniziert mit Hilfe des Kommunikations-Teilsystems 114 beispielsweise mit dem Internet, um Medien zur Navigation oder zum Infotainment zu beschaffen, welche in verschiedenen Implementierungen von dem Benutzer mit Hilfe einer Geste ausgewählt werden können, unabhängig davon, ob mit Hilfe einer Bewegung eines am Körper getragenen Geräts oder einfach durch eine Körperbewegung.
  • In verschiedenen Ausführungsformen können die Geräte außerhalb des Fahrzeugs oder die externen Geräte, mit denen der OBC 100 kommuniziert, eine entfernte Steuerungszentrale zur Ausführung der Funktionen der vorliegenden Technologie umfassen. Die Steuerungszentrale kann die Steuerungszentrale des erwähnten Systems OnStar® sein.
  • Das Kommunikations-Teilsystem 114 enthält in verschiedenen Ausführungsformen eine drahtbasierte Eingabe/Ausgabe (i/o) 116, mindestens einen drahtlosen Weitbereichs-Sender/Empfänger 118 und mindestens einen drahtlosen Nahbereichs-Sender/Empfänger 120. Als Beispiel sind zwei weitere Anschlüsse 122, 124 gezeigt, um zu betonen, dass das System ausgestaltet sein kann, um andere Typen von drahtgebundenen oder drahtlosen Kommunikationen aufzunehmen.
  • Das Fahrzeug 102 enthält außerdem ein Sensor-Teilsystem 126, das Sensoren umfasst, die Informationen an den OBC 100 liefern, etwa Informationen, welche die Anwesenheit und die Bewegung eines Benutzers in der Nähe des Fahrzeugs anzeigen. Das Fahrzeug 102 kann so ausgestaltet sein, dass der OBC 100 mit dem Sensor-Teilsystem 122 über drahtgebundene oder drahtlose Nahbereichs-Kommunikationskopplungen 116, 120 kommuniziert oder von diesem zumindest Signale empfängt.
  • In einigen Ausführungsformen enthält das Sensor-Teilsystem 126 mindestens eine Kamera 128 und mindestens einen Abstandssensor 130. Abstandssensoren, die typischerweise verwendet werden, um Fahrfunktionen zu unterstützen, können einen Nahbereichsradar (SRR), einen Ultraschallsensor, einen Weitbereichsradar, etwa diejenigen, die in autonomen Systemen oder Systemen mit adaptiver Geschwindigkeitsregelung (ACC-Systemen) verwendet werden, oder einen Lichtdetektions- und Entfernungssensor (LIDAR-Sensor) enthalten.
  • Die schematisch gezeigte Kamera 128 kann eine oder mehrere Kameras repräsentieren, die an einer beliebigen geeigneten Stelle des Fahrzeugs 102 positioniert sind, etwa an den Seitenspiegeln des Fahrzeugs, benachbart zu oder an den Türgriffen, an einem Kofferraumdeckel, Scheinwerfern, die aus der Fahrzeugfront und/oder dem Fahrzeugheck heraus gerichtet sind usw. Jede Kamera 128 ist ausgestaltet, um die Anwesenheit eines Benutzers und in einigen Ausführungsformen eine Bewegung des Benutzers zu erfassen. Jede kann beweglich sein, etwa indem sie von einem Aktor automatisch bewegbar sind, der von dem Computersystem 100 gesteuert wird, um eine Bewegung eines Benutzers zu verfolgen, der sich in oder in der Nähe des Fahrzeugs bewegt. Kameras können in Verbindung mit anderen Sensoren verwendet werden, etwa mit Lasersensoren zur Detektion von Bewegung, um Benutzergesten zu erkennen.
  • Einer oder mehrere der Sensoren, die eine Benutzerbewegung erfassen, sind in verschiedenen Ausführungsformen primär in eine beliebige einer Vielfalt von Richtungen orientiert. Beispielsweise können die Kameras 128 und der Radar 130 an jeder oder an einer ausgewählten Position orientiert sein, beispielsweise: (i) von einem vorderen Mittelpunkt des Fahrzeugs 102 aus nach vorne gerichtet, (ii) von einem hinteren Mittelpunkt des Fahrzeugs 102 nach hinten gerichtet, (iii) von einer Seitenposition des Fahrzeugs 102 seitlich zum Fahrzeug gerichtet und (iv) diagonal zum Fahrzeug 102 gerichtet - z.B. zwischen vorwärts und direkt seitwärts.
  • Der Weitbereichs-Sender/Empfänger 118 ist in einigen Ausführungsformen ausgestaltet, um Kommunikationen zwischen dem OBC 100 und einem Satelliten und/oder einem Mobilfunk-Telekommunikationsnetzwerk zu ermöglichen. Der Nahbereichs-Sender/Empfänger 120 ist ausgestaltet, um Nahbereichskommunikationen zu ermöglichen, etwa Kommunikationen mit anderen Fahrzeugen, Kommunikationen von Fahrzeug zu Fahrzeug (V2V-Kommunikationen), Kommunikationen mit einer Transportsysteminfrastruktur (V21) oder mit anderen Systemen (V2X), etwa mit lokalen Kommunikationsroutern.
  • Zur Kommunikation mit V2X usw. kann der Nahbereichs-Kommunikations-Sender/Empfänger 120 ausgestaltet sein, um mit Hilfe eines oder mehrerer Nahbereichs-Kommunikationsprotokolle zu kommunizieren. Beispielhafte Protokolle umfassen dedizierte Nahbereichskommunikationen (DSRC), WI-FI®, BLUETOOTH®, Infrarot, Infrarotdatenassoziation (IRDA), Nahfeldkommunikationen (NFC), dergleichen oder Verbesserungen davon (WI-FI ist eine eingetragene Marke der WI-FI Alliance aus Austin, Texas, BLUETOOTH ist eine eingetragene Marke der Bluetooth SIG, Inc. aus Bellevue, Washington).
  • Andere Sensor-Teilsysteme 126 umfassen eine Trägheitsmomenteinheit (IMU) 132, die hauptsächlich zur Unterstützung von autonomen Fahrfunktionen verwendet wird, wie etwa eine, die einen oder mehrere Beschleunigungsmesser aufweist, und/oder andere derartige dynamische Fahrzeugsensoren 134, etwa einen Radsensor oder einen Sensor, der einem Lenkungssystem des Fahrzeugs 102 - z. B. einem Lenkrad - zugeordnet ist.
  • III. Datenspeicher und beispielhafte am Körper tragbare Geräte - Fig. 2 und 3
  • 2 zeigt das Datenspeichergerät 104 von 1 in größerem Detail. Mit Bezug auf die Figur werden nun die Komponenten des Datenspeichergeräts 104 weiter beschrieben.
  • III.A. Speicherkomponenten
  • Wie vorstehend im Hinblick auf 1 erwähnt wurde, enthält das Datenspeichergerät 104 ein oder mehrere Module 110. Und der Speicher kann außerdem Zusatzkomponenten 112 enthalten, etwa zusätzliche Software und/oder Daten, welche das Ausführen der Verfahren der vorliegenden Offenbarung unterstützen.
  • Die Zusatzkomponenten 112 können beispielsweise ein oder mehrere Benutzerprofile enthalten. Die Profile können Einstellungen enthalten, die standardmäßig und/oder benutzerspezifisch für einen oder mehrere Benutzer (z.B. menschliche Fahrer) des Fahrzeugs eingestellt sind. Diese und andere Datenkomponenten werden hier an anderer Stelle nachstehend in Verbindung mit den Betriebsverfahren 400 beschrieben. Auf diese Weisen kann die Technologie personalisiert oder an Kunden angepasst werden.
  • Die Module 110 können mindestens drei (3) Module 202, 204, 206 enthalten, die im nächsten Abschnitt weiter beschrieben sind. In einer Ausführungsform enthalten die Module 110 ein oder mehrere zusätzliche Module. Einige Anweisungen können Teil von mehr als einem Modul sein und hier beschriebene Funktionen können ausgeführt werden, indem der Prozessor das korrespondierende mehr als eine Modul ausführt.
  • Funktionen, die hier beschrieben werden, aber nicht ausdrücklich in Verbindung mit einem der drei Module 202, 204, 206, können Teil eines der drei Module und/oder Teil eines oder mehrerer zusätzlicher Unterstützungsmodule 208 sein. Das/die Unterstützungsmodule 208 können beispielsweise ein Benutzeridentifikationsmodul und/oder ein Fahrgastidentifikationsmodul enthalten.
  • Jedes der Module kann durch einen beliebigen einer Vielzahl von Namen bezeichnet werden, etwa durch einen Begriff oder eine Phrase, der/die seine Funktion anzeigt. Die Module 202, 204, 206 des vorliegenden Systems 100 können beispielsweise als Modul 202 zur Bestimmung einer Benutzergeste, als Modul 204 zur Identifikation und Aktivierung einer Fahrzeugfunktion und als Modul 206 zur Kommunikation zwischen einem Fahrzeug und einem am Körper tragbaren Gerät oder dergleichen bezeichnet werden.
  • 2 zeigt ein zusätzliches Modul durch Bezugszeichen 208, um auf schematische Weise anzuzeigen, dass das System 100 ein oder mehrere zusätzliche Module enthalten kann.
  • Beliebige der Module können Teilmodule enthalten, wie sie etwa durch Bezugszeichen 210, 212, 214, 216 in Verbindung mit dem zweiten dargestellten Modul 204 von 2 gezeigt sind. Teilmodule können spezielle Operationen oder Routinen von Modulfunktionen ausführen.
  • III.A.i. Modul 202 zur Bestimmung einer Benutzergeste
  • Die Hardwareverarbeitungseinheit 104 bestimmt beim Ausführen des Moduls zur Bestimmung einer Benutzergeste auf der Grundlage von Benutzereingabedaten, welche Geste ein Benutzer gerade macht oder gemacht hat. Die Benutzereingabedaten können eine oder mehrere Datenkomponenten enthalten. Die Benutzereingabedaten können aus einer oder mehreren einer Vielfalt von Datenquellen an der Hardwareverarbeitungseinheit 106, die das Modul 202 ausführt, empfangen werden.
  • Beispielhafte Datenquellen enthalten einen oder mehrere Sensoren eines am Körper tragbaren Geräts, des Fahrzeugs 102 und/oder einer lokalen Infrastruktur (z.B. Parkplatzkamera), die ausgestaltet und angeordnet sind, um die Bewegung eines oder mehrerer Körperteile eines Benutzers zu erfassen, etwa des Kopfes, eines Arms, eines Handgelenks, einer Hand oder eines Fingers des Benutzers.
  • Beispielhafte Gesten umfassen, dass der Benutzer auf ein Symbol einer Infotainment-Anwendung zeigt, das auf einem Anzeigebildschirm des Fahrzeugs angezeigt wird. Ein Beispiel für das Zeigen 601 ist mit Hinblick auf einen Anzeigebildschirm 602 des Fahrzeugs in 6 gezeigt.
  • Oder der Benutzer kann auf ein Radiosystem zeigen, etwa eine Radioschnittstelle des Fahrzeugs, und er kann dann in der Luft die Hand des Benutzers drehen, um das Drehen eines Knopfes zu simulieren, ohne das Radiosystem tatsächlich zu berühren, oder langsam in der Luft wischen, um den Wunsch zur Änderung einer Radiostation anzuzeigen.
  • Als weiteres Beispiel kann der Benutzer auf ein Heizungs-, Lüftungs- und Klimaanlagensystem (HVAC-System) zeigen, etwa auf eine Temperaturschnittstelle des Fahrzeugs, und dann in der Luft, ohne das HVAC-System tatsächlich zu berühren, die Hand des Benutzers drehen, um das Drehen eines Knopfes zu simulieren, oder langsam in der Luft nach oben oder nach unten wischen, um den Wunsch zum Erhöhen oder Verringern der Ausgabetemperatur des HVAC anzuzeigen.
  • Das vom Benutzer am Körper tragbare Gerät kann ein computergestütztes oder elektronisches Gerät sein, das beliebige der Komponenten aufweist, die in 1 und 2 gezeigt sind - z.B. einen Speicher, der Anweisungen umfasst, und einen Prozessor zum Ausführen der Anweisungen. 1 und 2 können folglich zusätzlich zum Zeigen von Fahrzeugmerkmalen auch aus einer anderen Perspektive betrachtet werden, die Merkmale des am Körper tragbaren Geräts zeigt. Der Kürze halber sind die Figuren nicht erneut separat für die Perspektive des am Körper tragbaren Geräts gezeigt.
  • Mit fortgesetzter Bezugnahme auf 3 enthalten beispielhafte Benutzergesten oder Bewegungen 302 Drehungen in eine beliebige Richtung, lineare Bewegungen und Kombinationen aus einer Drehung und einer linearen Bewegung eines betreffenden Körperteils des Benutzers - z.B. Kopf, Arm, Handgelenk, Hand oder Finger. Drehungen können Verdrehungen enthalten, etwa eine Verdrehung des Handgelenks. Die Drehungen können außerdem Bewegungen enthalten, die bewirken, dass sich das am Körper tragbare Gerät entlang größerer Kreisbögen bewegt, etwa allgemein um einen Ellenbogen des Benutzers herum, wie es auftreten würde, wenn der Benutzer eine Winkbewegung ausführt. Lineare Bewegungen können umfassen, dass der Benutzer seine Hand und damit das Handgelenk gerade nach unten bewegt, etwa eine übertriebene Bewegung des Greifens oder Drückens auf ein imaginäres Symbol, das einem tatsächlichen Symbol entspricht, das von dem Fahrzeug angezeigt wird (z.B. ein Symbol einer Infotainment-Anwendung oder ein Symbol von Infotainmentmedien).
  • In der betrachteten Ausführungsform können die Sensoren einen Sensor eines am Körper tragbaren Geräts 300 umfassen. Beispielsweise kann der Benutzer ein Gerät am Körper tragen - am linken Handgelenk, um den Hals herum (z.B. Anhänger, Halskette), Ohrringe, Ringe, Manschettenknöpfe, Gürtelanhänger, Schuhanhänger oder Stiefelanhänger (Fußbekleidungsanhänger), Beinbekleidung, Armbekleidung, Kleidung allgemein, Ohrhörer, Geräte am Kopf, Hüte oder andere Kopfbedeckungen, Ringe, Brillen, Sonnenbrillen usw. - das ausgestaltet ist, um eine Bewegung des rechten Arms oder der rechten Hand zu erfassen und zu berichten (ein Signal an das Fahrzeug senden). In einer betrachteten Ausführungsform wird das Gerät 300 von dem Benutzer technisch nicht am Körper getragen, sondern von dem Benutzer in der Hand gehalten, etwa ein Mobiltelefon des Benutzers. In einer in Betracht gezogenen Ausführungsform ist das am Körper tragbare Gerät oder ein anderes Benutzergerät mit mindestens einem Sensor ausgestaltet, etwa einem auf Radar beruhenden Bewegungsdetektor, um Benutzerbewegungen zu detektieren, wie etwa die Uhr 300, die Fingerbewegungen detektiert, während sich das Handgelenk und der Unterarm gerade nicht bewegen.
  • Andere in Betracht gezogene Bewegungen umfassen eine Armbewegung, wobei der Benutzer Drücken, Ziehen oder Werfen eines imaginären Etwas (z.B. Knopf, Schieber, Textmeldung) zu dem Fahrzeug hin simuliert, was mit einer Fahrzeugfunktion korrespondiert (z.B. Senden einer Textmeldung), oder das Ziehen von etwas von dem Fahrzeug weg, was mit einer anderen Fahrzeugfunktion korrespondiert (z.B. Öffnen eines Ordners einer Infotainment-Anwendung).
  • In 3 und 6 ist zwar ein am Handgelenk angebrachtes, am Körper tragbares Gerät 300 gezeigt und in 7 ist eine intelligente Brille 702 gezeigt, jedoch muss das am Körper tragbare Gerät nicht so ausgestaltet sein, dass es am Handgelenk oder am Kopf getragen wird. Und wie erwähnt wurde, zeichnen einige Ausführungsformen der Systeme - beispielsweise erfassen Fahrzeugsensoren - Benutzergesten auf, obwohl der Benutzer gerade kein Gerät 300 am Körper trägt. Das am Körper tragbare Gerät ist in verschiedenen Ausführungsformen ausgestaltet, um Signale oder Meldungen von dem Fahrzeug zu empfangen. In verschiedenen Ausführungsformen enthält das am Körper tragbare Gerät Sender- oder Empfängerkomponenten für zumindest das Senden von Signalen oder Meldungen an das Fahrzeug, etwa von Signalen oder Meldungen, die mit Benutzergesten korrespondieren.
  • Wie erwähnt enthält die Datenquelle in verschiedenen Ausführungsformen einen oder mehrere Sensoren, die ausgestaltet sind, um eine Bewegung eines Körperteils des Benutzers zu erfassen, etwa eines Handgelenks, eines Arms oder einer Hand.
  • Die Sensoren können diejenigen enthalten, die vorstehend in Verbindung mit dem Sensor-Teilsystem 126 des Systems 100 von 1 beschrieben sind, wie etwa mindestens eine Kamera 128.
  • In einer in Betracht gezogenen Ausführungsform wird das Gerät 300 technisch von dem Benutzer nicht am Körper getragen, sondern von dem Benutzer in der Hand gehalten, etwa ein Mobiltelefon des Benutzers.
  • Das am Körper tragbare Gerät kann beliebige geeignete Komponenten zum Erfassen von Benutzergesten oder Bewegungen enthalten, etwa Kamerakomponenten, eine Trägheitsmomenteinheit (IMU) - wie diejenige, die bei der Interpretation, nach der das System 100 von 1 das Gerät 300 zeigt, bei 132 angezeigt ist - etwa eine, die einen oder mehrere Beschleunigungsmesser aufweist.
  • In einigen Ausführungsformen oder zumindest für eine bestimmte Systemoperation wird eine Bestimmung einer Benutzergeste nicht benötigt. Eine Benutzergeste ist nicht Teil einer Operation, beispielsweise bei Implementierungen, bei denen das Fahrzeug ein Signal an das am Körper tragbare Gerät sendet, um dem Benutzer anzuzeigen (z.B. durch Vibrierenlassen einer rechten Seite einer intelligenten Sonnenbrille), dass ein Abbiegen in einer Navigationsroute, der gefolgt wird, bald benötigt wird.
  • III.A.ii. Modul 204 zur Identifikation und zum Aktivieren einer Fahrzeugfunktion
  • Die Hardwareverarbeitungseinheit 106 bestimmt beim Ausführen des Moduls 204 zur Identifikation und zum Aktivieren einer Fahrzeugfunktion (VFIA-Modul) eine Fahrzeugfunktion, was umfasst, dass ein Signal oder eine Meldung an das am Körper tragbare Gerät bereitgestellt wird, welches/e verarbeitet und an den Benutzer übermittelt werden soll. Obwohl die übertragene Struktur ein Signal, eine Meldung oder eine andere Kommunikation umfassen kann, wird die Struktur hier der Kürze halber einfach als Signal bezeichnet, um die Interpretation nicht zu beschränken, sofern dies nicht explizit angegeben wird, und um beliebige der Strukturtypen zu umfassen.
  • Für Ausführungsformen oder Implementierungen, bei welchen eine Geste unter Verwendung des vorstehenden Moduls 202 analysiert wird, kann das VFIA-Modul veranlassen, dass der Prozessor Funktionen bestimmt, was umfasst, dass ein geeignetes Signal an das am Körper tragbare Gerät gesendet wird, und dass möglicherweise andere Aktionen ausgeführt werden - etwa das Öffnen einer Infotainment-Anwendung, das Zugreifen auf ein spezielles Medienstück (z.B. ein Lied), das Aufdrehen einer Lautstärke oder eines HVAC-Lüfters usw. - die mit der Geste korrespondieren, welche von der Hardwareverarbeitungseinheit 106 beim Ausführen des Moduls 202 zur Bestimmung einer Benutzergeste identifiziert wird.
  • Wie erwähnt kann jedes der Module 202, 204, 206, 208 Teilmodule enthalten. Jedes der Teilmodule kann mit einem beliebigen einer Vielfalt von Namen bezeichnet werden, etwa durch einen Ausdruck oder einen Begriff, der dessen Funktion angibt.
  • Als Beispiel kann das Modul 204 zur Identifikation einer Fahrzeugfunktion Teilmodule 210, 212, 214, 216 enthalten.
  • Das erste Teilmodul 210 kann als Nachschlagemodul bezeichnet werden, etwa eine Datenstruktur, die eine Tabelle umfasst, welche jede von mehreren voreingestellten Benutzergesten - z.B. ein Winken mit der Hand, ein Zeigen mit der Hand, ein Nicken oder Schütteln des Kopfes - mit jeweiligen Fahrzeugfunktionen korreliert - z.B. Blinken von Fahrzeugleuchten.
  • Das zweite Teilmodul 212 kann als Benutzerprofilmodul bezeichnet werden. Das Benutzerprofilmodul 212 kann von dem Benutzer eingestellte Benutzervorlieben enthalten, etwa bevorzugte Gesten und zugehörige Fahrzeugfunktionen, wobei die bevorzugten Gesten von Standard- oder Grundgesten abweichen, die den Fahrzeugfunktionen ursprünglich zugeordnet wurden.
  • In einigen Implementierungen verwenden die Operationen des ersten Moduls 202 das Benutzerprofilmodul 212. Das Benutzerprofilmodul kann ein Teil des ersten Moduls 202 anstelle dessen oder zusammen damit sein, dass es sich im zweiten Modul 204 befindet.
  • Das dritte Modul 214 zur Initialisierung/Aktivierung einer Fahrzeugfunktion (VFIA-Modul) kann Anweisungen enthalten, die veranlassen, dass das Hardwareverarbeitungsgerät 106 auf der Grundlage der Fahrzeugfunktion, die unter Verwendung des Nachschlagemoduls 210 identifiziert wurde, das Ausführen der relevanten Funktion durch das Fahrzeug einleitet.
  • Das Einleiten kann beispielsweise umfassen, dass die Hardwareverarbeitungseinheit 106 Anweisungen des VFIA-Moduls 214 ausführt, wodurch ein Signal erzeugt und übertragen wird, das ausgestaltet ist, um zu veranlassen, dass das Fahrzeug die Funktion ausführt. Das Signal kann beispielsweise an die primäre elektronische Steuerungseinheit (ECU) des Fahrzeugs 102 oder an ein anderes Teil des OBC 100 unabhängig davon übertragen werden, ob der OBC Teil der ECU ist.
  • Das Signal, das erzeugt und gesendet oder ausgewählt und gesendet oder einfach übertragen wurde, kann Details für den Typ der Ausgabe anzeigen, die von dem am Körper tragbaren Gerät an den Benutzer geliefert werden soll, etwa dass ein linkes Stück eines über dem Ohr des am Körper tragbaren Geräts vom Brillentyp vibrieren soll, um anzuzeigen, dass in Übereinstimmung mit einer Route eines Navigationssystems am Fahrzeug bald ein Abbiegen nach links des Fahrzeugs benötigt wird.
  • Andere beispielhafte Ausgabedetails, die von dem Fahrzeugsignal angezeigt werden, umfassen ein Timing und/oder ein Niveau der Ausgabe. Wie erwähnt, kann eine intelligente Sonnenbrille - siehe beispielsweise 7 - ausgestaltet sein, um in Ansprechen auf das Signal an einer rechten Seite mit einer niedrigsten Frequenz und/oder Amplitude zu vibrieren, wenn in Übereinstimmung mit einem Navigationssystem in der Sonnenbrille oder im Fahrzeug bald ein Abbiegen nach rechts benötigt wird, und um mit einer oder mehreren höheren Frequenzen und/oder Amplituden zu vibrieren, wenn die Abbiegestelle näherkommt.
  • Das Signal ist in einigen Implementierungen zur Verarbeitung durch eine intelligente Hörvorrichtung ausgestaltet, etwa durch intelligente Ohrstöpsel, unabhängig davon, ob sie Teil der Sonnenbrille sind - nur als Beispiel wieder eine Struktur wie diejenige von 7 - oder durch intelligente Ohrringe, die ausgestaltet sind, um in Ansprechen auf das Signal ein Geräusch bereitzustellen - beispielsweise leise Piepser - mit einer geringsten Frequenz und/oder Amplitude, wenn ein Abbiegen nach rechts bald benötigt wird, und um mit einer oder mehreren höheren Frequenzen und/oder Amplituden zu ertönen, wenn die Abbiegestelle näherkommt.
  • In einigen Implementierungen ist das Signal zur Verarbeitung durch einen intelligentes Armreif, ein Handgelenkband, einen Ring, einen Manschettenknopf oder eine Uhr ausgestaltet - siehe beispielsweise 3 und 6 hinsichtlich des Armreifs, des Handgelenkbands oder der Uhr - oder ein anderes am Körper tragbares Gerät kann ausgestaltet sein, um in Ansprechen auf das Signal anzuzeigen, dass eine gerade erfolgte Benutzergeste zur Kommunikation mit dem Fahrzeug - z.B. das Zeigen auf eine Infotainment-Anwendung - tatsächlich von dem Fahrzeug empfangen wurde und davon bearbeitet wird.
  • Das vierte Teilmodul 216 wird gezeigt, um anzuzeigen, dass beliebige der Module ein oder mehrere zusätzliche Teilmodule enthalten können.
  • III.A.iii. Modul 206 zur Kommunikation von Fahrzeug mit am Körper tragbarem Gerät
  • Die Hardwareverarbeitungseinheit 106 führt bei der Ausführung des Moduls 206 zur Kommunikation von Fahrzeug mit am Körper tragbarem Gerät die Funktionen aus, die von der Einheit 106 beim Ausführen der vorherigen Module 202, 204 identifiziert wurden - z.B. Öffnen einer Infotainment-Anwendung oder Auswählen spezieller Stücke der Infotainment-Medien, welche die Medien anzeigen.
  • Die Funktionen umfassen in verschiedenen Ausführungsformen das Übertragen eines Signals an das am Körper tragbare Gerät (z.B. 300) zum Kommunizieren mit dem Benutzer. Das Signal zeigt an, dass das Gerät eine Ausgabe bereitstellen soll, die von dem Benutzer detektiert werden kann, oder das Signal stößt das Gerät auf andere Weise dazu an. Eine beispielhafte Ausgabe enthält einen haptischen oder akustischen Stimulus, etwa Vibrationen, Töne oder Wörter.
  • Das am Körper tragbare Gerät antwortet entsprechend auf das Signal. Beispielsweise kann das Signal Details für den Typ der Ausgabe anzeigen, die von dem am Körper tragbaren Gerät an den Benutzer geliefert werden soll, wie etwa, dass ein Stück über dem linken Ohr eines am Körper tragbaren Geräts vom Brillentyp vibrieren soll, um anzuzeigen, dass bald ein Abbiegen des Fahrzeugs nach links in Übereinstimmung mit einer Route eines Navigationssystems am Fahrzeug benötigt wird.
  • Andere beispielhafte Ausgabedetails, die von dem Fahrzeugsignal anzeigt werden, umfassen ein Timing und/oder ein Ausgabeniveau. Wie erwähnt kann eine intelligente Sonnenbrille - siehe beispielsweise 7 - ausgestaltet sein, um in Ansprechen auf das Signal auf einer rechten Seite mit einer niedrigen Frequenz und/oder einer niedrigen Amplitude zu vibrieren, wenn bald ein Abbiegen nach rechts in Übereinstimmung mit einem Navigationssystem in der Sonnenbrille oder im Fahrzeug benötigt wird, und um mit einer oder mehreren höheren Frequenzen und/oder Amplituden zu vibrieren, wenn die Abbiegestelle näherkommt.
  • Oder ein auf Hören beruhendes intelligentes am Körper tragbares Gerät, etwa Ohrstöpsel, kann unabhängig davon, ob es Teil der Sonnenbrille ist oder nicht (wieder nur als Beispiel eine Struktur wie diejenige von 7) ausgestaltet sein, um in Ansprechen auf das Signal ein Geräusch (z.B. leise Piepser) mit einem niedrigen Tempo und/oder einer geringen Lautstärke bereitzustellen, wenn bald ein Abbiegen nach rechts benötigt wird, und um mit einem höheren Tempo und/oder einer höheren Lautstärke ertönen, wenn die Abbiegestelle näherkommt.
  • Ein intelligenter Armreif, ein Handgelenksband, ein Ring, ein Manschettenknopf oder eine Uhr - siehe beispielsweise 3 und 6 im Hinblick auf den Armreif, das Handgelenksband oder die Uhr - oder ein anderes am Körper tragbares Gerät kann ausgestaltet sein, um in Ansprechen auf das Signal anzuzeigen, dass eine gerade ausgeführte Benutzergeste zur Kommunikation mit dem Fahrzeug - beispielsweise Zeigen auf eine Infotainment-Anwendung - von dem Fahrzeug tatsächlich empfangen worden ist und gerade bearbeitet wird.
  • In einigen Implementierungen, in denen der OBC 100 nicht ein Teil einer ECU des Fahrzeugs ist, ist das dritte Modul 206 Teil der ECU.
  • IV. Beispielhafte Betriebsverfahren - Fig. 4
  • 4 zeigt beispielhafte Verfahren 400 in Übereinstimmung mit Ausführungsformen der vorliegenden Technologie. Es ist so zu verstehen, dass mehr als ein Verfahren gezeigt wird, weil verschiedene Teilmengen der gezeigten Operationen in beliebigen Kombinationen separat implementiert werden können, ohne den Umfang der vorliegenden Offenbarung zu verlassen.
  • Es versteht sich, dass die Schritte, Operationen oder Funktionen der Verfahren 400 nicht unbedingt in einer beliebigen speziellen Reihenfolge dargestellt sind und dass das Ausführen einiger oder aller der Schritte in einer alternativen Reihenfolge möglich ist und in Betracht gezogen wird. Die Verfahren können auch kombiniert werden oder sich überlappen, so dass einer oder mehrere Schritte von einem der Verfahren in dem anderen Verfahren ausgeführt wird/werden.
  • Die Schritte wurden in der gezeigten Reihenfolge der Einfachheit der Beschreibung und Darstellung wegen präsentiert. Schritte können hinzugefügt, weggelassen und/oder gleichzeitig ausgeführt werden, ohne den Umfang der beigefügten Ansprüche zu verlassen. Es versteht sich außerdem, dass die dargestellten Verfahren 400 jederzeit beendet werden können.
  • In bestimmten Ausführungsformen werden einige oder alle Schritte der Prozesse 400 und/oder im Wesentlichen äquivalente Schritte von einem Prozessor, z.B. einem Computerprozessor ausgeführt, der von einem Computer ausführbare Anweisungen ausführt, die in einem computerlesbaren Medium gespeichert oder enthalten sind, wie etwa dem Datenspeichergerät 104 des vorstehend beschriebenen Systems 100.
  • In verschiedenen Ausführungsformen kann das System eine Standardorganisation von zur Verwendung verfügbaren Gesten aufweisen, wie etwa Zeigen oder virtuelles Ergreifen, Wischen, Drücken, Werfen, dergleichen oder andere. In einigen Ausführungsformen werden diese Optionen dem Benutzer als Anweisungen oder Optionen präsentiert, die der Benutzer bei der Anpassung des Systems wählen kann. Die Auswahl kann in dem erwähnten Benutzerprofil gespeichert werden.
  • In verschiedenen Ausführungsformen werden Benutzergesten von einem Sensor von einem von dem Benutzer am Körper getragenen Gerät und/oder dem Fahrzeug erfasst.
  • Bei Block 410 trägt der Benutzer gerade ein mobiles Gerät am Körper oder hält es in der Hand, etwa ein intelligentes am Körper tragbares Gerät, wie dasjenige, das in 3, 6 und 7 gezeigt ist. Beispielhafte mobile und am Körper tragbare Geräte sind vorstehend beschrieben.
  • Wie erwähnt ist die Technologie in einigen Ausführungsformen für einen Betrieb unabhängig davon ausgestaltet, ob ein mobiles Gerät des Benutzers am Körper getragen, in der Hand getragen oder in dem Prozess verwendet wird. Eine Benutzerbewegung kann zusammen mit einem oder anstelle eines mobilen Geräts beispielsweise von Fahrzeugkameras erfasst werden.
  • Bei Block 412 wird eine Disposition des Benutzers bestimmt. Der Benutzer befindet sich im Fahrzeug, nahe bei oder in der Nähe des Fahrzeugs, oder er nähert sich dem Fahrzeug gerade, steigt in dieses ein oder aus diesem aus. In einigen Ausführungsformen bestimmt das Fahrzeug, dass sich der Benutzer in der Nähe befindet, indem es ermittelt, dass das vom Benutzer am Körper tragbare Gerät sich in der Nähe befindet, etwa indem es in der Lage ist, ein drahtloses Nahbereichssignal oder eine Meldung von dem am Körper tragbaren Gerät zu empfangen. Eine Benutzerposition wird in einigen Ausführungsformen von einem oder mehreren Fahrzeugsensoren bestimmt, etwa einer Kamera oder Radar.
  • Bei Block 414 kommuniziert das Fahrzeug mit dem Gerät bei einer Implementierung, die das von einem Benutzer am Körper tragbare Gerät oder ein anderes mobiles Gerät des Benutzers einbezieht. Beruhend auf der Verbindung kann das mobile Gerät ein Programm an dem Gerät starten, um mit dem Erfassen einer Benutzerbewegung zu beginnen oder auf den Beginn vorbereitet zu sein, etwa eine intelligente Uhr, die eine Hand- oder Armbewegung misst, oder eine intelligente Brille, die eine Kopfbewegung misst.
  • Bei den Implementierungen, bei denen das Fahrzeug eine Benutzerbewegung misst, kann das Fahrzeug an dieser Stelle mit dem Überwachen einer Benutzerbewegung beginnen, um eine Geste zu detektieren, mit welcher der Benutzer versucht, eine Fahrzeugfunktion zu steuern.
  • Bei Block 416 bestimmt das Rechensystem des Fahrzeugs, ob irgendeine Situation vorliegt, die eine Benachrichtigung für den Benutzer erfordert, etwa eine Fahrsituation oder eine Situation im Fahrumfeld. In dem vorstehend erwähnten Szenario kann das Fahrzeug hier, wenn der Benutzer gerade eine Navigationsanwendung verwendet, die am oder durch das Fahrzeug betrieben wird, feststellen, dass der Benutzer über ein anstehendes Abbiegen nach rechts benachrichtigt werden soll.
  • Als weiteres Beispiel kann das Fahrzeug bestimmen, dass der Benutzer auf ein Hindernis, ein Verkehrsproblem oder eine Gefahr auf der Straße hingewiesen werden soll, etwa ein großes Schlagloch, einen Unfall, einen anderen stehenden Verkehr, eine Ampel usw., der/dem man sich nähert. In einigen Ausführungsformen wird die Ausgabe an den Benutzer in einem zweckdienlichen räumlichen Kontext gehandhabt oder bereitgestellt, etwa durch Bereitstellen einer Vibration oder eines Tons für einen rechten Schläfenabschnitt einer Brille, wenn die Gefahr oder Situation - z.B. die gemäß Navigation benötigte Abbiegerichtung - über die informiert wird, rechts vom Benutzer liegt. Die Anordnung kann außerdem einen räumlichen Kontext abgesehen von links/rechts, etwa vorne/hinten berücksichtigen. Wenn eine Gefahr hinter dem Auto liegt, kann das Fahrzeugsignal ausgestaltet werden, um zu veranlassen, dass eine am Körper tragbare Brille eine Vibration an den Schläfen bereitstellt, und um zu veranlassen, dass die Gestellabschnitte die Vibration bereitstellen, wenn die Gefahr voraus liegt.
  • Der Typ der Kommunikation, deren Bereitstellung an den Benutzer bestimmt wurde, kann mit den Informationen korrespondieren, die von dem Fahrzeug an den Benutzer kommuniziert werden sollen. Der gewählte Typ der Kommunikation kann den Modus enthalten - z.B. haptisch und/oder akustisch. Als weiteres Beispiel kann der Typ der Kommunikation das Niveau oder die Qualität der Kommunikation enthalten, etwa eine Frequenz oder Amplitude einer haptischen Ausgabe, ein Tempo oder eine Lautstärke einer akustischen Ausgabe, oder einen Betrag, eine Farbe, ein Muster, eine Blinkrate oder dergleichen für eine visuelle Ausgabe.
  • Bei betrachteten Ausführungsformen kann die Ausgabe wiederum Text, Bilder, Symbole oder dergleichen enthalten, die etwa mit Hilfe eines Brillenglases einer intelligenten Brille oder mithilfe eines intelligenten Armreifs bereitgestellt werden.
  • Bei Block 418 interagiert das Rechensystem des Fahrzeugs mit dem Benutzer und bestimmt darin jegliche Ausgabe, die für den Benutzer bereitgestellt werden soll. Die Interaktion kann mit Hilfe von Kommunikationen zwischen dem Fahrzeug und dem am Körper tragbaren Gerät oder mit Hilfe von einem oder mehreren Sensoren des Fahrzeugs, die eine Bewegung des Körpers des Benutzers erfassen, ausgeführt werden. In verschiedenen Ausführungsformen erfasst das am Körper tragbare Gerät eine Benutzerbewegung und überträgt eine Kommunikation an das Fahrzeug, welche die bestimmte Bewegung anzeigt.
  • Beispielhafte Gesten sind vorstehend beschrieben, etwa: der Benutzer zeigt auf ein Symbol einer Infotainment-Anwendung, das an einem Anzeigebildschirm des Fahrzeugs angezeigt wird; der Benutzer zeigt auf ein Radiosystem des Fahrzeugs und dreht die Benutzerhand in der Luft, um das Drehen eines Knopfes zu simulieren, oder er wischt mit der Benutzerhand langsam in der Luft, um einen Wunsch zum Verändern einer Radiostation anzuzeigen; oder der Benutzer zeigt auf ein HVAC-System und führt eine vorbestimmte Geste aus, um das HVAC-System einzustellen -z.B. Temperatur, Lüftergeschwindigkeit usw.
  • Hinsichtlich der Ausgabe, die bei Schritt 418 bestimmt wird, kann der Typ der bestimmten Ausgabekommunikation zur Bereitstellung für den Benutzer wie bei Block 416 mit dem Grund korrespondieren, der von dem Fahrzeug an den Benutzer kommuniziert werden soll. Die Ausgabe ist in verschiedenen Ausführungsformen eine einfache sanfte Kommunikation, etwa eine Anzeige mit niedrigem Niveau, eine einzelne Anzeige, eine Vibration, ein Ton oder eine sichtbare Anzeige, um dem Benutzer zu bestätigen, dass seine letzte Eingabe empfangen worden ist.
  • Wie auch erwähnt wurde, wird in einer betrachteten Ausführungsform eine Kommunikation für den Benutzer bereitgestellt, um ihm zu bestätigen, dass er das Gestenerkennungsprogramm des am Körper tragbaren Geräts und/oder des Fahrzeugs eingeschaltet hat. Bei dem Radiobeispiel beispielsweise wird das System, nachdem ein Benutzer seinen Finger oder seine Hand auf das Radio zeigen hat lassen und möglicherweise, nachdem er diesen/diese eine oder zwei Sekunden lang allgemein in dieser Stellung gehalten hat (in Abhängigkeit von der Systemprogrammierung oder einer dazu hinzugefügten Benutzervorliebe) eine sanfte Ausgabe ausgeben - z.B. eine Vibration, einen Ton usw. - um den Benutzer zu informieren, dass die Gestenerkennung eingeschaltet ist und seine Hand erkannt hat. Dadurch fährt der Benutzer fort, die Geste vertrauensvoll auszuführen, da er weiß, dass das System seine Gesten überwacht.
  • Bei Block 420 beschafft das Fahrzeug Informationen, die für den Benutzer sachdienlich sind, und stellt entsprechend eine Ausgabe an das vom Benutzer am Körper tragbare Gerät bereit. Die Informationen können beispielsweise mit Hilfe des Internets oder über einen Server oder ein Cloud-Rechensystem empfangen werden. Als Beispiel kann das Fahrzeug Wetterinformationen über eine überflutete Straße, der es sich gerade nähert, empfangen. Dieses Beispiel überschneidet sich mit den Operationen des vorherigen Blocks 418 mit dem Unterschied, dass in diesem Fall die Informationen über die Situation von dem Fahrzeug von einer Quelle außerhalb des Fahrzeugs empfangen wurden, etwa von einem anderen Fahrzeug (V2V), einer Infrastruktur am Straßenrand (V21) oder einer anderen (V2X).
  • Bei Block 422 liefert das Fahrzeug ein Signal an das vom Benutzer am Körper tragbare Gerät, das die Ausgabe anzeigt, die bei vorherigen Operationen bestimmt wurde. Die Ausgabe ist etwa diejenige der vorherigen drei Blöcke 416, 418, 420, ist aber nicht darauf beschränkt. Die bestimmte geeignete Ausgabe wird in verschiedenen Ausführungsformen bestimmt und bereitgestellt, wobei die Situation und der spezielle Kontakt berücksichtigt werden - z.B. rechts/links, vorne/hinten.
  • Bei Block 424 liefert das am Körper tragbare Gerät die Ausgabe von Block 422.
  • Bei Block 426 kann der Benutzer zurück an das Fahrzeug kommunizieren. Diese Kommunikation kann, muss aber nicht in allen Implementierungen, von dem Benutzer mit Hilfe des vom Benutzer am Körper tragbaren Geräts bereitgestellt werden. Kommunikationen von dem Benutzer mit Hilfe des am Körper tragbaren Geräts können mit Hilfe von Gesten oder anderweitig bereitgestellt werden.
  • Das Verfahren 400 kann enden oder eine beliebige oder mehrere Operationen des Verfahrens 400 können erneut ausgeführt werden.
  • V. Beispielhafte Eingaben und Ausgaben des Systems - Fig. 5
  • 5 zeigt eine beispielhafte Anordnung 500 mit Systemeingaben 510, mit dem Fahrzeugprozessor 560 und mit Ausgaben 570 in Übereinstimmung mit Ausführungsformen der vorliegenden Technologie.
  • Die Eingaben 510 können in vier Gruppen unterteilt werden: Eingaben 520 des am Körper tragbaren Geräts, Eingaben 530 von außerhalb des Fahrzeugs, Eingaben 540 innerhalb des Fahrzeugs, Eingaben 550 von an Bord gebrachten Geräten.
  • Die Eingaben 520 des am Körper tragbaren Geräts umfassen Signale oder Meldungen von dem vom Benutzer am Körper tragbaren Gerät, welche Benutzergesten anzeigen, die von dem am Körper tragbaren Gerät erfasst wurden, sind aber nicht darauf beschränkt. Andere potentielle Eingaben von dem am Körper tragbaren Gerät umfassen Kommunikationen, die von dem Benutzer oder von einem am Körper tragbaren Gerät eingeleitet wurden und das Fahrzeug über Benutzereinstellungen, Vorlieben, Anweisungen oder dergleichen informieren.
  • 5 zeigt auf schematische Weise verschiedene Typen von am Körper tragbaren Geräten an: eine intelligente Uhr 521, eine intelligente Brille 522, einen intelligenten Armreif 523 oder andere 524.
  • Die Eingaben 530 von außerhalb des Fahrzeugs können eine beliebige Eingabe von außerhalb des Fahrzeugs umfassen, die eine Ausgabe lenkt oder anderweitig beeinflusst, welche von dem Fahrzeug über das vom Benutzer am Körper tragbare Gerät für den Benutzer bereitgestellt wird.
  • Beispiele umfassen, sind aber nicht beschränkt auf die entfernten Quellen 531 wie etwa das Internet, Satelliten, Server oder Cloudressourcen, oder andere Ressourcen 532 außerhalb des Fahrzeugs, etwa von anderen Fahrzeugen (V2V), Infrastruktur benachbart zum Fahrzeug (V21) oder andere (V2X).
  • Die Eingaben 540 an Bord des Fahrzeugs umfassen und sind nicht begrenzt auf: Fahrzeugschalter 541, die von dem Benutzer betätigt werden, Fahrzeugkameras 542, welche die Anwesenheit oder Bewegung eines Benutzers erfassen, eine Fahrzeuganwendung 543, etwa eine Navigationsanwendung, Fahrzeugsicherheitssysteme 544 und andere Fahrzeugsensoren 545. Die Eingaben 540 können folglich Eingaben von Reservesensoren des Fahrzeugs, von Abstandssensoren, die einen Abstand zu einem vorausfahrenden Fahrzeug oder Objekt messen, usw. enthalten.
  • Die Eingaben 550 von an Bord gebrachten Geräten enthalten Eingaben von beliebigen Geräten, die nicht intrinsisch für das Fahrzeug sind. Diese können das vom Benutzer am Körper tragbare Gerät umfassen, aber Eingaben von diesem Gerät werden allgemein unter die ersten Eingaben 520 eingeordnet.
  • Beispielhafte Eingaben 550 von an Bord gebrachten Geräten umfassen ein Benutzertelefon 551 und ein anderes digitales Gerät 552, etwa einen MP3-Player oder einen anderen Mediaplayer.
  • Die Rechenvorrichtung 100 des Fahrzeugs 102 oder der Prozessor derselben wird in 5 durch das Bezugszeichen 510 angezeigt. Der Prozessor empfängt die Eingaben von den erwähnten Quellen und bestimmt eine geeignete Ausgabe zur Lieferung an den Benutzer. Wie erwähnt wird die Ausgabe in verschiedenen Ausführungsformen schließlich über das vom Benutzer am Körper tragbare Gerät 571 an den Benutzer geliefert.
  • Das Signal oder die Meldung, die an das vom Benutzer am Körper tragbare Gerät 571 geliefert wird, kann ein beliebiges von denen enthalten, die hier bereitgestellt wurden, etwa haptisch, akustisch und visuell. Und die befohlene Ausgabe kann auf den Kontext ansprechen, etwa indem sie räumlich oder anderweitig situationsbezogen fokussiert ist. Die Ausgabe kann beispielsweise eine Betätigung von Ausgabekomponenten des am Körper tragbaren Geräts links oder rechts oder vorne/hinten erfordern oder sie kann durch das Niveau an die Situation angepasst werden, etwa mit hohem/r, mittlerem/r oder niedrigem/r Tempo, Lautstärke, Frequenz, Amplitude oder anderem Niveau bereitgestellt werden. In verschiedenen Ausführungsformen kann die Ausgabe Text, Bilder, Symbole oder dergleichen enthalten, die beispielsweise über ein Brillenglas einer intelligenten Brille oder einen intelligenten Armreif bereitgestellt werden.
  • Andere beispielhafte Ausgabemodalitäten umfassen Fahrzeugkomponenten, etwa eine Fahrzeuganzeige 572, eine Audiokomponente 573 des Fahrzeugs, eine haptische Komponente 574 des Fahrzeugs oder eine Beleuchtungskomponente 575 des Fahrzeugs.
  • VI. Erste beispielhafte Implementierung - Fig. 6
  • 6 zeigt eine beispielhafte Implementierung, die das am Handgelenk angebrachte am Körper tragbare Gerät 300 von 3 umfasst.
  • In der ersten Sektion 610 ist eine Benutzerhand 601 gezeigt, die gerade auf den Anzeigebildschirm 602 zeigt. Das am Körper tragbare Gerät und/oder die Orientierungs- und Erfassungssysteme des Fahrzeugs können empfindlich genug sein, um nicht nur zu bestimmen, dass der Benutzer gerade auf den Bildschirm 602 zeigt, sondern um auch den speziellen Teil des Bildschirms zu bestimmen, auf den er gerade zeigt, etwa eine spezielle Sektion oder ein spezielles Symbol.
  • Bei einigen Ausführungsformen stellt das Fahrzeug in der ersten Sektion 610 außerdem eine Bestätigungsausgabe für den Benutzer bereit, etwa über das von dem Benutzer am Körper tragbare Gerät und/oder über eine Fahrzeugkomponente - Bildschirm, Ton, Symbol, Licht, Veränderung am Heads-up-Display (HUD), usw. - um dem Benutzer zu bestätigen, dass das System erfasst hat, dass sich der Benutzer vorbereitet, um eine Geste auszuführen - beispielsweise erfasst das Fahrzeug, dass die Hand des Benutzers gehoben wurde und zu dem HUD hin zeigt mit dem Ziel, eine Geste auszuführen.
  • In der zweiten Sektion 620 bestimmen das am Körper tragbare Gerät und/oder das Fahrzeug dann die Geste des Benutzers, etwa ein Wischen mit dem Finger, ein Drehen der Hand usw. In verschiedenen Ausführungsformen sendet das Fahrzeug eine Bestätigungsausgabe an den Benutzer, um zu bestätigen, dass die Geste erkannt worden ist.
  • An dieser Stelle kann das Fahrzeug eine Bestätigungsausgabe für den Benutzer bereitstellen, etwa über das vom Benutzer am Körper tragbare Gerät und/oder über eine Fahrzeugkomponente - Bildschirm, Ton, Symbol, Licht, Veränderung am Heads-up-Display (HUD), usw. - um dem Benutzer zu bestätigen, dass das System die Geste erfasst hat und gerade die korrespondierende Funktion ausführt.
  • In der dritten Sektion 630 leitet das Fahrzeugsystem, falls notwendig, das Ausführen einer Fahrzeugfunktion ein, die mit der Geste korrespondiert. Beispielhafte Funktionen umfassen das Einstellen des Radios, des HVAC, das Starten 632, Pausierenlassen oder Stoppen von Medien usw. Wenn die Ausgabe an den Benutzer einfach darin besteht, den Benutzer auf eine Situation aufmerksam zu machen, etwa ein benötigtes Abbiegen nach rechts, kann es sein, dass das Fahrzeug keinerlei Fahrzeugfunktionen einleiten muss.
  • VII. Zweite beispielhafte Implementierung - Fig. 7
  • 7 zeigt eine weitere beispielhafte Implementierung 700, die eine intelligente Sonnenbrille 702 umfasst.
  • In einer ersten Sektion 710 bestimmt das Rechensystem des Fahrzeugs, dass eine Ausgabe an den Benutzer hinsichtlich des Fahrens oder Navigierens an den Benutzer bereitgestellt werden soll. Die Ansicht 700 zeigt eine Navigationslandkarte 712 und ein Bild 714, das ein bevorstehendes Abbiegen zeigt. Jede Ansicht kann dem Benutzer präsentiert werden, etwa über ein HUD des Fahrzeugs.
  • In der zweiten Sektion 720 verbindet sich das vom Benutzer am Körper tragbare Gerät 702 kommunikationstechnisch mit dem Fahrzeug, um Kommunikationen dazwischen zu ermöglichen. Die Verbindung kann mit Hilfe des Bluetooth-Protokolls oder anderweitig erfolgen. Die Verbindungsoperationen 720 können Handshake- oder Authentifizierungsprozeduren umfassen.
  • In der dritten Sektion 730 bestimmt das Rechensystem des Fahrzeugs, welches Signal und/oder welche Meldung für den Benutzer im Hinblick auf die Situation, die in der ersten Sektion 710 identifiziert wurde, bereitgestellt werden soll. Eine beispielhafte Anzeige ist das benötigte Rechtsabbiegen 714, das von dem Fahrer ausgeführt werden soll, um dem Routenverlauf 712 zu folgen.
  • Die Ansicht 700 zeigt in der dritten Sektion 730 außerdem eine visuelle Repräsentation 731, die verschiedene Typen von Ausgaben zeigt, die mit dem Kontext der Situation korrespondieren.
  • Ein Typ von Kontext ist räumlich und speziell richtungsbezogen. Die erste Spalte 732 zeigt, dass das Signal vom Fahrzeug an das am Körper tragbare Gerät das am Körper tragbare Gerät anweist, eine rechte Seite der Brille 702 zu betätigen - z.B. eine Vibration und/oder ein Geräusch - wie durch einen Punkt 733 angezeigt ist.
  • Die zweite Spalte 734 zeigt drei verschiedene Typen von Ausgaben, die drei Abständen 735 entsprechen, die das Fahrzeug hinsichtlich der Ecke durchlaufen wird, an welcher der Benutzer das Fahrzeug abbiegen lassen soll. Der erste Ausgabetyp 735 ist eine Ausgabe mit niedrigem Niveau, die etwa nur eine einzige Vibration und/oder einen einzigen Ton oder eine Ausgabe mit einer niedrigen Frequenz, einer geringen Lautstärke, einer geringen Amplitude, Helligkeit usw. enthält. Diese Ausgabe 735 mit niedrigem Niveau entspricht einer größeren Distanz zu der Ecke, etwa 245 Meter (800 Fuß), an welcher der Benutzer abbiegen soll.
  • Die zweite Ausgabe 736 erfolgt bei einem Zwischen- oder mittleren Niveau. Die Ausgabe 736 bei einem Zwischenniveau wird bereitgestellt, wenn sich das Fahrzeug näher bei der Abbiegestelle befindet, etwa 122 Meter (400 Fuß) von der Ecke entfernt. Die Ausgabe 736 auf mittlerem Niveau liegt auf eine oder mehrere Weisen auf einem höheren Niveau, etwa dadurch, dass sie ausgestaltet ist, um mehr Aufmerksamkeit zu erregen als das niedrigere Niveau 735. Der zweite Ausgabetyp 736 kann beispielsweise mehr als eine Vibration und/oder einen Ton bereitstellen, etwa eine schnelle doppelte Vibration oder ein schnelles doppeltes Piepsen, oder eine Ausgabe mit einer mittleren Frequenz, einem mittleren Volumen, einer mittleren Amplitude, einer mittleren Helligkeit usw. (höher als die niedrige Ausgabe 735).
  • Die dritte Ausgabe 737 liegt auf einem hohen Niveau. Die Ausgabe 737 auf hohem Niveau wird bereitgestellt, wenn sich das Fahrzeug noch näher, beispielsweise direkt vor der Abbiegestelle befindet, etwa 30 Meter (100 Fuß) von der Ecke entfernt. Die Ausgabe 737 auf hohem Niveau liegt auf eine oder mehrere Weisen auf einem höheren Niveau als es das niedrige und mittlere Niveau 735, 736 sind, etwa indem sie ausgestaltet ist, um mehr Aufmerksamkeit zu erregen. Beispielsweise kann der hohe Ausgabetyp 737 mehr als zwei Vibrationen oder Piepser oder eine Ausgabe auf einem höheren Niveau als es dasjenige der niedrigen und mittleren Ausgaben 735, 736 ist, bereitstellen, etwa im Hinblick auf Frequenz, Lautstärke, Amplitude, Helligkeit usw.
  • VIII. Zusätzliche Merkmale
  • Viele der Merkmale und Ausführungsformen der vorliegenden Technologie sind vorstehend beschrieben worden. Die vorliegende Sektion erwähnt einige von diesen erneut und bezieht sich auf einige andere.
  • In verschiedenen Ausführungsformen ermöglicht die vorliegende Technologie einen Zugriff auf und eine Steuerung von Merkmalen von existierenden Fahrzeugen und von von Kunden am Körper tragbaren Geräten, um die Mensch-Maschinen-Schnittstelle des Fahrzeugs oder die Mensch-Fahrzeug-Schnittstelle (HMI, VHI) zu erweitern, wodurch eine verbesserte Benutzererfahrung bereitgestellt wird.
  • In verschiedenen Ausführungsformen umfasst die vorliegende Technologie das Koppeln mit vielen Typen von am Körper tragbaren Geräten, etwa intelligenten Uhren, Brillen, Armbändern, Halsketten, Hüten, Hemden usw.
  • Relevante Fahrzeugsysteme können Information, Kommunikation, Navigation, Sicherheit und/oder andere umfassen.
  • In verschiedenen Ausführungsformen ist die vorliegende Technologie mit geeigneten Kommunikationsprotokollen und/oder Programmierschnittstellen (z.B. APIs) bei dem am Körper tragbaren Gerät und/oder am Fahrzeug ausgestaltet, um miteinander zu kommunizieren. Das Fahrzeugsystem kann so ausgestaltet sein, dass es in der Lage ist, mit einem beliebigen oder mit allen einer großen Vielfalt von am Körper tragbaren Geräten zu kommunizieren.
  • In verschiedenen Ausführungsformen verwendet die vorliegende Technologie existierende Merkmale (akustisch/visuell/haptisch) von von Kunden am Körper tragbaren Geräten für die neuartige Funktionalität der vorliegenden Technologie, welche die hier beschriebenen fortschrittlichen Interaktionen zwischen Fahrzeug und Benutzer umfasst. Die Anordnung kann beispielsweise haptische Motoren einer intelligenten Uhr verwenden, um eine geeignete Rückmeldung bereitzustellen, wenn der Benutzer die HMI des Fahrzeugs berührt/Gesten ausführt/damit interagiert.
  • Oder die Anordnung kann beispielsweise haptische Motoren in einer intelligenten Brille verwenden, um Richtungs- und Abstandsinformationen in einem Turn-by-Turn-Navigationssystem bereitzustellen.
  • Oder die Anordnung kann beispielsweise Geräuschüberträger einer intelligenten Hörvorrichtung (z.B. Ohrstöpsel oder Ohrringe) verwenden, um eine geeignete Rückmeldung bereitzustellen, wenn der Benutzer die HMI des Fahrzeugs berührt/Gesten ausführt, damit interagiert.
  • Oder die Anordnung kann beispielsweise Geräuschüberträger einer intelligenten Hörvorrichtung (z.B. Ohrstöpsel oder Ohrringe) verwenden, um Richtungs- und Abstandsinformationen in einem Turn-by-Turn-Navigationssystem bereitzustellen.
  • In verschiedenen Ausführungsformen verwendet die vorliegende Technologie ein am Körper tragbares Gerät, um eingebettete Fahrzeugkomponenten, etwa ein HMI-System im Fahrzeug, zu erweitern.
  • In verschiedenen Ausführungsformen ermöglicht die vorliegende Technologie einen Zugriff auf und eine Steuerung von Merkmalen (akustisch/visuell/haptisch) in von Verbrauchern am Körper tragbaren Geräten.
  • In verschiedenen Ausführungsformen verwendet die vorliegenden Technologie eine drahtlose Kommunikation zum Zugriff auf und zur Steuerung von Merkmalen (akustisch/visuell/haptisch) von am Körper tragbaren Geräten, um die HMI eines Fahrzeugs zu erweitern, wodurch eine verbesserte Benutzererfahrung bereitgestellt wird.
  • In verschiedenen Ausführungsformen ermöglicht die vorliegende Technologie die Verwendung und Steuerung eines am Körper tragbaren Geräts, um das eingebettete HMI-System des Fahrzeugs zu erweitern.
  • In verschiedenen Ausführungsformen ermöglicht die vorliegende Technologie eine nahtlose Eingabe/Ausgabe-Kommunikation zwischen einem am Körper tragbaren elektronischen Gerät eines Benutzers und anderen Systemen, etwa Fahrzeugsystemen. Beispielhafte Fahrzeugsysteme umfassen Infotainment, Navigation und Sicherheit. Andere Systeme umfassen beispielsweise das Internet/die Cloud, entfernte Steuerungszentralen (z.B. OnStar®), andere Fahrzeuge (Fahrzeug-zu-Fahrzeug (V2V)), Infrastruktur (V2I, z.B. am Straßenrand) oder andere (V2X), usw.
  • In verschiedenen Ausführungsformen umfasst die Technologie eine Anwendung, die eine Kommunikation zwischen Fahrzeug und am Körper tragbarem Gerät ermöglicht, um die Fähigkeit zur Gestensteuerung innerhalb, außerhalb und um das Fahrzeug herum oder während eines Übergangs, etwa wenn ein Elternteil ein Kind auf einem Autositz anschnallt oder in den Kofferraum greift, zu verbessern.
  • Die Anwendung kann an dem am Körper tragbaren Gerät und/oder am Fahrzeug bereitgestellt werden. Das am Körper tragbare Gerät kann mit mehreren Fahrzeugen funktionieren (z.B. gepaart sein oder paarbar sein). Auf diese Weise kann ein Benutzer die Technologie mit jedem von mehreren Fahrzeugen in seinem Haushalt oder beispielsweise mit Mietfahrzeugen verwenden.
  • Die Anwendung und das am Körper tragbare Gerät werden kombiniert, um die Benutzererfahrung zu verbessern, was einen erhöhten Komfort, eine erhöhte Bequemlichkeit, Eigentumssicherung und persönliche Sicherheit umfasst.
  • Die am Körper tragbaren Geräte können schmückend oder modisch sein, so dass die Geräte nicht eindeutig wie HMI-Produkte aussehen.
  • IX. Ausgewählte Vorteile
  • Viele der Vorteile und Nutzen der vorliegenden Technologie sind vorstehend beschrieben. Der vorliegende Abschnitt erwähnt einige von diesen erneut und nimmt Bezug auf einige andere. Die beschriebenen Vorteile sind nicht umfassend für die Vorteile der vorliegenden Technologie.
  • In verschiedenen Ausführungsformen stellt die Technologie eine erweiterte Benutzerschnittstelle bereit, die das Fahrzeug umfasst, und eine verbesserte Gesamterfahrung der Fahrzeugnutzung.
  • Die vorliegende Technologie kann mit einem beliebigen einer großen Vielfalt von Fahrzeugsystemen verwendet werden, etwa mit Informationssystemen, Infotainmentsystemen, Kommunikationssystemen, Navigationssystemen, Sicherheitssystemen oder anderen.
  • In den meisten Fällen können Kosten, Fahrzeugmasse, Verpackung oder Integration, die mit dem Hinzufügen und Einbetten neuer Komponenten in das Fahrzeug verbunden sind, vermieden werden. Beispielsweise werden bei Ausführungsformen, die am Körper tragbare Geräte umfassen, zusätzliche Kosten, Masse, Verpackung und Integration, die typischerweise benötigt werden, um Sensoren für ähnliche Zwecke direkt in das Fahrzeug einzubauen (z.B. Benutzeridentifikation oder Detektion/Bestimmung von Benutzergesten) vermieden.
  • Die am Körper tragbaren Geräte können schmückend oder modisch sein, so dass die Geräte so aussehen, dass es nicht eindeutig ist, dass es sich um HMI-Produkte handelt.
  • Die Systeme und Verfahren der vorliegenden Offenbarung ermöglichen eine sicherere und bequemere Verwendung eines Systems, etwa eines Kraftfahrzeugs.
  • X. Schlussfolgerung
  • Verschiedene Ausführungsformen der vorliegenden Offenbarung sind hier offenbart worden. Die offenbarten Ausführungsformen sind nur Beispiele, die in verschiedenen und alternativen Formen und Kombinationen daraus ausgeführt werden können.
  • Die vorstehend beschriebenen Ausführungsformen sind nur beispielhafte Veranschaulichungen von Implementierungen, die zum klaren Verständnis der Prinzipien der Offenbarung offengelegt wurden.
  • Variationen, Modifikationen und Kombinationen können an den vorstehend beschriebenen Ausführungsformen ausgeführt werden, ohne den Umfang der Ansprüche zu verlassen. Alle derartigen Variationen, Modifikationen und Kombinationen sind hier durch den Umfang dieser Offenbarung und die folgenden Ansprüche umfasst.

Claims (6)

  1. Fahrzeugtransportsystem zur Bereitstellung einer Rückmeldung für ein von einem Benutzer getragenes am Körper tragbares Gerät (300, 521, 522, 523, 524, 571, 702), umfassend: eine hardwarebasierte Verarbeitungseinheit (106); ein hardwarebasiertes computerlesbares Speichergerät (104), umfassend: ein Modul (204) zur Identifikation einer Fahrzeugfunktion, das, wenn es von der Verarbeitungseinheit (106) ausgeführt wird: feststellt, dass eine Auslösebedingung aufgetreten ist; und zum Antworten auf die Auslösebedingung eine Kommunikationsfunktion des am Körper tragbaren Geräts (300, 521, 522, 523, 524, 571, 702) bestimmt, was umfasst, dass ein Fahrzeugsignal an das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) übertragen wird; und ein Aktivierungsmodul (214), das, wenn es von der Verarbeitungseinheit (106) ausgeführt wird, das Übertragen des Fahrzeugsignals an das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) einleitet; wobei die Auslösebedingung umfasst, dass ein Benutzer, der das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) am Körper trägt, einen Teil des Benutzerkörpers in eine Vorab-Anordnung für Gesten bewegt, in welcher der Benutzer das Fahrzeug (102) nicht mit dem Körperteil kontaktiert, wobei die Vorab-Anordnung umfasst, dass der Benutzer die Hand hebt und zu einem Heads-Up-Display (HUD) zeigt; und wobei das Fahrzeugsignal ausgestaltet ist, um zu veranlassen, dass das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) betätigt wird, um den Benutzer zu informieren, dass die Vorab-Anordnung für Gesten von dem Fahrzeugtransportsystem erkannt worden ist.
  2. Fahrzeugtransportsystem nach Anspruch 1, wobei die Auslösebedingung umfasst, dass ein Prozessor von dem am Körper tragbaren Gerät (300, 521, 522, 523, 524, 571, 702) ein Signal oder eine Meldung empfängt, das/die anzeigt, dass eine Benutzergeste von dem am Körper tragbaren Gerät (300, 521, 522, 523, 524, 571, 702) erfasst worden ist.
  3. Fahrzeugtransportsystem nach Anspruch 2, wobei das Fahrzeugsignal ausgestaltet ist, um zu veranlassen, dass das am Körper tragbare Gerät (300, 521, 522, 523, 524, 571, 702) betätigt wird, um dem Benutzer anzuzeigen, dass die Geste von dem Fahrzeugtransportsystem erkannt worden ist.
  4. Fahrzeugtransportsystem nach Anspruch 1, wobei: die Auslösebedingung umfasst, dass festgestellt wird, dass eine Benutzergeste ausgeführt worden ist; das Feststellen, dass eine Benutzergeste ausgeführt worden ist, umfasst, dass die Verarbeitungseinheit (106) von einem Fahrzeugsensor (128, 130, 132, 545) ein Sensorsignal empfängt, das die Benutzergeste anzeigt.
  5. Fahrzeugtransportsystem nach Anspruch 1, wobei das Modul (204) zur Identifikation einer Fahrzeugfunktion, wenn es von der Verarbeitungseinheit (106) ausgeführt wird, einen Bedarf zum Aktivieren oder Verändern einer Fahrzeugvorrichtung, die durch eine Benutzergeste angezeigt wird, ermittelt.
  6. Fahrzeugtransportsystem nach Anspruch 1, wobei: die Auslösebedingung einen Bedarf zum Durchführen eines Fahrzeugfahrmanövers umfasst; und das Fahrzeugsignal ausgestaltet ist, um den Benutzer mit Hilfe einer Betätigung des am Körper tragbaren Geräts (300, 521, 522, 523, 524, 571, 702) über das benötigte Fahrzeugfahrmanöver zu benachrichtigen, wobei das Fahrzeugsignal, das ausgestaltet ist, um den Benutzer mit Hilfe der Betätigung des am Körper tragbaren Geräts (300, 521, 522, 523, 524, 571, 702) über das benötigte Fahrzeugfahrmanöver zu benachrichtigen, mit einem oder mehreren Kontextindikatoren ausgestaltet ist, um den Benutzer über die Betätigung des am Körper tragbaren Geräts (300, 521, 522, 523, 524, 571, 702) einen Kontext mit Bezug auf das benötigte Fahrmanöver anzuzeigen, und wobei der eine oder die mehreren Kontextindikatoren einen Richtungsindikator (714) oder einen Indikator für ein Bedeutungsniveau (734) enthält.
DE102016120945.7A 2015-11-03 2016-11-03 Schnittstelle am Fahrzeug für am Körper tragbare Geräte Active DE102016120945B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562250184P 2015-11-03 2015-11-03
US62/250,184 2015-11-03
US15/341,738 2016-11-02
US15/341,738 US10019070B2 (en) 2015-11-03 2016-11-02 Vehicle-wearable device interface and methods for using the same

Publications (2)

Publication Number Publication Date
DE102016120945A1 DE102016120945A1 (de) 2017-05-04
DE102016120945B4 true DE102016120945B4 (de) 2023-08-24

Family

ID=58546172

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120945.7A Active DE102016120945B4 (de) 2015-11-03 2016-11-03 Schnittstelle am Fahrzeug für am Körper tragbare Geräte

Country Status (1)

Country Link
DE (1) DE102016120945B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450672B (zh) * 2017-09-19 2024-03-29 曾泓程 一种高识别率的腕式智能装置
JP6984281B2 (ja) 2017-09-27 2021-12-17 トヨタ自動車株式会社 車両状態提示システム、車両、端末装置、および、方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006011704A1 (de) 2005-03-16 2006-10-19 GM Global Technology Operations, Inc., Detroit Fernrückmeldung für Fahrzeugschlüsselanhänger-Funktionen
US8159324B2 (en) 2005-10-20 2012-04-17 Asulab S.A. Portable electronic device for controlling and managing functions and/or data of a vehicle
WO2013053776A2 (de) 2011-10-12 2013-04-18 Bayerische Motoren Werke Aktiengesellschaft Fernbedienung für ein parkassistenzsystem und ein per fernbedienung kontrollierbares parkassistenzsystem
EP2733581A2 (de) 2012-11-20 2014-05-21 Samsung Electronics Co., Ltd Benutzergesteneingabe in einer tragbaren elektronischen Vorrichtung mit nach außen schauendem Vorrichtungssensor
US20150116078A1 (en) 2013-10-24 2015-04-30 GM Global Technology Operations LLC Enhanced vehicle key fob
US20150120151A1 (en) 2013-10-29 2015-04-30 Audi Ag Vehicle system for activating a vehicle component

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006011704A1 (de) 2005-03-16 2006-10-19 GM Global Technology Operations, Inc., Detroit Fernrückmeldung für Fahrzeugschlüsselanhänger-Funktionen
US8159324B2 (en) 2005-10-20 2012-04-17 Asulab S.A. Portable electronic device for controlling and managing functions and/or data of a vehicle
WO2013053776A2 (de) 2011-10-12 2013-04-18 Bayerische Motoren Werke Aktiengesellschaft Fernbedienung für ein parkassistenzsystem und ein per fernbedienung kontrollierbares parkassistenzsystem
EP2733581A2 (de) 2012-11-20 2014-05-21 Samsung Electronics Co., Ltd Benutzergesteneingabe in einer tragbaren elektronischen Vorrichtung mit nach außen schauendem Vorrichtungssensor
US20150116078A1 (en) 2013-10-24 2015-04-30 GM Global Technology Operations LLC Enhanced vehicle key fob
US20150120151A1 (en) 2013-10-29 2015-04-30 Audi Ag Vehicle system for activating a vehicle component

Also Published As

Publication number Publication date
DE102016120945A1 (de) 2017-05-04

Similar Documents

Publication Publication Date Title
US10019070B2 (en) Vehicle-wearable device interface and methods for using the same
US9881503B1 (en) Vehicle-to-pedestrian-communication systems and methods for using the same
DE102016209501B4 (de) Verfahren zum Generieren einer Warnung an einen oder mehrere Insassen eines Fahrzeugs
JP7060031B2 (ja) 運転者監視システム
US11062598B2 (en) Method, mobile user device, and computer program for producing visual information for at least one occupant of a vehicle
US10325519B2 (en) Vehicle tutorial system and method for sending vehicle tutorial to tutorial manager device
DE102017111843A1 (de) Systeme, um einen Nutzer mittels Gehanweisungen in erweiterter Realität dynamisch zu einem Abholungsort eines autonom fahrenden Fahrzeugs zu führen
US20170120932A1 (en) Gesture-based vehicle-user interaction
DE102016100210A1 (de) Haptische fahrzeughinweise auf der basis einer tragbaren vorrichtung
CN107415938A (zh) 基于乘员位置和注意力控制自主车辆功能和输出
US9734412B2 (en) Method and system of communicating vehicle information
DE102010048470A1 (de) Kommunikation zwischen Fahrzeug und Entität
KR20240074777A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
KR20240067906A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
WO2016162237A1 (de) Steuerung für ein elektronisches multifunktionsgerät
DE102016114754A1 (de) Fokussiersystem zum Verbessern einer Fahrzeugsichtleistung
DE112012004778T5 (de) Universeller Bus im Auto
DE102016103612A1 (de) Benutzerschnittstelle einer fahrzeuginternen Komponente
CN105128862A (zh) 一种车载终端眼球识别控制方法及系统
RU2700945C1 (ru) Конфигурирование носимого устройства с помощью данных транспортного средства и облачных данных о событии
DE102014013960A1 (de) Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung
US20180079429A1 (en) Human-machine interface device and method for sensory augmentation in a vehicle environment
DE102017101343A1 (de) Systeme und verfahren zur fahrzeugsystemsteuerung auf grundlage physiologischer merkmale
DE102016120945B4 (de) Schnittstelle am Fahrzeug für am Körper tragbare Geräte
DE102021120651A1 (de) Kontextsensive Sicherheitswarnungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final