DE102022126772A1 - Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel - Google Patents

Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel Download PDF

Info

Publication number
DE102022126772A1
DE102022126772A1 DE102022126772.5A DE102022126772A DE102022126772A1 DE 102022126772 A1 DE102022126772 A1 DE 102022126772A1 DE 102022126772 A DE102022126772 A DE 102022126772A DE 102022126772 A1 DE102022126772 A1 DE 102022126772A1
Authority
DE
Germany
Prior art keywords
gesture
transport
sensor
user
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022126772.5A
Other languages
English (en)
Inventor
Christoph Zoeller
Lei Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022126772.5A priority Critical patent/DE102022126772A1/de
Publication of DE102022126772A1 publication Critical patent/DE102022126772A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Anwenderschnittstelle, ein Fortbewegungsmittel (10) sowie ein Verfahren zur Interaktion mit einem Fortbewegungsmittel (10) vorgeschlagen. Das Verfahren umfasst die Schritte: Erfassen einer ersten Geste (1) eines Anwenders (5) mittels eines Sensors (6, 7) des Fortbewegungsmittels (10), Erstellen einer ersten Referenz für die erste Geste (1) mittels Daten des Sensors (6, 7), Erfassen einer zweiten Geste (2) des Anwenders (5) mittels des Sensors (6, 7) des Fortbewegungsmittels (10), Erstellen einer zweiten Referenz für die zweite Geste (2) mittels Daten des Sensors (6, 7), Ermitteln einer hinreichenden Verwandtschaft der ersten Geste (1) und der zweiten Geste (2), im Ansprechen darauf Vordefinieren eines Modells (8), innerhalb dessen die erste Geste (1) und die zweite Geste (2) zumindest anteilig liegen, und Auslösen einer Funktion des Fortbewegungsmittels (10) durch eine dritte Geste (3), sofern die dritte Geste (3) dem Modell (8) entspricht.

Description

  • Die vorliegende Erfindung betrifft ein Fortbewegungsmittel, eine Anwenderschnittstelle sowie ein Verfahren zur Interaktion mit einem Fortbewegungsmittel. Insbesondere betrifft die vorliegende Erfindung eine verbesserte Gestenbedienung bei der Verwendung dreidimensional im Raum ausgeführter Gesten.
  • Moderne Fortbewegungsmittel weisen eine Vielzahl Funktionen auf, auf welche der Insasse beliebig zugreifen kann. Als Anwenderschnittstellen haben sich neben Sprachbedienung insbesondere gestenbasierte Anwendereingaben bewährt. Diese ermöglichen eine im Wesentlichen freie Gestaltung der Oberfläche des Fahrzeuginnenraums, sofern die Gesten durch Sensoren als Freiraumgesten oder 3D-Gesten ausgeführt werden können. Die im Stand der Technik bekannten Anwenderschnittstellen haben jedoch eine Reihe von Nachteilen: Einerseits besteht das Problem von Fehlauslösungen, da unterschiedliche Anwender Gesten in unterschiedlicher Weise ausführen. Zudem kann eine bestimmte Geste für einen ersten Kunden eine vollständig andere Konnotation aufweisen als für einen zweiten Kunden. Mit anderen Worten ist einem zweiten Kunden das Ausführen einer Wischgeste für einen AnsichtenWechsel nicht intuitiv und er würde lieber durch eine alternative Geste einen Ansichtenwechsel hervorrufen. Darüber hinaus können auch körperliche Einschränkungen dazu führen, dass der Anwender bestimmte Gesten nicht ausführen kann. Beispielsweise können versteifte Gelenke das beliebige Abspreizen von Fingern durch einen Anwender unmöglich machen.
  • Es ist eine Aufgabe der vorliegenden Erfindung, die in Verbindung mit dem Stand der Technik oben identifizierten Nachteile zu lindern bzw. auszuräumen.
  • Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren zur Interaktion mit einem Fortbewegungsmittel gelöst. Das Fortbewegungsmittel kann als PKW, Transporter, LKW, Motorrad, Luft- und/oder Wasserfahrzeug ausgestaltet sein. Die Interaktion kann durch einen Anwender innerhalb des Fortbewegungsmittels erfolgen, welcher daher auch als Insasse, Fahrer, Beifahrer oder Fondpassagier bezeichnet werden könnte. In einem ersten Schritt wird eine erste Geste eines Anwenders mittels eines Sensors eines Fortbewegungsmittels erfasst. Mit anderen Wort wird die Geste sensorisch bzw. sensortechnisch aufgelöst und in datentechnischer Form weitergeleitet. Anschließend wird eine erste Referenz für die erste Geste mittels der Daten des Sensors erstellt. Mit anderen Worten wird eine datentechnische Repräsentation der vom Anwender tatsächlich ausgeführten Geste aufgenommen. Die erste Referenz kann beispielsweise einen Zeitverlauf oder eine räumliche Erstreckung einer Hand und/oder eines Fingers des Anwenders repräsentieren. In einem weiteren Schritt wird auch eine zweite Geste des Anwenders mittels des (selben) Sensors des Fortbewegungsmittels erfasst. Diese zweite Geste entspricht bevorzugt in ihren Grundzügen und ihrer Position im 3D-Innenraum der ersten Geste. In einem weiteren Schritt wird auch eine zweite Referenz für die zweite Geste mittels der Daten des Sensors erstellt. Somit sind tatsächliche Trajektorien bzw. räumliche Erstreckungen der ersten und zweiten Geste durch die erste und zweite Referenz datentechnisch repräsentiert. Anschließend wird eine hinreichende Verwandtschaft bzw. Identität der ersten Geste und der zweiten Geste ermittelt. Hierbei kann ein Abstand und/oder eine Unterscheidung und/oder ein räumlicher Versatz etc. daraufhin bewertet werden, inwiefern die Natur der ersten Geste der Natur der zweiten Geste entspricht bzw. die erste Geste vom Anwender wohl ähnlich oder identisch zur zweiten Geste ausgeführt werden sollte. Im Ansprechen auf das Ermitteln der hinreichenden Verwandtschaft wird anschließend ein Modell vordefiniert, innerhalb dessen die erste Geste und zweite Geste zumindest anteilig liegen. Dieser Schritt könnte als Ermitteln eines Grenzbereiches oder eines „Korridors“ für die erste und zweite Geste dergestalt verstanden werden, dass das erstellte Modell zumindest in einem mittleren Raumbereich bzw. Kernbereich der Geste hinreichend identisch die erste Geste und die zweite Geste einhüllt oder eine Art Vereinigungsmenge bildet, welche durch die räumliche Erstreckung bzw. den zeitlichen Verlauf der ersten und zweiten Geste einen Grenzbereich definiert, innerhalb dessen sich die erste Geste und die zweite Geste befinden. Das Modell könnte daher auch als virtueller Schlauch oder virtueller Handschuh (ggf. über der Zeit „verschmiert“) verstanden werden, dessen Volumen durch die erste Geste und die zweite Geste definiert werden kann. Insbesondere können zwischen zueinander korrespondierenden Punkten der ersten Geste und der zweiten Geste liegende Positionen ebenfalls als dem Modell zugehörig ermittelt werden, während um ein vordefiniertes Maß außerhalb der Strecke zwischen der ersten Geste und der zweiten Geste liegende Bereiche nicht mehr dem Modell zugehörig sind. Anschließend wird durch eine dritte Geste, welche dem Modell entspricht bzw. einen hinreichenden Abstand zum Modell einhält, eine Funktion des Fortbewegungsmittels ausgelöst. Der Anwender kann zu einem früheren Zeitpunkt festgelegt haben, welche Funktion er mit dem Modell assoziieren möchte. Dies kann vor dem Ausführen der ersten und zweiten Geste oder nach dem Ausführen der ersten und zweiten Geste bzw. einem Neu-Zuordnen der (neuen) Funktion zu der zuvor bereits definierten und ggf. mit einer anderen Funktion des Fortbewegungsmittels belegten Geste erfolgen. Auf diese Weise kann der Anwender eine ihm genehme Geste selbstständig definieren und anschließend zum Auslösen einer von ihm zugeordneten Funktion verwenden. Somit sind körperliche Einschränkungen für die Gestenbedienung eines Fortbewegungsmittels weniger relevant, der Anlern- und Eingewöhnungsvorgang deutlich intuitiver, somit die Anwenderakzeptanz höher und Fehlbedienungen bzw. Fehlerkennungen können signifikant reduziert werden.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen des erfindungsgemäßen Verfahrens.
  • Bevorzugt können weitere Anlernschritte ausgeführt werden, um das Modell zu verbessern. Dies kann bei einem initialen Anlernvorgang erfolgen, indem der Anwender nicht lediglich zwei Gesten, sondern drei, vier, fünf oder weitere Gesten zur Ermittlung des Modells ausführt. Der Anwender kann ein Kunde sein, welcher das Fortbewegungsmittel erstanden hat und nun individualisieren möchte. Die Modellbildung kann jedoch auch während des Gebrauchs bzw. nach Auftreten eines vordefinierten Ereignisses und/oder nach Ablauf einer vordefinierten Zeitdauer seit Ausführen der ersten Geste und der zweiten Geste erfolgen. Hierbei wird eine vierte Geste mittels eines Sensors des Fortbewegungsmittels erfasst und eine vierte Referenz für die vierte Geste mittels der Daten des Sensors ausgeführt. Diese Schritte entsprechen derart ersichtlich denjenigen, welche in Verbindung mit der ersten Geste und der zweiten Geste oben beschrieben worden sind, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird. Nun wird die Ermittlung der hinreichenden Verwandtschaft also auch auf Basis der ersten Geste, der zweiten Geste und der vierten Geste ausgeführt und bei hinreichender Identität der Gesten das Modell auch auf Basis der ersten Geste, der zweiten Geste und der vierten Geste vordefiniert. Entsprechende Vorgänge können für die Ausführung einer fünften Geste, einer sechsten Geste oder weiterer Gesten gelten und wiederholt werden, sofern erforderlich.
  • In entsprechender Weise können auch anders geartete Gesten für das Auslösen einer weiteren (zweiten) Funktion vordefiniert werden, um dem Anwender den Zugriff auf die zweite Funktion zu erleichtern. Entsprechendes gilt für dritte Funktionen, vierte Funktionen und alle weiteren Funktionen, welche gemäß dem Stand der Technik als sinnvollerweise durch eine (3D-)Geste ausführbar bekannt sind.
  • Das Modell kann zur adäquaten Erkennung einer hinreichenden Bedienabsicht des Anwenders einen maximal zulässigen Abstand bzw. einen maximal zulässigen mathematischen Abstand bzw. eine maximal zulässige Abweichung bzw. ein maximal zulässiges Distanzmaß und/oder eine minimal erforderliche Ähnlichkeit für die dritte Geste vordefinieren, mit welcher der Anwender die Funktion auslösen möchte. Genügt die dritte Geste dem vorgenannten Kriterium bzw. den vorgenannten Kriterien, wird die Funktion unverzüglich ausgelöst; andernfalls nicht-ausgelöst und optional eine Rückmeldung über die nicht hinreichend erkannte Geste an den Anwender ausgegeben (z.B. akustischer Signalton und/oder Meldung auf einer optischen Anzeigeeinheit).
  • Insbesondere für den Fall, dass der Anwender eine zweite Funktion mittels einer anderen Geste auslösen möchte und hierzu einen weiteren Anlernvorgang wie oben beschrieben ausführt, kann die Notwendigkeit bestehen, auch das Modell für die dritte Geste anzupassen. Beispielsweise kann das Modell für die dritte Geste im Ansprechen auf das Aufnehmen eines Anlernvorgangs zur Ermittlung eines zweiten Modells automatisch konkretisiert werden, ohne dass der Anwender dies mitkriegt. Hierzu ein Beispiel: Der Anwender hat in einem ersten Konfigurationsvorgang eine erste Funktion mit einer statischen Geste verknüpft, bei welcher die geöffnete Hand (fünf ausgestreckte und voneinander entfernte Finger) vom Sensor erfasst und als Referenz hinterlegt worden sind. Sofern keine weiteren Gesten durch den Anwender definiert worden sind, kann die Referenz lediglich verlangen, dass die geöffnete Hand zumindest einen oder zwei oder drei Finger abgespreizt aufweist und das Vorhandensein eines abgespreizten vierten und fünften Fingers lediglich optional vorgesehen ist, um die erste Funktion auszulösen. Wenn nun zu einem späteren Zeitpunkt der Anwender eine Geste mit einer verringerten Anzahl (z.B. zwei oder drei) abgespreizter Finger als Geste für die zweite Funktion anlernt, kann automatisch ermittelt werden, dass die bislang ebenfalls nur drei abgespreizte Finger verlangende Funktion nun nicht mehr durch eine Geste auszulösen ist, bei welcher lediglich drei Finger abgespreizt sind, sondern bei zwei oder drei abgespreizten Fingern die zweite Funktion auszulösen ist. Demensprechend kann die verwendete Auswerteeinheit das Modell für die dritte Geste (zunächst angelernte erste Geste) automatisch konkretisieren, indem eine die Gesten voneinander unterscheidende Grenze (z.B. Anzahl abgespreizter Finger) automatisch auf für eine bereits definierte Geste automatisch angepasst wird. Entsprechende Anpassungen können selbstverständlich auch für Wischgesten, unterschiedliche Orientierungen von Wischgesten, unterschiedliche Längen von Wischgesten oder unterschiedliche Grade der Abspreizung der Finger einer Hand zueinander gelten. Auf diese Weise kann eine dynamische Anpassung des zur Verfügung stehenden Gestenraumes bzw. der ihn klassifizierenden Modelle erfolgen, wenn der Bedarf besteht. Bis zu diesem Punkt kann die Fehlerkennung durch „tolerantere“ Modelle gering gehalten werden.
  • Das erfindungsgemäße Vordefinieren von Gesten kann beispielsweise im Ansprechen auf die Erkennung einer vordefinierten Anwendereingabe erfolgen. Der Anwender kann beispielsweise ein Konfigurationsmenü in einer Struktur einer grafischen Benutzeroberfläche aufsuchen. Hierzu kann er berührende oder frei im Raum ausgeführte Gesten oder akustische Sprachbefehle verwenden. Im Ansprechen darauf wird ein Konfigurationsmodus zum Erfassen der ersten Geste und weiterer oben genannter Gesten automatisch gestartet. Mit anderen Worten wird ein Lernmodus durch den Anwender explizit aufgerufen, um die Initiale Definition des Gestenmodells anzustoßen.
  • Alternativ kann jedoch auch eine vordefinierte Fahrsituation und/oder eine vordefinierte Bediensituation und/oder eine vordefinierte Fahrzeugsituation automatisch (z.B. sensortechnisch) ermittelt werden und im Ansprechen darauf die Eignung der Situation für eine Gestenbedienung durch eine vom Anwender zu definierende Geste erkannt werden. Im Ansprechen hierauf wiederum kann ein Konfigurationsmodus zum Erfassen der ersten Geste gestartet oder je nach Situation und Eignung zu einem späteren Zeitpunkt automatisch vorgeschlagen werden, um den Anwender in einer ggf. komplexen Situation (Einfahren in eine Nebelbank o.ä.) nicht mit zu vielen Informationen zu behelligen. Somit kann die Anpassung an eine entsprechende Fahrzeugsituation, Bediensituation oder Fahrsituation zu einem späteren Zeitpunkt durch den Anwender ergonomischer und sicherer erfolgen.
  • Der zur Erkennung der Gesten verwendete Sensor kann beispielsweise eine Innenraumkamera und/oder einen Radarsensor und/oder einen Infrarotsensor und/oder einen Laser- und/oder einen Lidar-Sensor aufweisen. Diese Sensoren sind insbesondere in modernen, hochwertigen Fahrzeugen entweder ohnehin verbaut oder vorteilhaft einsetzbar, um den Gestenraum/Bedienradius des Anwenders zu überwachen und wie oben beschrieben angelernte, ausgeführte und mit Funktionen assoziierte Gesten zu erkennen und den Anwender durch automatische Ausführung der zugeordneten Funktion zu unterstützen.
  • Der Sensor bzw. die Sensoren können in einem oder mehreren der nachgenannten Orte innerhalb des Fortbewegungsmittels angeordnet sein: In einem Sockel eines Rückspiegels und/oder in einem Funktionszentrum Dach und/oder in einem Rückspiegel und/oder in einer Mittelkonsole und/oder in einer Armaturentafel / einem Armaturenbrett des Fortbewegungsmittels. Auch die in einem Kombiinstrument zur Erkennung von Müdigkeit oder einem zentralen Informationsdisplay zur Helligkeitserkennung verwendeten Sensoren können für das erfindungsgemäße Verfahren Verwendung finden. Insbesondere kann dafür Sorge getragen werden, dass die Geste des Anwenders aus mindestens zwei Perspektiven zeitgleich aufgenommen und bei der Modellbildung berücksichtigt wird.
  • Die Gesten können beispielsweise eine Wischgeste und/oder eine Rotationsgeste, bei welcher der Anwender die Hand in sich oder um eine ortsfeste Position rotiert umfassen. Grundsätzlich sind zweidimensionale und/oder dreidimensionale Gesten oder statische Gesten möglich, sofern die sensortechnische Auflösung der Geste gewährleistet ist. Auch können Finger-spreiz-Gesten oder Zeigegesten verwendet werden, um eine vordefinierte Funktion auszulösen.
  • Grundsätzlich kann jede geeignete Funktion durch den erfindungsgemäßen Ablauf angestoßen/ausgelöst werden. Lediglich beispielsweise wird daher eine Lautstärkeveränderungsfunktion, ein nächster Titel bzw. vorheriger Titel bzw. nächster Sender bzw. vorheriger Sender, scrollen nach oben, scrollen nach unten und/oder Fensterheber rauf oder runter, Dachfenster auf oder zu oder ausstellen und/oder Schiebe-/Panoramadach auf oder zu oder aufstellen und/oder ein Dachhimmelrollo (Panoramadach-rollo) ausgerollt oder eingerollt werden. Als weitere Funktionen kommen Innenbeleuchtungsbetriebszustände von Lampen wie beispielsweise Ambientelicht, Leseleuchte, Dachhimmelbeleuchtung etc. ebenso wie eine Aktivierung einer externen Signalisierungseinrichtung (Hupe/Lichthupe o.ä.) ebenso infrage wie Einstellungen/Funktionen des Sitzkomforts (Belüftung/Massage/Heizung/fahrdynamische Sitze) oder Anruffunktionen (Annehmen oder Ablehnen). Grundsätzlich kann auch das Starten einer Spracheingabe oder das auffordern zur akustischen Ausgabe eines Status einer vordefinierten Funktion für eine vom Anwender zu definierende Geste ausgewählt werden.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle für ein Fortbewegungsmittel vorgeschlagen, welche eine Auswerteeinheit mit einem Dateneingang und einem Datenausgang aufweist. Die Auswerteeinheit kann als elektronisches Steuergerät (ECU) der Server oder Mittel zum sog. „Cloud-Computing“ ausgestaltet und mit Busteilnehmern ausgestattet sein. Der Server kann das Erlernen der Geste und die spätere Erkennung über das sog. „Cloud Computing“ in einem Server offboard, also außerhalb von dem Fortbewegungsmittel, bewerkstelligen. Dazu sendet das Fortbewegungsmittel alle Daten der erfassten Geste (und ggf. weitere Kontextdaten) an einen Server ins Backend und wartet auf das Auswertungsergebnis von diesem. Die Auswerteeinheit ist somit eingerichtet, mittels des Dateneingangs eine erste Geste eines Anwenders mittels eines Sensors des Fortbewegungsmittels zu erfassen, eine entsprechende erste Referenz für die erste Geste anzulegen, anschließend eine zweite Geste des Anwenders mittels des Sensors zu erfassen und auch für die zweite Geste eine entsprechende Referenz anzulegen und bei hinreichender Verwandtschaft der ersten Referenz und der zweiten Referenz bzw. der ersten Geste und der zweiten Geste anschließend ein Datenmodell für die erste und zweite Geste (Vereinigungsmenge o.ä.) festzulegen, um eine Funktion bei Erkennung einer dem Datenmodell entsprechenden Geste auszulösen. Auf diese Weise ist die Anwenderschnittstelle im Stande, die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenen Vorteile des erfindungsgemäßen Verfahrens derart ersichtlich in entsprechender Weise zur verwirklichen, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel vorgeschlagen, welches eine Anwenderschnittstelle gemäß dem zweitgenannten Erfindungsaspekt aufweist. Das Fortbewegungsmittel kann beispielsweise als PKW, Transporter, LKW, Motorrad, Wasser- und/oder Luftfahrzeug ausgestaltet sein. Durch die erfindungsgemäße Anwenderschnittstelle ist auch das Fortbewegungsmittel in entsprechender Weise im Stande, die Merkmale, Merkmalskombinationen und Vorteile entsprechend den obigen Ausführungen zu verwirklichen.
  • Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen:
    • 1 eine perspektivische Darstellung eines Fahrerarbeitsplatzes eines erfindungsgemäß ausgestalteten Fortbewegungsmittels mit einer erfindungsgemäß ausgestalteten Anwenderschnittstelle bei der Ausführung eines erfindungsgemäßen Verfahrens;
    • 2 eine schematische Darstellung einer Vielzahl ausgeführter Wischgesten und Erstellung eines korrespondierenden datentechnischen Modells;
    • 3 das Ausführen einer statischen Geste durch einen Anwender und das vom System ermittelte datentechnische Modell; und
    • 4 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Interaktion mit einem Fortbewegungsmittel.
  • 1 zeigt einen Fahrerarbeitsplatz eines PKWs als erfindungsgemäß ausgestaltetes Fortbewegungsmittels 10, innerhalb dessen ein Anwender 5 eine Gestenbedienung zur Auslösung einer (nicht dargestellten) Funktion unternimmt. Im Funktionszentrum Dach 11 ist eine erste Innenraumkamera als Sensor 6 angeordnet, welche die Hand des Anwenders 5 von oben sensortechnisch erfasst. In der Mittelkonsole 16 ist eine weitere Kamera als Sensor 7 angeordnet, welche die Hand des Anwenders 5 von unten sensortechnisch erfasst. Beide Kameras sind mit einem Dateneingang 13 eines elektronischen Steuergerätes 12 informationstechnisch verbunden, welches die Gesten analysiert, Modelle zu erstellen im Stande ist und Rückmeldungen über einen zentralen Informationsbildschirm 15 mittels eines Datenausgangs 14 auszugeben im Stande ist. Bereits zu einem früheren Zeitpunkt hat des Anwender 5 ein Modell 8 für eine horizontale, nach links gerichtete Wischgeste als dritte Geste 3 definiert, indem er (nicht dargestellte) erste, zweite und vierte Gesten ausgeführt hat. Hierbei wurde für das Modell 8 eine obere Grenze 8a, eine untere Grenze 8c, eine rechte Grenze 8b und eine linke Grenze 8d definiert. Das Modell 8 stellt sozusagen einen Korridor oder eine Einhüllende für die zuvor ausgeführten Anlerngesten dar, wobei die rechte Grenze 8b und die linke Grenze 8d durch die Wischgeste 3 überschritten und die obere Grenze 8a sowie die untere Grenze 8c durch die Wischgeste 3 nicht überschritten werden dürfen. Die vom Anwender wie dargestellt ausgeführte dritte Geste 3 ist somit als dem Modell 8 entsprechend zu klassifizieren und wird vom Fortbewegungsmittel 10 zur Auslösung der vordefinierten Funktion akzeptiert.
  • 2 zeigt Trajektorien einer Wischgeste 1, einer zweiten Wischgeste 2 sowie einer vierten Wischgeste 4, welche zur Definition eines datentechnischen Modells 8 verwendet wurden, da sie eine hinreichende Ähnlichkeit zueinander aufweisen. Eine weitere Wischgeste 9 ist hingegen derart unterschiedlich bzw. unähnlich zu übrigen Wischengesten 1, 2, 4, dass sie zur Vermeidung eines unspezifischen Modells bei der Erstellung des Modells 8 verworfen wurde.
  • 3 zeigt eine statische Geste als dritte Geste 3, bei welcher die Hand eines Anwenders 5 einen abgespreizten Zeigefinger und einen abgespreizten Mittelfinger aufweist, während Ringfinger und kleiner Finger in Faustform vorliegen. Durch mehrere der dargestellten Gesten hat in erfindungsgemäßer Weise ein datentechnisches Modell 8 erstellt werden können, welches - sofern es das einzige vom Anwender definierte Datenmodell ist - vergleichsweise unspezifisch (auch gepunkteten Bereich 8' umfassend) ist und somit auch unter Abspreizen aller Finger zur Auslösung der vordefinierten Funktion verwendet werden kann. Sofern der Anwender 5 jedoch beispielsweise die in durchgezogenen Linien dargestellte Handhaltung mit lediglich zwei abgespreizten Fingern für die Ausführung einer anderen Funktion vordefiniert, kann fortan gelten, dass für eine erste Geste mindestens drei abgespreizte Finger und für die zweite Geste höchsten zwei abgespreizte Finger zu ermitteln sind, um die jeweilige Funktion auszuführen. Auf diese Weise erweitert sich der Gestenraum bzw. die Anzahl in erfindungsgemäßer Weise auslösbarer Funktionen.
  • 4 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Interaktion mit einem Fortbewegungsmittel. In Schritt 100 wird eine vordefinierte Fahrsituation erkannt, für welche das Fortbewegungsmittel den Vorteil der Definition einer Geste sieht. Beispielsweise kann das Einschalten von Nebelschaltern beim Einfahren in eine Nebelbank oder das Aufblenden beim Ausfahren aus einer geschlossenen Ortschaft bei Dunkelheit per Gestensteuerung erfolgen. Im Ansprechen darauf bietet das Fortbewegungsmittel in Schritt 200 einen Konfigurationsmodus zum Erfassen der ersten Geste an, sobald das Fortbewegungsmittel sich im Stillstand befindet. In Schritt 300 wird durch den Anwender bestätigt, dass eine Geste für die vordefinierte Fahrsituation vordefiniert werden soll, im Ansprechen worauf im Schritt 400 ein Konfigurationsmodus zum Erfassen der ersten Geste gestartet wird. In Schritt 500 wird anschließend die Geste vom Anwender ausgeführt und als erste Geste mittels eines Sensors des Fortbewegungsmittels erfasst. Dies kann beispielsweise mittels einer im Funktionszentrum Dach angeordneten optischen Kamera und einer in einer Mittelkonsole angeordneten zweiten Kamera erfolgen. In Schritt 600 wird anschließend eine erste Referenz für die erste Geste mittels Daten des Sensors erstellt. Mit anderen Worten wird eine datentechnische Repräsentation der ersten Geste gespeichert. In Schritt 700 erfolgt die Erfassung einer zweiten, zur ersten Geste ähnlichen Geste mittels eines Sensors des Fortbewegungsmittels und in Schritt 800 die Erstellung einer zweiten Referenz zur Repräsentation der zweiten Geste. In Schritt 900 wir auch eine vierte Geste erfasst und im Schritt 1000 eine vierte datentechnische Referenz zur Konsolidierung des datentechnischen Modells verwendet. In Schritt 1100 wird eine hinreichende Verwandtschaft bzw. annähernde Identität der ersten Geste, der zweiten Geste und der vierten Geste ermittelt und im Ansprechen darauf in Schritt 1200 ein datentechnisches Modell für die Gesten vordefiniert, innerhalb dessen die erste Geste, die zweite Geste und die vierte Geste zumindest anteilig liegen. Nun ist das System hinreichend angelernt und kann in Schritt 1300 im Ansprechen auf das Ausführen einer dritten Geste, welche dem Modell hinreichend entspricht eine vordefinierte Funktion des Fortbewegungsmittels auslösen.
  • Bezugszeichenliste:
  • 1
    Erste Geste
    2
    Zweite Geste
    3
    Dritte Geste
    4
    Vierte Geste
    5
    Anwender
    6,7
    Sensor
    8
    Datentechnisches Modell
    8a
    Obere Grenze
    8b
    Rechte Grenze
    8c
    Untere Grenze
    8d
    Linke Grenze
    8'
    Modifiziertes Modell
    9
    Weitere Geste
    10
    Fortbewegungsmittel
    11
    Funktionszentrum Dach
    12
    Auswerteeinheit
    13
    Dateneingang
    14
    Datenausgang
    15
    Zentraler Informationsbildschirm
    16
    Mittelkonsole
    100 bis 1300
    Verfahrensschritte

Claims (12)

  1. Verfahren zur Interaktion mit einem Fortbewegungsmittel (10) umfassend die Schritte: • Erfassen (500) einer ersten Geste (1) eines Anwenders (5) mittels eines Sensors (6, 7) des Fortbewegungsmittels (10), • Erstellen (600) einer ersten Referenz für die erste Geste (1) mittels Daten des Sensors (6, 7), • Erfassen (700) einer zweiten Geste (2) des Anwenders (5) mittels des Sensors (6, 7) des Fortbewegungsmittels (10), • Erstellen (800) einer zweiten Referenz für die zweite Geste (2) mittels Daten des Sensors (6, 7), • Ermitteln (1100) einer hinreichenden Verwandtschaft der ersten Geste (1) und der zweiten Geste (2), und im Ansprechen darauf • Vordefinieren (1200) eines Modells (8), innerhalb dessen die erste Geste (1) und die zweite Geste (2) zumindest anteilig liegen, und • Auslösen (1300) einer Funktion des Fortbewegungsmittels (10) durch eine dritte Geste (3), sofern die dritte Geste (3) dem Modell (8) entspricht.
  2. Verfahren nach Anspruch 1 weiter umfassend - Erfassen (900) einer vierten Geste (4) eines Anwenders (5) mittels des Sensors (6, 7) des Fortbewegungsmittels (10), - Erstellen (1000) einer vierten Referenz für die vierte Geste (4) mittels Daten des Sensors (6, 7), - Ermitteln einer hinreichenden Verwandtschaft der ersten Geste (1), zweiten Geste (2) und vierten Geste (4), und im Ansprechen darauf - Vordefinieren eines Modells (8), innerhalb dessen die erste Geste (1), die zweite Geste (2) und die vierte Geste (4) zumindest anteilig liegen.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Modell (8) einen maximal zulässigen Abstand für die dritte Geste (3) vordefiniert, bis zu welchem die dritte Geste (3) die Funktion auslöst.
  4. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend - Erkennen (300) einer vordefinierten Anwendereingabe und im Ansprechen darauf - Starten (400) eines Konfigurationsmodus' zum Erfassen der ersten Geste (1).
  5. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend - Erkennen (100) einer vordefinierten Fahrsituation und/oder Bediensituation und/oder Fahrzeugsituation und im Ansprechen darauf - Anbieten (200) eines Konfigurationsmodus' zum Erfassen der ersten Geste (1).
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei der Sensor (6, 7) - eine Innenraumkamera und/oder - einen Radarsensor und/oder - einen Infrarotsensor und/oder - einen Laser- und/oder - einen LiDar-Sensor des Fortbewegungsmittels (10) umfasst.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei der Sensor (6, 7) in - einem Sockel eines Rückspiegels und/oder - einem Funktionszentrum Dach (11) und/oder - einer Mittelkonsole (16) und/oder - einer Armaturentafel des Fortbewegungsmittels (10) angeordnet ist.
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei die erste Geste (1), die zweite Geste (2), die dritte Geste (3) und die vierte Geste (4) eine - Wischgeste und/oder - Rotationsgeste und/oder - zweidimensionale und/oder dreidimensionale Geste und/oder - statische Geste und/oder - Finger-Spreiz-Geste umfassen.
  9. Verfahren nach einem der vorstehenden Ansprüche, wobei die Funktion eine - Lautstärkeveränderungs- und/oder - „Titelsprung“ und/oder - Senderwechsel- und/oder - Scroll- und/oder - Fensterheber- und/oder - Dachfenster - und/oder - Schiebe- oder Panoramadach- und/oder - Dachhimmelrollo- - Innenbeleuchtungs- - ext. Signalgebungs- - Sitzkomfort-, - Anruf annehmen oder Ablehnen-Funktion umfasst.
  10. Anwenderschnittstelle für ein Fortbewegungsmittel (10) umfassend: • einen Dateneingang (13), • eine Auswerteeinheit (12) und • einen Datenausgang (14), wobei die Auswerteeinheit (12) eingerichtet ist, mittels des Dateneingangs (13) - eine erste Geste (12) eines Anwenders (5) mittels eines Sensors (6, 7) des Fortbewegungsmittels (10) zu erfassen, • eine Referenz für die erste Geste (1) mittels Daten des Sensors (6, 7) zu erstellen, • eine zweite Geste (2) des Anwenders (5) mittels des Sensors (6, 7) des Fortbewegungsmittels (10) zu erfassen, • eine hinreichende Verwandtschaft der ersten Geste (1) und zweiten Geste (2) zu ermitteln, und im Ansprechen darauf • mittels des Datenausgangs (14) ein Modell (8) zu erstellen, innerhalb dessen die erste Geste (1) und die zweite Geste (2) zumindest anteilig liegen, und • mittels des Datenausgangs eine vordefinierte Funktion auszulösen, wenn eine dritte Geste dem Modell (8) entspricht.
  11. Anwenderschnittstelle nach Anspruch 10, welche eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche 1 bis 9 auszuführen.
  12. Fortbewegungsmittel umfassend eine Anwenderschnittstelle nach einem der vorstehenden Ansprüche 10 oder 11.
DE102022126772.5A 2022-10-13 2022-10-13 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel Pending DE102022126772A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022126772.5A DE102022126772A1 (de) 2022-10-13 2022-10-13 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022126772.5A DE102022126772A1 (de) 2022-10-13 2022-10-13 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel

Publications (1)

Publication Number Publication Date
DE102022126772A1 true DE102022126772A1 (de) 2024-04-18

Family

ID=90469511

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022126772.5A Pending DE102022126772A1 (de) 2022-10-13 2022-10-13 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel

Country Status (1)

Country Link
DE (1) DE102022126772A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140304665A1 (en) 2013-04-05 2014-10-09 Leap Motion, Inc. Customized gesture interpretation
US20150261298A1 (en) 2014-03-15 2015-09-17 Microsoft Corporation Trainable sensor-based gesture recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140304665A1 (en) 2013-04-05 2014-10-09 Leap Motion, Inc. Customized gesture interpretation
US20150261298A1 (en) 2014-03-15 2015-09-17 Microsoft Corporation Trainable sensor-based gesture recognition

Similar Documents

Publication Publication Date Title
DE102017216837A1 (de) Gestik- und Mimiksteuerung für ein Fahrzeug
DE102015200006A1 (de) Vorrichtung und Verfahren zur Unterstützung eines Anwenders vor einer Bedienung eines Schalters zur elektromotorischen Verstellung eines Teils eines Fortbewegungsmittels
DE102016211494A1 (de) Steuerungseinrichtung für ein Kraftfahrzeug
WO2015062751A1 (de) Verfahren zum betreiben einer vorrichtung zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen in einem fahrzeuginnenraum
DE102016208410A1 (de) Verfahren und Vorrichtung zum Betreiben eines Signalsystems, Signalsystem, Fahrzeug
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
WO2021023468A1 (de) Vorrichtung und verfahren zur steuerung eines beifahrersitzes in einem fahrzeug
DE102017201799A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
EP3488320B1 (de) Vorrichtung und verfahren zur unterstützung eines anwenders
DE102016205797A1 (de) Verfahren und Vorrichtung zum Zuordnen von Steuerbefehlen in einem Fahrzeug sowie Fahrzeug
DE102017103391A1 (de) Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs
DE102013013166A1 (de) Kraftwagen mit Head-up-Anzeige und zugehöriger Gestenbedienung
WO2018149768A1 (de) Automatisierte aktivierung eines sichtunterstützungssystems
DE102022126772A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel
WO2019115340A1 (de) Verfahren zum betreiben eines assistenzsystems und ein assistenzsystem für einen kraftwagen
DE102015214393A1 (de) Verfahren und Vorrichtung zum Erkennen einer Absicht eines Fahrers eines Fahrzeugs bezüglich eines Ausführens einer Spurwechselaktion und/oder einer Abbiegeaktion des Fahrzeugs sowie Bedienelement
DE102007052355A1 (de) Verfahren zum Bedienen von Einrichtungen eines Fahrzeugs
EP3188922B1 (de) Bedienvorrichtung und verfahren zum bedienen von funktionen eines fahrzeugs, insbesondere eines kraftwagens
DE102016011016A1 (de) Verfahren zum Betrieb eines Assistenzsystems
EP3718810A1 (de) Verfahren und vorrichtung zur bedienung von elektronisch ansteuerbaren komponenten eines fahrzeugs
DE102016011141A1 (de) Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges
WO2016184539A1 (de) Bediensystem und verfahren zum betreiben eines bediensystems für ein kraftfahrzeug
DE102019132491A1 (de) Verstellen eines Rückspiegels an einem Fahrzeug
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102023000162B3 (de) Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified