Beschreibung
Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei Bedienung einer Bedieneinheit
Stand der Technik
Die vorliegende Erfindung betrifft eine Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen
Bedieneinheit. Insbesondere betrifft die vorliegende Erfindung die Unterstützung eines Fahrers eines Fortbewegungsmittels bei der Bedienung einer fest im Fortbewegungsmittel angeordneten Bedieneinheit während der Wahrnehmung seiner Fahraufgabe.
Im Stand der Technik ist es bekannt, Fahrzeuge durch Mensch-Maschine-Schnittstellen (human-machine-interfaces, HMI) auszustatten, auf deren Bildschirmen wahlfreie Inhalte und Interaktionsflächen dargestellt werden können. Zur Bedienung sind Dreh-/Drücksteller, Tastschalter und andere mechanische Elemente ebenso bekannt, wie berührungssensitive Oberflächen, welche beispielsweise kapazitive Sensoren umfassen. Zusätzlich sind Systeme bekannt, bei welchen eine vor einem Bildschirm ausgeführte Anwendergeste erkannt wird, ohne dass ein Kontakt zur Bedieneinheit erforderlich ist. Ein solcher Bedienschritt wird als „Hovern" bezeichnet. Hierbei wird die Gestenerkennung über optische Sensoren (Kameras) und alternativ oder zusätzlich über kapazitive Sensorik erfasst und einer vorbestimmten Schaltfläche zugeordnet. In diesem Zusammenhang wird auf das Betriebssystem„Windows 8" (eingetragene Marke) sowie auf„Air View" (eingetragene Marke) des Samsung Galaxy S4 (eingetragene Marke) verwiesen.
WO 2009/062677 A2 zeigt eine multimodale Benutzerschnittstelle eines Infotainmentsystems zur Eingabe und Präsentation von Informationen, bei welchen Gesten in Verbindung mit Sprachkommandos zum Aufrufen vordefinierter Funktionen verwendet werden. Hierbei werden kapazitive Sensoren zur Touch-/Gesten-Erkennung und ein
Spracherkennungssystem zur Erkennung von Sprachkommandos verwendet.
Es ist eine Aufgabe der vorliegenden Erfindung, einen Anwender bei der Bedienung einer Anwenderschnittstelle, insbesondere während der Wahrnehmung einer Fahraufgabe, zu unterstützen.
Offenbarung der Erfindung
Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie ein Anwenderschnittstelle mit den Merkmalen gemäß Anspruch 8 gelöst. Entsprechend dient das erfindungsgemäße Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen Bedieneinheit, welche als in einem Fortbewegungsmittel verbaute HMI ausgestaltet sein kann. Dabei wird zunächst eine Präsenz eines Eingabemittels in einem vordefinierten ersten Bereich bezüglich der Bedieneinheit erkannt. Das Eingabemittel kann beispielsweise ein Eingabestift („Stylus"), ein Finger eines Anwenders, ein anderer Körperteil des Anwenders o.a., sein. Entsprechend der vorgenannten Touch-/Gestenerkennung kann der vordefinierte erste Bereich in Kontakt mit der Bedieneinheit stehen („Touch-Bedienung") und sich in einen vordefinierten
Abstandsbereich vor der Bedieneinheit („Hover-Bereich") erstrecken. Die Bedieneinheit kann zur Erkennung der unterschiedlichen Eingaben kapazitive Sensorik, kamerabasierte
Sensorik o.a. umfassen. Im Ansprechen auf ein Erkennen der Präsenz des Eingabemittels wird eine Audioausgabe generiert, mittels welcher die Präsenz dem Anwender quittiert wird. Die Audioausgabe umfasst ein erstes Klangzeichen, das einer auf der Bedieneinheit dargestellten ersten Schaltfläche kontext-spezifisch zugeordnet ist. Die erste Schaltfläche kann beispielsweise einen vordefinierten Funktionsumfang repräsentieren, welchen das erste Klangzeichen in geeigneter Weise versinnbildlicht. Dabei kann das erste Klangzeichen auch als„akustisches Icon" (auch„Earcon" genannt) verstanden werden. Mit anderen Worten bestimmt die der Schaltfläche zugeordnete Funktion die Gestalt des Klangzeichens derart, dass der Anwender beim Hören des Klangzeichens eine bestimmte Funktion einer Vielzahl von Funktionen als nächstliegend assoziiert. Auf diese Weise kann das Erreichen des ersten vordefinierten Bereiches einen akustischen Hinweis auf die mit der ersten Schaltfläche assoziierte Funktion veranlassen. Beim Betätigen der Schaltfläche (z.B. durch eine Touch-Eingabe, eine Höver- Geste o.ä.) wird eine der Schaltfläche zugeordnete
Funktion ausgeführt, welche erfindungsgemäß durch den Anwender bereits aufgrund der Audio-Ausgabe erkannt wird. Entsprechend kann auch ein Verlassen des vordefinierten ersten Bereiches durch dasselbe oder ein alternatives Klangzeichen im Rahmen einer Audioausgabe begleitet werden. Auf diese Weise unterstützt die vorliegende Erfindung den Anwender bei der Bedienung der erfindungsgemäßen Bedieneinheit, insbesondere während der Wahrnehmung einer Fahraufgabe, während welcher der Fahrer eine begrenzte
Aufmerksamkeit für die Bedienung der Bedieneinheit aufwenden kann.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
Bevorzugt umfasst das erfindungsgemäße Verfahren weiter ein Erkennen einer Präsenz eines Eingabemittels in einem vordefinierten zweiten Bereich bezüglich der Bedieneinheit. Für den zweiten Bereich gilt dabei das in Verbindung mit dem ersten Bereich Gesagte entsprechend, wobei der zweite Bereich nicht notwendigerweise mit dem ersten Bereich zusammenfallen muss. Im Ansprechen auf die erkannte Präsenz des Eingabemittels im vordefinierten zweiten Bereich wird der Vorgang dem Anwender durch eine vordefinierte zweite Audioausgabe quittiert. Diese umfasst ein zweites Klangzeichen, dass einer auf der Bedieneinheit dargestellten zweiten Schaltfläche kontextspezifisch zugeordnet ist. Die zweite Schaltfläche steht dabei für eine andere Funktion als die erste Schaltfläche, wobei für das zweite Klangzeichen in Verbindung mit der zweiten Schaltfläche das oben Gesagte entsprechend gilt. Indem das zweite Klangzeichen und das erste Klangzeichen sich deutlich voneinander unterschieden, kann der Anwender beim Vernehmen des Klangzeichens auf eine mit der zweiten Schaltfläche assoziierte Funktion schließen und ein Ausführen der mit der ersten Schaltfläche assoziierten Funktion im Wesentlichen ausschließen. Dies verbessert die Unterstützung des Anwenders bei der Bedienung der erfindungsgemäßen Anwenderschnittstelle während der Wahrnehmung seiner Fahraufgabe.
Der vordefinierte erste Bereich und der vordefinierte zweite Bereich können durch eine im Wesentlichen parallel zur Oberfläche der Bedieneinheit liegende Grenzfläche, welche in senkrechter Richtung zur Oberfläche der Bedieneinheit beabstandet ist, begrenzt sein. Dabei kann eine erste parallele Grenzfläche durch die Oberfläche der Bedieneinheit selbst definiert sein oder ein Höver-Bereich durch eine zwischen der Oberfläche der Bedieneinheit und der ersten Grenzfläche definiert sein. Senkrechte Grenzflächen des ersten bzw. des zweiten Bereiches können beispielsweise mit den Grenzen einer jeweiligen dargestellten
Schaltfläche zusammenfallen. Mit anderen Worten kann die dargestellte Schaltfläche durch die Umrandung einer senkrechten Projektion des ersten bzw. zweiten Bereiches auf die Oberfläche der Bedieneinheit begrenzt sein. Dabei kann der erste bzw. der zweite Bereich in einem Abstand -1 mm bis +3mm von der Oberfläche der Bedieneinheit entfernt sein. Ein negativer Abstandsbereich steht dabei für eine Touch-Bedienung, während ein positiver Abstandsbereich für einen Höver-Bereich steht. Dieser erstreckt sich typischerweise bis zu einem Abstand von 10 mm bis hin zu 15 cm von der Oberfläche der Bedieneinheit.
Das erfindungsgemäße Verfahren kann weiter einen Übertritt des Eingabemittels von dem ersten Bereich in einen vordefinierten dritten Bereich bezüglich der Bedieneinheit erkennen. Für den dritten Bereich gilt dabei das in Verbindung mit dem ersten und dem zweite Bereich Gesagte entsprechend. Anschließend wird der Übertritt durch eine vordefinierte dritte Audioausgabe quittiert, die ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit dargestellten dritten Schaltfläche kontext-spezifisch zugeordnet ist. Mit anderen Worten steht die dritte Schaltfläche für eine dritte Funktion, die für den Anwender durch das dritte
Klangzeichen versinnbildlicht wird. Auf diese Weise kann der Anwender bei der Bedienung der erfindungsgemäßen Anwenderschnittstelle während der Wahrnehmung seiner
Fahraufgabe akustisch unterstützt werden, so dass sein Augenmerk im Wesentlichen auf dem Verkehrsgeschehen verbleiben kann.
Um die Anwenderakzeptanz des erfindungsgemäßen Verfahrens bzw. der
erfindungsgemäßen Anwenderschnittstelle zu erhöhen und den Anwender bzw. weitere Personen in der Umgebung nicht unnötig zu stören, ist es vorteilhaft, keine Sprachsignale in die Audioausgabe bzw. das Klangzeichen zu integrieren. Erfahrungsgemäß akzeptieren Anwender Geräusche bei wiederholter Wiedergabe deutlich besser, als dies für
Sprachsignalanteile der Fall ist. Entsprechend können die Audioausgaben ein Sample oder mehrere, miteinander verwandte, Samples umfassen, welche sich beispielsweise insbesondere bei wiederholter Ausgabe variieren lassen. Ein typisches Beispiel ist ein Klick- Geräusch, welches in Abhängigkeit des erfolgten Bedienschrittes in seiner Frequenz verändert werden kann. Beispielsweise kann beim Erreichen eines Höver-Bereiches ein Klick-Geräusch einer ersten, höheren Frequenz wiedergegeben werden, während bei einem Wechseln von einem ersten Höver-Bereich zu einem zweiten Höver-Bereich ein Klick- Geräusch einer zweiten, niedrigeren Frequenz wiedergegeben wird. Die Klick-Geräusche sind dabei ein Beispiel für eine schwach kontext-bezogene Zuordnung zwischen der Schaltfläche und dem Klangzeichen. Individueller kann beispielsweise eine wetterbezogene Schaltfläche quittiert werden, indem als Klangzeichen ein Donnergeräusch, ein
Regengeräusch oder Windgeräusch verwendet werden. Auf diese Weise kann auch eine aktuelle Wetterlage wiedergegeben werden, sofern diese mit einem der Geräusche treffend versinnbildlicht werden kann. Ein weiteres Beispiel ist die Ankündigung einer Telefonfunktion durch Wiedergabe einer DTMF-Tonfolge oder eines Freizeichens als Klangzeichen.
Entsprechend kann eine Navigationsfunktion durch ein Echolot-Geräusch angekündigt werden. Die vorstehend genannten Zuordnungen stellen dabei besonders intuitiv erkennbare Zusammenhänge für die Orientierung des Anwenders dar.
Weiter bevorzugt umfasst das erfindungsgemäße Verfahren das Quittieren der erkannten Präsenz durch ein vordefiniertes alternatives optisches Darstellen einer auf der
Bedieneinheit dargestellten Schaltfläche. Dabei kann ein erhöhter Störschallpegel teilweise kompensiert werden, indem die alternative optische Darstellung die Aufmerksamkeit des Anwenders auf die Bedieneinheit lenkt und nur schwach gegenüber dem Störschallpegel wahrgenommene Audioausgabe somit besser erkannt werden.
Bevorzugt können die Zuordnungen zwischen der jeweilige Audioausgabe und einer jeweiligen Schaltfläche durch einen Anwender definiert werden. Dies kann beispielsweise
dergestalt erfolgen, dass der Anwender in einem Konfigurationsmenü einer ganzen Liste von Schaltflächen jeweilige Klangzeichen zuordnen kann. Zusätzlich kann es möglich und vorteilhaft sein, dass ein Anwender ein zusätzliches Klangzeichen (z.B. selbst gestaltet oder erworben) einem Klangzeichenpool hinzufügen kann und dieses mit einer der Schaltflächen assoziieren kann. Dies erhöht die Wiedererkennung des Funktionsumfangs beim Vernehmen des Klangzeichens durch den Anwender.
Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welch insbesondere fest in einem Kraftfahrzeug verbaut sein kann. Solche Anwenderschnittstellen sind auch als Mensch-Maschine-Schnittstellen (HMI) bekannt. Das Kraftfahrzeug kann beispielsweise ein Straßenfahrzeug (PKW, LKW) sein, welches elektrisch, über einen Verbrennungsmotor oder Hybrid angetrieben wird. Die
Anwenderschnittstelle umfasst eine berührungsempfindliche Bedieneinheit, eine
Erkennungseinrichtung zum Erkennen einer Anwendereingabe und eine
Verarbeitungseinrichtung. Die berührungsempfindliche Bedieneinheit kann beispielsweise eine Anzeige umfassen, welche gemeinsam mit einem berührungsempfindlichen Element einen Touch-Screen ausbildet. Die Erkennungseinrichtung kann das berührungsempfindliche Element sowie ein Kamerasystem zum Erkennen von Hover-Gesten umfassen. Die
Verarbeitungseinrichtung kann einen Prozessor umfassen, welcher innerhalb der HMI angeordnet und beispielsweise zur Verarbeitung von Navigationsbefehlen eingerichtet ist. Die Anwenderschnittstelle ist überdies eingerichtet, ein Verfahren auszuführen, wie es in Verbindung mit dem erstgenannten Erfindungsaspekt beschrieben worden ist. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen dem in Verbindung mit dem erstgenannten Erfindungsaspekt beschriebenen, derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
Die Bedieneinheit kann bevorzugt zentral in das Armaturenbrett eines Kraftfahrzeugs integriert oder als Kombiinstrument hinter der Lenkeinrichtung des Fahrzeugs angeordnet sein. Alternativ oder zusätzlich kann die Erkennungseinrichtung ein Kamerasystem und/oder einen kapazitiven Sensor umfassen, um Hover-Gesten und Touch-Gesten erkennen und zuordnen zu können. Weiter kann die Anwenderschnittstelle ein Speichermittel umfassen, in welchem Referenzsignale repräsentierend vordefinierte Gesten abgespeichert sind. Die Referenzen können durch die Verarbeitungseinrichtung ausgelesen und mit durch die Erkennungseinrichtung erkannte Eingaben verglichen werden. Dies erhöht die Vielfalt der verwendbaren Bedienschritte, so dass im Mittel weniger aufeinanderfolgende Bedienschritte auszuführen sind.
Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fahrzeug vorgeschlagen, welches eine Anwenderschnittstelle entsprechend dem zweitgenannten Erfindungsaspekt umfasst. Die Anwenderschnittstelle kann als kompakte Einheit oder als verteiltes System innerhalb des Fahrzeugs angeordnet sein. Auf diese Weise kann vorhandene Hardware verwendet werden, wodurch die vorliegende Erfindung im Wesentlichen in Form von
Software realisiert werden kann. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erstgenannten und zweitgenannten Erfindungsaspekt beschriebenen derart ersichtlich, dass zur Vermeidung von Wiederholungen auch in diesem Zusammenhang auf die obigen Ausführungen verwiesen wird.
Kurze Beschreibung der Zeichnungen
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:
Figur 1 eine schematische Übersicht über Bestandteile eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle;
Figur 2 eine Darstellung eines möglichen Bedienschrittes eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle;
Figur 3 eine Darstellung eines alternativen Bedienschrittes eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle; und
Figur 4 ein Flussdiagramm, veranschaulichend die Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
Ausführungsformen der Erfindung
Figur 1 zeigt ein Fortbewegungsmittel 8, in welchem ein Bildschirm einer HMI als
Bedieneinheit 1 in das Armaturenbrett eingelassen ist. Eine Kamera 6 ist zusätzlich zu (nicht dargestellter) Annäherungssensorik über eine Lichtschranke und kapazitive Technologien als Erkennungseinrichtung im Bereich der Windschutzscheibe vorgesehen. Die Kamera 6 ist mit einem elektronischen Steuergerät 7 als Verarbeitungseinrichtung datentechnisch verbunden. Weiter ist das elektronische Steuergerät 7 mit einem Lautsprecher 9 zur Erzeugung einer Audioausgabe sowie mit der Bedieneinheit 1 verbunden, auf deren Bildschirm eine erste Schaltfläche 10 und eine zweite Schaltfläche 20 dargestellt sind. An den Schaltflächen 10,
20 sind jeweilige, quaderförmige Bereiche 1 1 , 21 , gestrichelt dargestellt, in denen eine Präsenz eines Eingabemittels als Touch-Eingabe oder als Hovern (in Abhängigkeit eines jeweiligen Abstandes a zur Oberfläche der Bedieneinheit 1 ) erkannt wird. Die Bereiche 1 1 ,
21 sind durch eine erste, parallel zur Oberfläche der Bedieneinheit 1 orientierte Fläche 12 bzw. 22, eine zweite, parallel zur Oberfläche der Bedieneinheit 1 orientierte und von der Oberfläche entfernte zweite Fläche 13 bzw. 23 und durch vier senkrecht zur Oberfläche der Bedieneinheit 1 orientierte Flächen 14 bzw. 24, 15 bzw. 25, 16 bzw. 26 und 17 bzw. 27 derart definiert, dass die Schaltflächen 10, 20 senkrechte Projektionen der Bereiche 1 1 . 21 auf der Bedieneinheit 1 darstellen bzw. von diesen begrenzt sind.
Figur 2 zeigt eine mögliche Bedienoberfläche, welche auf der Bedieneinheit 1 dargestellt werden kann. Auf einer ersten Schaltfläche 10 wird ein Kartenausschnitt dargestellt, welcher mit einem Teil einer durch ein Navigationssystem errechneten Route korrespondiert. Auf der rechten Bildschirmseite wird in einem oberen Bereich eine zweite Schaltfläche 20 dargestellt, über welche ein aktuell wiedergegebener Titel, dessen Interpret und das Album, auf welchem der Titel enthalten ist, wiedergegeben werden. Unterhalb der zweiten Schaltfläche 20 ist eine dritte Schaltfläche 30 dargestellt, in welchem das Wetter in Braunschweig in Form eines Icons in Verbindung mit einer Grad-Celsius-Angabe und einem aktuellen Niederschlag wiedergegeben wird. Die Hand eines Anwenders 2 befindet sich vor der ersten Schaltfläche 10. Über eine erste vordefinierte Audioausgabe 3, welche ein Echolot-Signal als Earcon umfasst, wird die Präsenz der Hand quittiert, und dem Anwender im Zuge dessen eine Orientierung gegeben, dass er eine mit einer Navigationsfunktion assoziierte Schaltfläche 10 bedient.
Figur 3 zeigt die in Verbindung mit Figur 2 dargestellte Ansicht, bei welcher jedoch eine alternative Geste mittels der Hand des Anwenders 2 ausgeführt wird. Dabei wechselt die Hand entlang eines Pfeils P aus einem ersten Bereich 1 1 vor der ersten Schaltfläche 10 in einen dritten Bereich vor der dritten Schaltfläche 30. Der erkannte Übertritt wird durch eine vordefinierte zweite Audio-Ausgabe 4, welche ein dezentes, hochfrequentes Klirren umfasst, quittiert. Somit korrespondiert die zweite Audio-Ausgabe 4 mit dem Inhalt der dritten
Schaltfläche, indem eine Klangdatei abgespielt wird, welche den auch in Textform
angekündigten Schneefall versinnbildlicht. Beispielsweise kann auch ein hochfrequentes leises Glockenspiel eine entsprechende Assoziation beim Anwender 2 hervorrufen.
Zumindest aber ist der Anwender darüber informiert, dass die Schaltfläche 30 einer wetterbezogenen Funktion zugeordnet ist, ohne dass er den Blick auf die Bedieneinheit richten muss.
Figur 4 zeigt ein Flussdiagramm, veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. Das Verfahren beginnt in Schritt 100 mit dem
Zuordnen eines ersten Klangzeichens zu einer auf der Bedieneinheit darstellbaren ersten Schaltfläche durch einen Anwender. Dies kann in einem Konfigurationsmenü einer erfindungsgemäßen Anwenderschnittstelle erfolgen. Dabei können einzelne oder sämtliche Schaltflächen des Betriebssystems der Anwenderschnittstelle durch aus einem
vordefinierten (jedoch erweiterbaren) Pool von Klangzeichen ausgewählten Klangzeichen ergänzt werden. Nach erfolgter Zuordnung wird in Schritt 200 die Präsenz eines
Eingabemittels in einem vordefinierten ersten Bereich bezüglich der Bedieneinheit (z.B. als Touch- oder Hover-Geste) erkannt. Im Ansprechen darauf wird in Schritt 300 dem Anwender die Präsenz durch eine vordefinierte erste Audioausgabe quittiert, wobei die Audioausgabe ein erstes Klangzeichen umfasst, welches einer auf der Bedieneinheit dargestellten ersten Schaltfläche kontextspezifisch zugeordnet ist. Dabei entspricht eine mit der ersten
Schaltfläche assoziierte Funktion einem Vorgang, der durch den Anwender mit dem ersten Klangzeichen möglichst einfach assoziiert wird. Weiter wird in Schritt 400 die Präsenz des Eingabemittels in einem vordefinierten zweiten (anderen) Bereich bezüglich der
Bedieneinheit (z.B. auf oder über einer zweiten Schaltfläche) erkannt und im Ansprechen darauf in Schritt 500 dem Anwender die erkannte Präsenz durch eine vordefinierte zweite (andere) Audioausgabe quittiert. Die zweite Audioausgabe umfasst dabei ein zweites Klangzeichen, welches ein akustisches Sinnbild für eine mit der zweiten Schaltfläche assoziierte Funktion darstellt. Anschließend tritt in Schritt 600 das Eingabemittel von einem ersten Bereich in einen vordefinierten dritten (wiederum anderen) Bereich bezüglich der Bedieneinheit ein. Im Ansprechen darauf wird dem Anwender in Schritt 700 der Übertritt durch eine vordefinierte dritte Audioausgabe quittiert, wobei die dritte Audioausgabe ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit dargestellten dritten
Schaltfläche kontextspezifisch zugeordnet ist. Mit anderen Worten steht die dritte
Schaltfläche für eine dritte (wiederum andere) Funktion, welche durch das dritte
Klangzeichen für den Anwender akustisch versinnbildlicht wird.
Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und
Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird.
Bezugszeichenliste
1 Bedieneinheit
2 Eingabemittei eines Anwenders 3, 4, 5 Audio-Ausgaben
6 Kamera
7 elektronisches Steuergerät
8 Fahrzeug
9 Lautsprecher
10 Schaltfläche
1 1 erster Bereich
12, 13, 14, 15, 16, 17 Bereichsgrenzen
20 Schaltfläche
21 zweiter Bereich
22, 23, 24, 25, 26, 27 Bereichsgrenzen
100, 200, 300, 400, 500, 600 Verfahrensschritte
P Geste
a Abstand