WO2016192885A1 - Fortbewegungsmittel, anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der interaktion mit einer anwenderschnittstelle - Google Patents

Fortbewegungsmittel, anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der interaktion mit einer anwenderschnittstelle Download PDF

Info

Publication number
WO2016192885A1
WO2016192885A1 PCT/EP2016/058447 EP2016058447W WO2016192885A1 WO 2016192885 A1 WO2016192885 A1 WO 2016192885A1 EP 2016058447 W EP2016058447 W EP 2016058447W WO 2016192885 A1 WO2016192885 A1 WO 2016192885A1
Authority
WO
WIPO (PCT)
Prior art keywords
user interface
user
detection area
strip
display device
Prior art date
Application number
PCT/EP2016/058447
Other languages
English (en)
French (fr)
Inventor
Marcel Sperrhake
Janine Perkuhn
Mathias Stäbler
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to CN201680040245.4A priority Critical patent/CN107835970A/zh
Priority to US15/579,126 priority patent/US20180164893A1/en
Publication of WO2016192885A1 publication Critical patent/WO2016192885A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • the present invention relates to a means of locomotion, a
  • the present invention relates to such a user interface in which free in the
  • 3D gestures For typing.
  • CES Electronics Show
  • US 2012/0260164 A1 discloses a shape-changing display arrangement which is set up in the manner of a touch screen for tactile input. Among other things, it is proposed to make a selection gesture by a visual
  • Display means is acoustically, optically or haptically acknowledged in a sensor space provided for 3D gesture detection.
  • a head-up display is proposed. Disclosure of the invention
  • the object identified above is achieved by a method for assisting a user in interacting with a user
  • a transfer of an input means e.g., stylus, hand, finger, smartwatch, wearable
  • an input means e.g., stylus, hand, finger, smartwatch, wearable
  • the detection area serves in particular to detect such gestures, which are completely without
  • the detection range may in particular have a distance not equal to 0 mm from the surface of the display unit.
  • the boundary of the detection area may be an outer boundary or, for example, virtually delimit a core area located within the detection area from an outer area.
  • the transfer can be made as entry into or exit from the coverage area. In response to the detected transfer is by means of a light strip in a
  • the light strip has a length which is significantly greater than its transverse extent. It may extend over part of an edge or over the entire edge length of the display unit.
  • the luminescent strip can therefore also be understood as a "luminous line.” The narrow dimensions of the luminescent strip make it possible to provide the user with a particularly subtle way of not acknowledging the display surface of the display device
  • Display device is intuitively made understand that the gesture has crossed a boundary of the detection area, without an explanatory symbol is required. Therefore, the user does not have to be protracted
  • the light strip by means of pixels in the
  • Display device are displayed. This way can work on one
  • a separate device comprising lighting means (for example LEDs) and optionally light guides / diffusers for generating the light strip may be provided, the light outlets of which line the display device.
  • lighting means for example LEDs
  • optionally light guides / diffusers for generating the light strip may be provided, the light outlets of which line the display device.
  • the light intensity can be independent of a luminosity of the
  • Display device can be selected and the display area of the
  • Display device can be used for other optional content.
  • the light strip can be displayed only during the duration of the crossing.
  • a transitional state may be detected which, for example, lasts from a first time at which the input means first enters the boundary area to a second point in time at which the display means has completely left the boundary area. Between the aforementioned times is the
  • Display means thus continuously within the border region and only during this period, the light strip is generated. This refinement makes it possible to operate the user interface after the input device has entered without distraction through the light strip (s).
  • the intensity of a light emitted by the light strip can be modified as a function of a position of the input means with respect to the boundary of the detection area.
  • the intensity may increase as the input means approaches the display or a central area of the detection area. Accordingly, conversely, the intensity may decrease as the input means moves away from the central area of the detection area or the boundary of the detection area passes in such a direction. In this way, the user receives a
  • a corresponding feedback on the position of the input means with respect to the detection range can be effected by a variation of a color of the light emitted by the light strip. For example, a green or blue color may have a central position of the input means in FIG.
  • the aforementioned adjustment of the intensity and / or color as a function of the position can be changed as a function of a direction of the crossing with respect to the detection area. While a first direction describes entering the detection area, a second direction may describe leaving the detection area by the input means. When approaching the center of the detection area, the intensity or Color change, therefore, in a first direction, while being reversed in an opposite direction accordingly.
  • an acoustic output or a tone comprising at least two tones of different pitch wherein the tone sequence which is reproduced when the boundary of the detection area is crossed in a first direction is reproduced during the subsequent exit from the detection area in the reverse direction.
  • Such an acoustic feedback can supplement or proportionally replace the previously described embodiments of the display of the transition.
  • the shape of the detection area may vary depending on the sensor used, e.g. be substantially truncated pyramid, wherein the surface of the display device is associated with a smallest cross-sectional area of the truncated pyramid and the truncated pyramid in the surface of the
  • the truncated pyramid may also be oriented to a sensor, which is used to generate the detection area, instead of to a surface of the display device.
  • the detection range can also be designed cubic or frusto-conical.
  • Such a sensor can be designed, for example, as an infrared LED sensor or bar.
  • the user interface proposed to assist a user in an interaction.
  • the user interface can be designed, for example, for use in a means of transportation. It includes one
  • Detection device for detecting an input means (eg a hand, a finger, a stylus, a smartwatch or a wearable), an evaluation unit (eg an electronic control unit, a programmable processor, a micro- or nanocontroller) and a signaling device, by means of which a feedback can go over the crossing of the boundary of the detection area to the user.
  • the signaling device can be designed for acoustic feedback (for example in the form of a loudspeaker) and / or for haptic feedback (for example in the form of a vibration exciter).
  • at least the signaling device comprises means for generating a luminous strip in an edge region of a display device
  • the evaluation unit is set up, a transfer (ie, an exit or an entry) of an input means with respect to a limit of
  • Detect detection area for the detection of gestures executed freely in space. In response to the detected transfer is the
  • a computer program product e.g., a data memory
  • the computer program product may be designed as a CD, DVD, blue-ray disc, flash memory, hard disk, RAM / ROM, cache, etc.
  • a signal sequence representative of instructions which enable a programmable processor to perform the steps of a method according to the first aspect of the invention.
  • the information technology provision of the instructions is provided for the case under protection, that the storage means required for this purpose outside the
  • a fifth aspect of the present invention is a
  • Transportation means for example, a car, a van, a truck, a motorcycle, an aircraft and / or watercraft
  • a car, a van, a truck, a motorcycle, an aircraft and / or watercraft proposed which a
  • User interface comprises.
  • the user interface in particular for the leader of the
  • Means be provided by means of which the leader during the leadership of the means of locomotion can communicate with the means of locomotion and its technical facilities. Alternatively or additionally, moving occupants can operate the user interface.
  • the invention is based on the insight that optical sensors in certain physical spaces can better recognize free-hand gestures than in others.
  • the user In order for the user to know in which room he has to execute the gesture for controlling the graphical user interface, he can "scan” this space according to the invention.If he holds his hand in the predefined, optimal space, the light strip lights up as positive feedback (in particular color) This feedback may continue until the user drags the input device out of the room, so that the user can "physically scan" the space predefined for gesture detection and his
  • Figure 1 is a schematic representation of components of a
  • Figure 2 is an illustration of a feedback of a first
  • Figure 3 is an illustration of a response of a second
  • Figure 4 is an illustration of a feedback of a third
  • Figure 5 is an illustration of a response of a fourth
  • Figure 6 is a flow chart illustrating steps of a
  • Embodiment of a method according to the invention for supporting a user in an interaction with a user interface Embodiment of a method according to the invention for supporting a user in an interaction with a user interface.
  • FIG. 1 shows a motor vehicle 10 as a means of transport according to the invention, which is connected via a user interface 1 with a screen 4 as a
  • Detection area 3 spans in front of the screen 4.
  • a data memory 7 is set up, program codes for carrying out the inventive Method and references for signals of the infrared LED strip 5 at the crossing of an input means at a boundary of the detection range 3 ready.
  • the electronic control unit 6 is connected in a star shape with the other aforementioned components information technology.
  • a loudspeaker 13 is connected in terms of information technology to the electronic control unit 6, so that an acoustic output of a sound signal can accompany the display of the transition.
  • FIG. 2 shows the screen 4 shown in FIG. 1, whose edge area (pixel of the display area for displaying a random content) is used to display a light strip 8, for the entry of a hand 2, which extends along a double arrow P over the boundary of the coverage area in FIG Direction of a central position in front of the screen 4 moves to display or report.
  • the light strip 8 consists of four substantially line-shaped elements which occupy a plurality of respective outermost pixels along the four edges of the screen 4.
  • the light strips 8 can therefore be understood as a light frame. It lights up while the user's hand 2 crosses the boundary of the detection area and goes out as soon as the transition is complete.
  • the intensity of the light emitted by the light strip 8 during the crossing light can be done to calm the visual appearance in the manner of a swelling or decaying dimming process and include a color change of the emitted light. In a correspondingly opposite way the signaling would take place when the user's hand the detection area before the
  • exit screen 4 (e.g., after input). Since the screen 4 is used for signaling or generating the luminous strip, it can also be understood as a signaling device 12.
  • Figure 3 shows an alternative to Figure 2 embodiment of a
  • Signaling device 12 which lines the screen 4 in the form of a separate light outlet. While the function substantially corresponds to that which has been described in connection with Figure 2, the light strip 8, in particular with regard to the maximum possible intensity of the light emitted by the separate signaling device 12 light regardless of the possibilities of the screen 4 are designed. Alternatively or additionally, the emitted light can be generated as an indirect light by the light strip 8 is generated behind an opaque aperture and radiates into the environment of the screen 4. This embodiment enables a visually particularly appealing and discreet as well as little distracting appearance of the luminous strip 8.
  • FIG. 4 shows a further embodiment of a device according to the invention
  • FIG. 5 shows a situation following the situation illustrated in FIG. 4, in which the user's hand 2 leaves the detection area in front of the screen 4, in response to which the light strip 8 swells in such a way that in the direction of the center of the screen (middle horizontal or horizontal).
  • Two tone descending pitch accompanied by the user, even without paying attention to the user interface, recognizes that he has just left the detection range for 3D gesture recognition.
  • FIG. 6 shows steps of an exemplary embodiment of a method according to the invention for assisting a user in interacting with a user interface.
  • step 100 a crossing of an input means of the user with respect to a boundary of a detection area for detecting gestures executed in space is detected. The transfer can be entering or leaving the coverage area or a section of the coverage area (eg core area, border area, or similar).
  • step 200 a light strip is constructed by widening the light strip towards a center of the display device of the user interface.
  • the maximum width of the luminous strip in an edge region of the Display device formed and the input means completely enter the detection area.
  • the user can communicate by means of the execution of SD gestures with the user interface or an associated technical device.
  • step 400 the user leaves the detection area in response to which the light strip is narrowed by tapering the light strip toward an edge area of the light strip
  • Display device is dismantled. This degradation takes place as a dimming process with respect to the total intensity of the emitted light up to a complete disappearance of the luminous strip.
  • the feedback on the border crossing with respect to a detection range to the user in an intuitively understandable, visually appealing and discreet manner, so that the user acceptance of a suitably designed user interface increases and driving safety is improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden ein Fortbewegungsmittel, eine Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei einer Interaktion mit einer Anwenderschnittstelle (1) vorgeschlagen. Das Verfahren umfasst die Schritte: Erfassen eines Übertritts eines Eingabemittels (2) des Anwenders bezüglich einer Grenze eines Erfassungsbereiches zur Erfassung frei im Raum ausgeführter Gesten, und im Ansprechen darauf Anzeigen des Übertritts mittels eines Leuchtstreifens (8) in einem Randbereich einer Anzeigeeinrichtung (4) der Anwenderschnittstelle (1).

Description

Beschreibung
Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Interaktion mit einer Anwenderschnittstelle
Stand der Technik
Die vorliegende Erfindung betrifft ein Fortbewegungsmittel, eine
Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei einer Interaktion mit einer Anwenderschnittstelle. Insbesondere betrifft die vorliegende Erfindung eine solche Anwenderschnittstelle, bei welcher frei im
Raum ausgeführte Gesten („3D-Gesten") zur Eingabe Anwendung finden.
Um ein gestengesteuertes Interface bedienen zu können, müssen die durch einen Sensor zu erfassenden Freihandgesten in einem bestimmten Bereich ausgeführt werden. Dieser sensorisch begrenzte Bereich ist für den Nutzer nur schwer erkennbar. Zudem werden an unterschiedlichen Positionen innerhalb des Bereiches ausgeführte Gesten unterschiedlich gut erkannt.
Der Volkswagen-Konzern präsentierte im Januar 2015 auf der Consumer
Electronics Show (CES) eine Anwenderschnittstelle, bei welcher die Hand eines Anwenders durch einen Cursor auf einer Anzeige abgebildet wird, sobald sich diese im sensorisch überwachten Raum befindet. Die Position der Hand in diesem Raum wird auf die Anzeige übertragen. Der Einsatz eines Cursors suggeriert jedoch, dass auch deiktische Gesten eingesetzt werden können, mit anderen Worten also Objekte direkt manipuliert werden können. Diese Lösung ist jedoch nur für eine bestimmte Form der Interaktion geeignet.
Die US 2012/0260164 A1 offenbart eine formveränderliche Display-Anordnung, welche nach Art eines Touch-Screens zur taktilen Eingabe eingerichtet ist. Unter anderem wird vorgeschlagen, eine Auswahlgeste durch eine visuelle
Rückmeldung („Highlight") zu quittieren.
Die DE 10 2012 216 193 A1 offenbart eine Vorrichtung zur Bedienung einer
Kraftfahrzeugkomponente mittels Gesten, bei welcher ein Eintritt eines
Anzeigemittels in einen zur 3D-Gesten-Erfassung vorgesehenen Sensorraum akustisch, optisch oder haptisch quittiert wird. Zur optischen Ausgabe wird ein Head-Up-Display vorgeschlagen. Offenbarung der Erfindung
Die vorstehend identifizierte Aufgabe wird erfindungsgemäß durch ein Verfahren zur Unterstützung eines Anwenders bei einer Interaktion mit einer
Anwenderschnittstelle gelöst. In diesem wird in einem ersten Schritt ein Übertritt eines Eingabemittels (z.B. Stylus, Hand, Finger, Smartwatch, Wearable) bezüglich einer Grenze eines Erfassungsbereiches zur Erfassung frei im Raum ausgeführter Gesten (3D-Gesten) erfasst. Der Erfassungsbereich dient insbesondere einer Erfassung solcher Gesten, welche vollständig ohne
Berührung mit einer Oberfläche eine Anzeigeeinheit der Anwenderschnittstelle ausgeführt werden. Daher kann der Erfassungsbereich insbesondere einen Abstand ungleich 0 mm von der Oberfläche der Anzeigeeinheit aufweisen. Die Grenze des Erfassungsbereiches kann eine äußere Grenze sein oder beispielsweise einen innerhalb des Erfassungsbereiches liegenden Kernbereich gegenüber einem äußeren Bereich virtuell abgrenzen. Der Übertritt kann als Eintritt in den oder Austritt aus dem Erfassungsbereich erfolgen. Im Ansprechen auf den erfassten Übertritt wird mittels eines Leuchtstreifens in einem
Randbereich der Anzeigeeinrichtung der Anwenderschnittstelle der Übertritt kenntlich gemacht bzw. gemeldet. Der Leuchtstreifen weist eine Länge auf, welche deutlich größer als seine Quererstreckung ist. Er kann sich über einen Teil einer Kante oder über die gesamte Kantenlänge der Anzeigeeinheit erstrecken. Der Leuchtstreifen kann daher auch als„Leuchtlinie" verstanden werden. Die schmalen Abmessungen des Leuchtstreifens ermöglichen eine besonders dezente, und die Anzeigefläche der Anzeigeeinrichtung nicht erheblich einnehmende Art und Weise einer Rückmeldung an den Anwender. Durch die Anordnung des Leuchtstreifens im Randbereich der
Anzeigeeinrichtung wird intuitiv verständlich gemacht, dass die Geste eine Grenze des Erfassungsbereiches übertreten hat, ohne dass ein erläuterndes Symbol erforderlich ist. Daher muss der Anwender keinen langwierigen
Lernvorgang zur korrekten Interpretation des Leuchtstreifens durchlaufen, wodurch die hiermit verbundene Ablenkung vom Verkehrsgeschehen bzw. von der Fahrzeugführung geringstmöglich ausfällt und die Verkehrssicherheit bestmöglich unterstützt wird.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung. In einer Ausgestaltung kann der Leuchtstreifen mittels Pixeln in der
Anzeigeeinrichtung dargestellt werden. Auf diese Weise kann auf eine
zusätzliche, die Anzeigeeinrichtung säumende Leuchteinrichtung verzichtet werden und das erfindungsgemäße Verfahren besonders kostengünstig implementiert werden.
Alternativ oder zusätzlich kann eine separate Einrichtung umfassend Leuchtmittel (z.B. LEDs) und ggf. Lichtleiter/Diffusoren zur Erzeugung des Leuchtstreifens vorgesehen sein, deren Lichtauslässe die Anzeigeeinrichtung säumen. Auf diese Weise kann die Lichtintensität unabhängig von einer Leuchtkraft der
Anzeigeeinrichtung gewählt werden und die Anzeigefläche der
Anzeigeeinrichtung für anderweitigen wahlfreien Inhalt verwendet werden.
Bevorzugt kann der Leuchtstreifen lediglich während der Dauer des Übertritts angezeigt werden. Mit anderen Worten kann ein Übergangszustand erkannt werden, welcher beispielsweise von einem ersten Zeitpunkt, an welchem das Eingabemittel erstmalig den Grenzbereich betritt, bis zu einem zweiten Zeitpunkt, an welchem das Anzeigemittel den Grenzbereich vollständig verlassen hat, andauert. Zwischen den vorgenannten Zeitpunkten befindet sich das
Anzeigemittel also ununterbrochen innerhalb des Grenzbereiches und nur während dieser Zeitspanne wird der Leuchtstreifen erzeugt. Diese Ausgestaltung ermöglicht eine Bedienung der Anwenderschnittstelle nach erfolgtem Eintritt des Eingabemittels ohne Ablenkung durch den bzw. die Leuchtstreifen.
Bevorzugt kann die Intensität eines vom Leuchtstreifen ausgeschütteten Lichtes in Abhängigkeit einer Position des Eingabemittels bezüglich der Grenze des Erfassungsbereiches modifiziert werden. Beispielsweise kann die Intensität zunehmen, wenn das Eingabemittel sich der Anzeigeeinrichtung bzw. einem Zentralbereich des Erfassungsbereiches nähert. Entsprechend kann umgekehrt die Intensität abnehmen, wenn das Eingabemittel sich vom Zentralbereich des Erfassungsbereiches entfernt bzw. die Grenze des Erfassungsbereiches in einer solchen Richtung passiert. Auf diese Weise erhält der Anwender eine
unmittelbare Rückmeldung durch den Leuchtstreifen dahingehend, ob die aktuelle Bewegung des Eingabemittels zu einer solchen Position führt, in welcher die Anwenderschnittstelle bedienbar ist bzw. in Richtung außerhalb des
Erfassungsbereichs. Eine entsprechende Rückmeldung über die Position des Eingabemittels bezüglich des Erfassungsbereiches kann durch eine Variation einer Farbe des vom Leuchtstreifen ausgeschütteten Lichts erfolgen. Beispielsweise kann eine grüne oder blaue Farbe eine zentrale Position des Eingabemittels im
Erfassungsbereich kennzeichnen, welche beim allmählichen Herausführen des Eingabemittels aus dem Erfassungsbereich über gelb und orange nach rot wechselt. Diese Ausgestaltung verstärkt den intuitiven Charakter der Anzeige bzw. der Rückmeldung an den Anwender.
Die vorgenannte Anpassung der Intensität und/oder Farbe in Abhängigkeit der Position kann in Abhängigkeit einer Richtung des Übertritts bezüglich des Erfassungsbereichs verändert werden. Während eine erste Richtung ein Betreten des Erfassungsbereiches beschreibt, kann eine zweite Richtung ein Verlassen des Erfassungsbereiches durch das Eingabemittel beschreiben. Bei einer Annäherung an das Zentrum des Erfassungsbereiches würde die Intensitätsbzw. Farbänderung daher in einer ersten Richtung verlaufen, während sie in einer entgegengesetzten Richtung entsprechend umgekehrt wird.
Entsprechendes kann für eine akustische Ausgabe bzw. ein zumindest zwei Töne unterschiedlicher Tonhöhe umfassendes Klangzeichen gelten, wobei die Tonfolge, welche beim Übertritt der Grenze des Erfassungsbereiches in einer ersten Richtung wiedergegeben wird, beim anschließenden Verlassen des Erfassungsbereiches in umgekehrter Richtung wiedergegeben wird. Eine solche akustische Rückmeldung kann die zuvor beschriebenen Ausgestaltungen der Anzeige des Übertritts ergänzen oder anteilig ersetzen.
Die Gestalt des Erfassungsbereiches kann abhängig vom verwendeten Sensor z.B. im Wesentlichen pyramidenstumpfförmig sein, wobei die Oberfläche der Anzeigeeinrichtung einer kleinsten Querschnittsfläche des Pyramidenstumpfes zugeordnet ist und sich der Pyramidenstumpf in zur Oberfläche der
Anzeigerichtung normaler Richtung vergrößert. In entsprechender Weise kann der Pyramidenstumpf anstatt zu einer Oberfläche der Anzeigeeinrichtung auch zu einem Sensor orientiert sein, welcher zum Erzeugen des Erfassungsbereiches verwendet wird. Alternativ kann der Erfassungsbereich auch kubisch oder kegelstumpfformig ausgestaltet sein. Ein solcher Sensor kann beispielsweise als Infrarot-LED-Sensor bzw. -Leiste ausgestaltet sein. Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine
Anwenderschnittstelle zur Unterstützung eines Anwenders bei einer Interaktion vorgeschlagen. Die Anwenderschnittstelle kann beispielsweise zur Verwendung in einem Fortbewegungsmittel ausgestaltet sein. Sie umfasst eine
Erfassungseinrichtung zur Erfassung eines Eingabemittels (z.B. eine Hand, ein Finger, ein Stylus, eine Smartwatch oder ein Wearable), eine Auswerteeinheit (z.B. ein elektronisches Steuergerät, ein programmierbarer Prozessor, ein Mikro- bzw. Nanocontroller) und eine Signalisierungseinrichtung, mittels welcher eine Rückmeldung über den Übertritt der Grenze des Erfassungsbereiches an den Anwender ergehen kann. Die Signalisierungseinrichtung kann zur akustischen Rückmeldung (z.B. in Form eines Lautsprechers) und/oder zur haptischen Rückmeldung (z.B. in Form eines Schwingerregers) ausgestaltet sein. Zumindest umfasst die Signalisierungseinrichtung jedoch ein Mittel zur Erzeugung eines Leuchtstreifens in einem Randbereich einer Anzeigeeinrichtung der
Anwenderschnittstelle, und kann daher durch die Anzeigeeinrichtung verwirklicht werden. Die Auswerteeinheit ist eingerichtet, einen Übertritt (also ein Verlassen oder ein Betreten) eines Eingabemittels bezüglich einer Grenze eines
Erfassungsbereiches zur Erfassung frei im Raum ausgeführter Gesten zu erfassen. Im Ansprechen auf den erfassten Übertritt ist die
Signalisierungseinrichtung eingerichtet, den Übertritt mittels eines
Leuchtstreifens in einem Randbereich einer Anzeigeeinrichtung der
Anwenderschnittstelle zu melden.
Gemäß einem dritten Erfindungsaspekt wird ein Computerprogrammprodukt (z.B. ein Datenspeicher) vorgeschlagen, auf welchem Instruktionen gespeichert sind, die einen programmierbaren Prozessor in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Das Computerprogrammprodukt kann als CD, DVD, Blue-Ray-Disc, Flash-Speicher, Festplatte, RAM/ROM, Cache, etc., ausgestaltet sein.
Gemäß einem vierten Aspekt der vorliegenden Erfindung wird eine Signalfolge, repräsentierend Instruktionen vorgeschlagen, welche einen programmierbaren Prozessor in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Auf diese Weise wird auch die informationstechnische Bereitstellung der Instruktionen für den Fall unter Schutz gestellt, dass sich die hierzu erforderlichen Speichermittel außerhalb des
Geltungsbereiches der beigefügten Ansprüche befinden. Gemäß einem fünften Aspekt der vorliegenden Erfindung wird ein
Fortbewegungsmittel (z.B. ein PKW, ein Transporter, ein LKW, ein Motorrad, ein Luft- und/oder Wasserfahrzeug) vorgeschlagen, welches eine
Anwenderschnittstelle gemäß dem zweitgenannten Erfindungsaspekt umfasst. Dabei kann die Anwenderschnittstelle insbesondere für den Führer des
Fortbewegungsmittels vorgesehen sein, mittels welcher der Führer während der Führung des Fortbewegungsmittels mit dem Fortbewegungsmittel und seinen technischen Einrichtungen kommunizieren kann. Alternativ oder zusätzlich können mitfahrende Insassen die Anwenderschnittstelle bedienen. Die
Merkmale, Merkmalskombinationen sowie die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erfindungsgemäßen Verfahren ausgeführten derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
Die Erfindung basiert auf der Erkenntnis, dass optische Sensoren in bestimmten physischen Räumen Freihandgesten besser erkennen können, als in Anderen. Damit der Nutzer weiß, in welchem Raum er die Geste zur Steuerung der graphischen Anwenderschnittstelle ausführen muss, kann er diesen Raum erfindungsgemäß„abtasten". Hält er seine Hand in den vordefinierten, optimalen Raum, so leuchtet der Leuchtstreifen als positive Rückmeldung (insbesondere farblich) auf. Diese Rückmeldung kann solange andauern, bis der Anwender das Eingabemittel aus dem Raum herausführt. Auf diese Weise kann der Nutzer den zur Gestenerfassung vordefinierten Raum„physisch abtasten" und seine
Grenzen erfahren. Das abstrakte Feedback, welches der Leuchtstreifen bzw. der aus mehreren Leuchtstreifen zusammengesetzte Rahmen darstellt, ist für indirekt zu manipulierende Schnittstellen geeignet. Auf diese Weise versteht der
Anwender auf Anhieb, dass keine deiktischen Gesten einsetzbar sind, wodurch im Stand der Technik mitunter auftretende Missverständnisse vermieden werden können.
Kurze Beschreibung der Zeichnungen
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:
Figur 1 eine schematische Darstellung von Komponenten eines
Ausführungsbeispiels eines erfindungsgemäß ausgestalteten Fortbewegungsmittels mit einem Ausführungsbeispiel einer erfindungsgemäß ausgestalteten Anwenderschnittstelle;
Figur 2 eine Veranschaulichung einer Rückmeldung eines ersten
Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle auf ein Betreten eines Erfassungsbereiches durch ein Eingabemittel;
Figur 3 eine Veranschaulichung einer Rückmeldung eines zweiten
Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle auf ein Verlassen eines Erfassungsbereiches durch ein Eingabemittel;
Figur 4 eine Veranschaulichung einer Rückmeldung eines dritten
Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle auf ein Betreten eines Erfassungsbereiches durch ein Eingabemittel;
Figur 5 eine Veranschaulichung einer Rückmeldung eines vierten
Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle auf ein Verlassen eines Erfassungsbereiches durch ein Eingabemittel; und
Figur 6 ein Flussdiagramm veranschaulichend Schritte eines
Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Unterstützung eines Anwenders bei einer Interaktion mit einer Anwenderschnittstelle.
Ausführungsformen der Erfindung
Figur 1 zeigt einen PKW 10 als erfindungsgemäßes Fortbewegungsmittel, welcher über eine Anwenderschnittstelle 1 mit einem Bildschirm 4 als
Anzeigeeinrichtung und einem elektronischen Steuergerät 6 als Auswerteeinheit verfügt. Unterhalb des Bildschirms 4 ist eine Infrarot-LED-Leiste 5 als
Erfassungseinrichtung vorgesehen, welche einen quaderförmigen
Erfassungsbereich 3 vor dem Bildschirm 4 aufspannt. Ein Datenspeicher 7 ist eingerichtet, Programmcodes zur Durchführung des erfindungsgemäßen Verfahrens sowie Referenzen für Signale der Infrarot-LED-Leiste 5 beim Übertritt eines Eingabemittels an einer Grenze des Erfassungsbereiches 3 bereitzuhalten. Das elektronische Steuergerät 6 ist sternförmig mit den übrigen vorgenannten Komponenten informationstechnisch verbunden. Ein Lautsprecher 13 ist informationstechnisch an das elektronische Steuergerät 6 angeschlossen, so dass eine akustische Ausgabe eines Klangzeichens die Anzeige des Übertritts untermalen kann.
Figur 2 zeigt den in Figur 1 gezeigten Bildschirm 4, dessen Randbereich (Pixel der Anzeigefläche zur Anzeige eines wahlfreien Inhaltes) zur Darstellung eines Leuchtstreifens 8 verwendet wird, um den Eintritt einer Hand 2, welche sich entlang eines Doppelpfeils P über die Grenze des Erfassungsbereiches in Richtung einer zentralen Position vor dem Bildschirm 4 bewegt, anzuzeigen bzw. zu melden. Der Leuchtstreifen 8 besteht aus vier im Wesentlichen linienförmigen Elementen, welche entlang der vier Kanten des Bildschirms 4 eine Vielzahl jeweiliger äußerster Pixel einnehmen. Die Leuchtstreifen 8 können daher auch als Leuchtrahmen verstanden werden. Er leuchtet auf, während die Hand 2 des Anwenders die Grenze des Erfassungsbereiches übertritt und erlischt, sobald der Übertritt vollständig vollzogen ist. Die Intensität des vom Leuchtstreifen 8 während des Übertritts ausgeschütteten Lichtes kann zur Beruhigung der optischen Erscheinung nach Art eines anschwellenden bzw. abklingenden Dimm- Vorgangs erfolgen und einen Farbwechsel des ausgeschütteten Lichtes umfassen. In entsprechend umgekehrter Weise würde die Signalisierung erfolgen, wenn die Hand des Anwenders den Erfassungsbereich vor dem
Bildschirm 4 anschließend (z.B. nach erfolgter Eingabe) wieder verlässt. Da der Bildschirm 4 zur Signalisierung bzw. Erzeugung des Leuchtstreifens verwendet wird, kann er auch als Signalisierungseinrichtung 12 verstanden werden.
Figur 3 zeigt ein zur Figur 2 alternatives Ausführungsbeispiel einer
Signalisierungseinrichtung 12, welche in Form eines separaten Lichtauslasses den Bildschirm 4 säumt. Während die Funktion im Wesentlichen derjenigen entspricht, welche in Verbindung mit Figur 2 beschrieben worden ist, kann der Leuchtstreifen 8 insbesondere hinsichtlich der maximal möglichen Intensität des von der separaten Signalisierungseinrichtung 12 ausgeschütteten Lichts unabhängig von den Möglichkeiten des Bildschirms 4 gestaltet werden. Alternativ oder zusätzlich kann das ausgeschüttete Licht als indirektes Licht erzeugt werden, indem der Leuchtstreifen 8 hinter einer opaken Blende erzeugt wird und in die Umgebung des Bildschirms 4 abstrahlt. Diese Ausgestaltung ermöglicht eine optisch besonders ansprechende und dezente sowie wenig ablenkende Erscheinung des Leuchtstreifens 8.
Figur 4 zeigt eine weitere Ausgestaltung einer erfindungsgemäßen
Anwenderschnittstelle, bei welcher der Übertritt der Hand 2 durch einen von außen nach innen hinsichtlich seiner Breite bzw. Stärke anschwellenden
Leuchtstreifen 8 quittiert wird. Hierbei werden die randnahen Pixel des
Bildschirms 4 über der Zeit durch in Richtung einer Mitte des Bildschirms 4 benachbarte Pixel bei der Erzeugung des Leuchtstreifens 8 ergänzt. Optisch schwillt der Leuchtstreifen 8 bzw. der aus mehreren Leuchtstreifen 8 gebildete Leuchtrahmen an. Optional wird diese Rückmeldung an den Anwender durch Ausgabe eines ersten Klangzeichens 9 in Form eines gebrochenen Zweiklangs ansteigender Tonhöhe begleitet.
Figur 5 zeigt eine sich an die in Figur 4 dargestellte Situation anschließende Situation, in welcher die Hand 2 des Anwenders den Erfassungsbereich vor dem Bildschirm 4 verlässt, im Ansprechen worauf der Leuchtstreifen 8 derart abschwillt, dass in Richtung der Bildschirmmitte (Mittelhorizontale bzw.
Mittelvertikale) nächstliegende Pixel zunächst hinsichtlich ihrer Leuchtintensität reduziert werden und weiter von der Bildschirmmitte entfernt liegende Pixel anschließend gedimmt werden. Auch der Austritt der Hand 2 entlang des Pfeils P wird durch ein Klangzeichen 1 1 , dieses Mal in Form eines gebrochenen
Zweiklangs absteigender Tonhöhe, untermalt, wodurch der Anwender, auch ohne sein Augenmerk auf die Anwenderschnittstelle zu richten, erkennt, dass er den Erfassungsbereich zur 3D-Gestenerkennung soeben verlassen hat.
Figur 6 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Unterstützung eines Anwenders bei einer Interaktion mit einer Anwenderschnittstelle. In Schritt 100 wird ein Übertritt eines Eingabemittels des Anwenders bezüglich einer Grenze eines Erfassungsbereiches zur Erfassung frei im Raum ausgeführter Gesten erfasst. Der Übertritt kann ein Betreten oder ein Verlassen des Erfassungsbereiches bzw. einer Sektion des Erfassungsbereiches (z.B. Kernbereich, Randbereich, o.ä.) sein. Anschließend wird in Schritt 200 ein Leuchtstreifen durch Verbreitern des Leuchtstreifens in Richtung einer Mitte der Anzeigeeinrichtung der Anwenderschnittstelle aufgebaut. In Schritt 300 hat sich die maximale Breite des Leuchtstreifens in einem Randbereich der Anzeigeeinrichtung ausgebildet und das Eingabemittel den Erfassungsbereich vollständig betreten. Nun kann der Anwender mittels der Ausführung von SD- Gesten mit der Anwenderschnittstelle bzw. einer ihm zugeordneten technischen Einrichtung kommunizieren. Nach der Eingabe verlässt der Anwender in Schritt 400 den Erfassungsbereich, im Ansprechen worauf der Leuchtstreifen durch Verjüngen des Leuchtstreifens in Richtung eines Randbereiches der
Anzeigeeinrichtung abgebaut wird. Dieser Abbau erfolgt als Dimm-Vorgang auch bezüglich der Gesamtintensität des ausgeschütteten Lichtes bis hin zu einem vollständigen Verschwinden des Leuchtstreifens. Im Ergebnis erfolgt die Rückmeldung über den Grenzübertritt bezüglich eines Erfassungsbereiches an den Anwender in intuitiv verständlicher, optisch ansprechender und dezenter Art und Weise, so dass die Anwenderakzeptanz einer entsprechend ausgestalteten Anwenderschnittstelle erhöht und die Fahrsicherheit verbessert wird.
Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften
Ausführungsformen anhand der in Verbindung mit den beigefügten
Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird.
Bezugszeichenliste
Anwenderschnittstelle
Hand
Erfassungsbereich
Bildschirm
Infrarot-LED-Leiste
elektronisches Steuergerät
Datenspeicher
Leuchtstreifen
Klangzeichen
PKW
Klangzeichen
Signalisierungseinrichtung
Lautsprecher
Verfahrensschritte
P Pfeil

Claims

Patentansprüche
1. Verfahren zur Unterstützung eines Anwenders bei einer Interaktion mit einer Anwenderschnittstelle (1 ) umfassend die Schritte:
Erfassen (100) eines Übertritts eines Eingabemittels (2) des Anwenders bezüglich einer Grenze eines Erfassungsbereiches (3) zur Erfassung frei im Raum ausgeführter Gesten, und im Ansprechen darauf
Anzeigen (300) des Übertritts mittels eines Leuchtstreifens (8) in einem Randbereich einer Anzeigeeinrichtung (4) der Anwenderschnittstelle (1 ).
2. Verfahren nach Anspruch 1 , wobei der Leuchtstreifen (8) mittels Pixeln der Anzeigeeinrichtung (4) dargestellt wird.
3. Verfahren nach Anspruch 1 oder 2, wobei der Leuchtstreifen (8) eine
Kante, bevorzugt sämtliche Kanten, der Anzeigeeinrichtung (4) säumt.
4. Verfahren nach einem der vorstehenden Ansprüche, wobei der
Leuchtstreifen (8) lediglich während der Dauer des Übertritts angezeigt wird.
5. Verfahren nach einem der vorstehenden Ansprüche, wobei eine Intensität des Leuchtstreifens (8) in Abhängigkeit einer Position des Eingabemittels (2) bezüglich der Grenze des Erfassungsbereiches (3) modifiziert wird.
6. Verfahren nach einem der vorstehenden Ansprüche, wobei eine Farbe des Leuchtstreifens (8) in Abhängigkeit einer Position des Eingabemittels (2) bezüglich der Grenze des Erfassungsbereiches (3) modifiziert wird.
7. Verfahren nach einem der vorstehenden Ansprüche, wobei die Richtung einer Farbänderung und/oder
einer Intensitätsänderung
des Leuchtstreifens in Abhängigkeit einer Richtung des Übertritts bezüglich des Erfassungsbereiches (3) verändert wird.
8. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend den Schritt: Aufbauen (200) des Leuchtstreifens (8) durch Verbreitern des
Leuchtstreifens (8) in Richtung einer Mitte der Anzeigeeinrichtung (4) oder Abbauen (400) des Leuchtstreifens (8) durch Verjüngen des
Leuchtstreifens (8) in Richtung eines Randbereiches der
Anzeigeeinrichtung (4).
9. Verfahren nach einem der vorstehenden Ansprüche, wobei das
Eingabemittel (2) eine Hand und/oder einen Finger eines Anwenders umfasst.
10. Verfahren nach einem der vorstehenden Ansprüche, wobei die Grenze des Erfassungsbereiches (3) einen pyramidenstumpfförmigen und/oder kegelstumpfförmigen und/oder kubischen Raum einkleidet.
1 1. Verfahren nach einem der vorstehenden Ansprüche, wobei
der Übertritt in einer ersten Richtung bezüglich des Erfassungsbereiches
(3) durch ein erstes Klangzeichen (9) begleitet wird und
der Übertritt in einer zweiten Richtung bezüglich des Erfassungsbereiches
(3) durch ein zweites Klangzeichen (1 1 ) begleitet wird, und
wobei sich die erste Richtung und die zweite Richtung unterscheiden und insbesondere
sich das erste Klangzeichen (9) und das zweite Klangzeichen (1 1 ) unterscheiden.
12. Anwenderschnittstelle zur Unterstützung eines Anwenders bei einer
Interaktion umfassend
eine Erfassungseinrichtung (5) zur Erfassung eines Eingabemittels eines Anwenders,
eine Auswerteeinheit (6) und
eine Signalisierungseinrichtung (12), wobei
die Auswerteeinheit (6) eingerichtet ist, einen Übertritt eines Eingabemittels (2) des Anwenders bezüglich einer Grenze eines Erfassungsbereiches (3) zur Erfassung frei im Raum ausgeführter Gesten, zu erfassen, und die die Signalisierungseinrichtung (12) eingerichtet ist, im Ansprechen auf den Übertritt diesen mittels eines Leuchtstreifens (8) in einem Randbereich einer Anzeigeeinrichtung (4) der Anwenderschnittstelle (1 )
zu melden.
13. Computerprogrammprodukt umfassend Instruktionen, welche, wenn Sie auf einer programmierbaren Auswerteeinheit (6) einer Anwenderschnittstelle (1 ) nach Anspruch 12 ausgeführt werden, die Auswerteeinheit (6) veranlassen, die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 1 1 durchzuführen.
14. Signalfolge repräsentierend Instruktionen, welche, wenn Sie auf einer
programmierbaren Auswerteeinheit (6) einer Anwenderschnittstelle (1 ) nach Anspruch 12 ausgeführt werden, die Auswerteeinheit (6) veranlassen, die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 1 1 durchzuführen.
15. Fortbewegungsmittel umfassend eine Anwenderschnittstelle nach
Anspruch 12.
PCT/EP2016/058447 2015-06-02 2016-04-15 Fortbewegungsmittel, anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der interaktion mit einer anwenderschnittstelle WO2016192885A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680040245.4A CN107835970A (zh) 2015-06-02 2016-04-15 行进器、用户接口和用于在与用户接口相互作用时辅助使用者的方法
US15/579,126 US20180164893A1 (en) 2015-06-02 2016-04-15 Transportation means, user interface and method for assisting a user during interaction with a user interface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015210130.4A DE102015210130A1 (de) 2015-06-02 2015-06-02 Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei Interaktion mit einer Anwenderschnittstelle
DE102015210130.4 2015-06-02

Publications (1)

Publication Number Publication Date
WO2016192885A1 true WO2016192885A1 (de) 2016-12-08

Family

ID=55862741

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/058447 WO2016192885A1 (de) 2015-06-02 2016-04-15 Fortbewegungsmittel, anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der interaktion mit einer anwenderschnittstelle

Country Status (4)

Country Link
US (1) US20180164893A1 (de)
CN (1) CN107835970A (de)
DE (1) DE102015210130A1 (de)
WO (1) WO2016192885A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
DE102019118787A1 (de) * 2019-07-11 2021-01-14 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zur Ansteuerung einer Kraftfahrzeugkomponente
JP7292437B2 (ja) 2019-07-26 2023-06-16 グーグル エルエルシー Imuおよびレーダーに基づいて状態を下げること
EP4004686A1 (de) 2019-07-26 2022-06-01 Google LLC Authentifizierungsverwaltung durch imu und radar
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR102479012B1 (ko) 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
CN113874812A (zh) 2019-08-30 2021-12-31 谷歌有限责任公司 用于多输入模式的输入模式通知
CN112753005B (zh) * 2019-08-30 2024-03-01 谷歌有限责任公司 移动设备的输入方法
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
DE102021103100A1 (de) 2021-02-10 2022-08-11 Audi Aktiengesellschaft Anzeigevorrichtung und Verfahren zum Signalisieren einer Eingabegrenze eines Bedienbereichs

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10039432C1 (de) * 2000-08-11 2001-12-06 Siemens Ag Bedieneinrichtung
DE102006028046A1 (de) * 2006-06-19 2007-12-20 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
US20100309123A1 (en) * 2009-06-04 2010-12-09 Sony Corporation Control device, input device, control system, handheld device, and control method
US20110119640A1 (en) * 2009-11-19 2011-05-19 Microsoft Corporation Distance scalable no touch computing
US20120260164A1 (en) 2009-12-18 2012-10-11 Honda Motor Co., Ltd. Morphable Pad for Tactile Control
DE102012216193A1 (de) 2012-09-12 2014-05-28 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
EP2741200A1 (de) * 2012-12-08 2014-06-11 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bedienen eines elektronischen Gerätes

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20045147A (fi) * 2004-04-23 2005-10-24 Nokia Corp Hajaspektrimoduloidun signaalin vastaanotto
US7834850B2 (en) * 2005-11-29 2010-11-16 Navisense Method and system for object control
CN102053702A (zh) * 2010-10-26 2011-05-11 南京航空航天大学 动态手势控制系统与方法
US9513724B2 (en) * 2011-08-30 2016-12-06 Blackberry Limited Device and method for adjusting object illumination
DE102011112447A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug
US9164779B2 (en) * 2012-02-10 2015-10-20 Nokia Technologies Oy Apparatus and method for providing for remote user interaction
AU2013259606B2 (en) * 2012-05-09 2016-06-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
KR20140058212A (ko) * 2012-11-06 2014-05-14 삼성전자주식회사 객체 상태를 디스플레이하기 위한 방법 및 그 방법을 처리하는 전자 장치
US20140267166A1 (en) * 2013-03-12 2014-09-18 Qualcomm Mems Technologies, Inc. Combined optical touch and gesture sensing
DE102013009567B4 (de) * 2013-06-07 2015-06-18 Audi Ag Verfahren zum Betreiben einer Gestenerkennungseinrichtung sowie Kraftfahrzeug mit räumlich beschränkter Gestenerkennung
DE102014221053B4 (de) * 2014-10-16 2022-03-03 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10039432C1 (de) * 2000-08-11 2001-12-06 Siemens Ag Bedieneinrichtung
DE102006028046A1 (de) * 2006-06-19 2007-12-20 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
US20100309123A1 (en) * 2009-06-04 2010-12-09 Sony Corporation Control device, input device, control system, handheld device, and control method
US20110119640A1 (en) * 2009-11-19 2011-05-19 Microsoft Corporation Distance scalable no touch computing
US20120260164A1 (en) 2009-12-18 2012-10-11 Honda Motor Co., Ltd. Morphable Pad for Tactile Control
DE102012216193A1 (de) 2012-09-12 2014-05-28 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
EP2741200A1 (de) * 2012-12-08 2014-06-11 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bedienen eines elektronischen Gerätes

Also Published As

Publication number Publication date
DE102015210130A1 (de) 2016-12-08
US20180164893A1 (en) 2018-06-14
CN107835970A (zh) 2018-03-23

Similar Documents

Publication Publication Date Title
WO2016192885A1 (de) Fortbewegungsmittel, anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der interaktion mit einer anwenderschnittstelle
EP3105077B1 (de) Vorrichtung und verfahren zur signalisierung einer erfolgreichen gesteneingabe
EP3113969B1 (de) Anwenderschnittstelle und verfahren zur signalisierung einer 3d-position eines eingabemittels bei der gestenerfassung
EP2930049B1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
EP3194197B1 (de) Anzeige- und bedienvorrichtung, insbesondere für ein kraftfahrzeug, bedienelement und kraftfahrzeug
EP3097468B1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
EP3108331B1 (de) Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
DE102018206087B4 (de) Verfahren zur Kommunikation eines Kraftfahrzeugs mit einem Verkehrsteilnehmer sowie Kraftfahrzeug zur Durchführung des Verfahrens
EP3040849B1 (de) Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur übergreifenden Anzeige eines Anzeigeinhaltes auf zwei Anzeigeeinrichtungen
EP3040830B1 (de) Anwenderschnittstelle für ein Fortbewegungsmittel und Verfahren zur Anzeige von Informationen über Zustände von Fahrzeugkomponenten
EP3781438A1 (de) Verfahren zur kommunikation eines kraftfahrzeugs mit einem verkehrsteilnehmer sowie kraftfahrzeug zur durchführung des verfahrens
DE102013020795A1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
EP3241104A1 (de) Anwenderschnittstelle und verfahren zum betrieb einer anwenderschnittstelle für ein fortbewegungsmittel
WO2014082926A2 (de) Bedienverfahren und bediensystem in einem strassenfahrzeug
EP3114545B1 (de) Anwenderschnittstelle und verfahren zur bedienung einer anwenderschnittstelle mittels frei im raum ausgeführter gesten
DE102013008074A1 (de) Verfahren zum Steuern einer Anzeigefläche einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
DE102019129396A1 (de) Grafische Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zum Betrieb einer grafischen Anwenderschnittstelle für ein Fortbewegungsmittel
DE102014202833A1 (de) Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
DE102014202836A1 (de) Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
EP3015306B1 (de) Vorrichtung und Verfahren zur Bedienung einer Uhrenarmatur
DE102018133178A1 (de) Verfahren und Steuergerät zum Einrichten einer Verkehrsüberwachung für einen Überwachungsort und System zum Durchführen einer Verkehrsüberwachung für einen Überwachungsort
DE102020126083A1 (de) Anzeigevorrichtung mit einer transparenten Pixelmatrix zum Anzeigen von auswählbaren graphischen Objekten sowie Kraftfahrzeug und Betriebsverfahren für die Anzeigevorrichtung
DE102020200046A1 (de) Bedienelement für ein Fortbewegungsmittel, Verfahren, Computerprogramm mit Instruktionen und Vorrichtung zur Steuerung des Bedienelements

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16719800

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15579126

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 16719800

Country of ref document: EP

Kind code of ref document: A1