EP2953005A1 - User interface and method for calling up an editing mode of a homescreen - Google Patents

User interface and method for calling up an editing mode of a homescreen Download PDF

Info

Publication number
EP2953005A1
EP2953005A1 EP14171023.6A EP14171023A EP2953005A1 EP 2953005 A1 EP2953005 A1 EP 2953005A1 EP 14171023 A EP14171023 A EP 14171023A EP 2953005 A1 EP2953005 A1 EP 2953005A1
Authority
EP
European Patent Office
Prior art keywords
user interface
gesture
home screen
pinch
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP14171023.6A
Other languages
German (de)
French (fr)
Inventor
Holger Wild
Mark Peter Czelnik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to EP14171023.6A priority Critical patent/EP2953005A1/en
Priority to CN201510299938.2A priority patent/CN105278829A/en
Publication of EP2953005A1 publication Critical patent/EP2953005A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

Es werden eine Anwenderschnittstelle und ein Verfahren zum Aufrufen eines Editiermodus für die Konfiguration eines Homescreens einer grafischen Anwenderschnittstelle vorgeschlagen. Das Verfahren umfasst die Schritte: Erkennen einer "Finger-zueinander", im Folgenden "Pinch" genannt, -Geste oder einer "Finger-auseinander", im Folgenden "Spread" genannt, Geste in einem Eingabebereich der Anwenderschnittstelle, und im Ansprechen darauf Aufrufen des Editiermodus für den Homescreen.A user interface and a method for invoking an editing mode for the configuration of a home screen of a graphical user interface are proposed. The method comprises the steps of: detecting a "finger-to-each other", hereinafter referred to as "pinch" gesture or a "finger-apart", hereinafter referred to as "spread", gesture in an input area of the user interface, and in response call it of the edit mode for the homescreen.

Description

Stand der TechnikState of the art

Die vorliegende Erfindung betrifft eine Anwenderschnittstelle, ein Fortbewegungsmittel sowie ein Verfahren zum Aufrufen eines Editiermodus für die Konfiguration eines Homescreens einer grafischen Anwenderschnittstelle. Insbesondere betrifft die vorliegende Erfindung eine komfortabel und zuverlässig auch während der Bedienung eines Fortbewegungsmittels ausführbare Geste zum Aufrufen des Editiermodus.The present invention relates to a user interface, a means of locomotion and a method for invoking an editing mode for the configuration of a home screen of a graphical user interface. In particular, the present invention relates to a comfortable and reliable executable during the operation of a means of transport gesture for calling the edit mode.

Grafische Anwenderschnittstellen erfreuen sich nicht lediglich bei mobilen elektrischen Anwenderendgeräten zunehmender Beliebtheit. Auch in Fortbewegungsmitteln (z. B. PKW, Transporter, LKW etc.) werden in zunehmendem Maße grafische Anwenderschnittstellen verwendet, um die zunehmende Funktionsvielfalt der Fortbewegungsmittel komfortabel zu bedienen und ansprechend zu präsentieren. Für die Anpassung von grafischen Anwenderschnittstellen werden üblicherweise sogenannte Konfigurationsmenüs oder Schaltflächen dargestellt, über welche ein sogenannter Editiermodus für eine jeweilige Ansicht gestartet werden kann. Während der mobilen Bedienung einer grafischen Anwenderschnittstelle kann es dem Anwender jedoch Schwierigkeiten bereiten, eine entsprechende Schaltfläche optisch aufzufinden und anschließend haptisch zu bedienen.Graphical user interfaces are enjoying increasing popularity, not just in mobile electrical user terminals. Also in means of locomotion (eg cars, vans, trucks, etc.) increasingly graphical user interfaces are used to comfortably operate and present the increasing variety of functions of the means of transportation. For the adaptation of graphical user interfaces usually so-called configuration menus or buttons are displayed, via which a so-called editing mode for a respective view can be started. However, during the mobile operation of a graphical user interface, the user may find it difficult to visually locate a corresponding button and then to operate it in a haptic manner.

WO 2010/134718 A2 offenbart ein mobiles elektronisches Anwenderendgerät und ein Verfahren zum Editieren unterschiedlicher Ansichten eines sogenannten "Home Screens" bei welchem im Ansprechen auf eine Langdruck(englisch "Long Press")-Geste können Elemente aus einem ersten Bereich per sogenannter Drag-Geste in einen zweiten Bereich gezogen und dort abgelegt (englisch "Drop") werden. Auf diese Weise können individuelle Homescreens für das mobile Anwenderendgerät erstellt werden. WO 2010/134718 A2 discloses a mobile electronic user terminal and a method for editing different views of a so-called "home screen" in which, in response to a long print ("Long Press") gesture, elements from a first area are dragged into a second area by a so-called drag gesture and filed there (English "drop"). In this way, individual home screens for the mobile user terminal can be created.

Ausgehend von dem vorgenannten Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, eine schnelle und sichere Möglichkeit zum Aufrufen eines Editiermodus' für die Konfiguration einer grafischen Anwenderschnittstelle bereitzustellen.Based on the aforementioned prior art, it is an object of the present invention to provide a fast and secure way of invoking an editing mode for the configuration of a graphical user interface.

Offenbarung der ErfindungDisclosure of the invention

Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch eine Anwenderschnittstelle mit den Merkmalen gemäß Anspruch 4 gelöst. Das Verfahren dient dem Aufrufen eines Editiermodus für die Konfiguration eines (insbesondere mehrere Kacheln umfassenden) Homescreens einer grafischen Anwenderschnittstelle. Unter einem "Home Screen" wird im Rahmen der vorliegenden Erfindung eine Start-Ansicht einer grafischen Anwenderschnittstelle verstanden, ausgehend von welcher ein Anwender unterschiedliche, thematisch nicht notwendigerweise miteinander in Beziehung stehende Funktionen starten kann. Als "Editiermodus" wird im Rahmen der vorliegenden Erfindung eine solche Ansicht des Homescreens verstanden, in welcher nicht die auf dem Homescreen dargestellten Funktionen selbst gestartet werden können, sondern zur Organisation der Darstellung beziehungsweise Konfiguration dienliche Bedienschritte (Sekundärfunktionen) vorgenommen werden können. Erfindungsgemäß wird hierzu zunächst eine "Finger-Zueinander"-Geste oder eine "Finger-Auseinander"-Geste erkannt. Im Englischen werden die vorgenannten Gesten auch als "Pinch"- beziehungsweise "Spread"-Geste bezeichnet. Der Einfachheit halber werden nachfolgend die englischen Begriffe verwendet, welche sich im Bereich der Entwicklung grafischer Anwenderoberflächen durchgesetzt haben. Durch die Ausführung der Pinchbeziehungsweise Spread-Gesten in einem Eingabebereich der Anwenderschnittstelle können die Gesten automatisch erfasst und verarbeitet werden. Im Ansprechen auf eine erfolgreiche Erkennung einer Pinch- beziehungsweise Spread-Geste wird erfindungsgemäß der Editiermodus für den Homescreen aufgerufen. Hierzu kann die Anwenderschnittstelle im Moment der Gestenerkennung einen jeweiligen Homescreen darstellen, dessen Editiermodus im Ansprechen auf die Gestenerkennung aufgerufen wird. Anstatt eine Schaltfläche für den Aufruf des Editiermodus vorzusehen, welche einen räumlich eng begrenzten Oberflächenbereich der Anwenderschnittstelle einnimmt und daher motorisch anspruchsvoller durch ein Eingabemittel (z. B. eine Hand, ein "Stylus" etc.) des Anwenders zu bedienen ist, ein Eingabebereich zur Gestenerkennung vorgesehen sein, der mittels alternativer Gesten für den Aufruf einer Primärfunktion vorgesehen ist und lediglich beim Ausführen der erfindungsgemäßen Gesten den Aufruf des Editiermodus als Sekundärfunktion bewirkt. Auf diese Weise kann eine mobil verwendete grafische Anwenderschnittstelle schneller, einfacher und intuitiver an die Wünsche des jeweiligen Anwenders angepasst werden. Insbesondere Vibrationen und motorische Einschränkungen während des Betriebs eines Fortbewegungsmittels haben erfindungsgemäß einen geringeren Einfluss auf die Schwierigkeiten des Anwenders, den Editiermodus zu starten. Auf diese Weise erhöht sich für die Anwendungsfälle innerhalb eines Fortbewegungsmittels zudem die Verkehrssicherheit während der Bedienung der grafischen Anwenderschnittstelle.The above object is achieved by a method with the features of claim 1 and by a user interface with the features of claim 4. The method serves to invoke an edit mode for the configuration of a (in particular multiple tiles) home screen of a graphical user interface. In the context of the present invention, a "home screen" is understood to mean a start view of a graphical user interface, from which a user can start different functions which are not necessarily related to one another by topic. In the context of the present invention, an "editing mode" is understood to mean such a view of the home screen in which the functions shown on the home screen can not be started, but rather useful operating steps (secondary functions) can be organized to organize the presentation or configuration. According to the invention, a "finger-to-each other" gesture or a "finger-apart" gesture is first recognized for this purpose. In English, the aforementioned gestures are also referred to as "pinch" or "spread" gesture. For the sake of simplicity, the English terms used in the development of graphical user interfaces are used below. By performing the pinch or spread gestures within an input area of the user interface, the gestures can be automatically captured and processed. In response to a successful detection of a pinch or spread gesture, the editing mode for the home screen is called according to the invention. For this purpose, the user interface at the moment of gesture recognition can display a respective home screen whose editing mode is called in response to the gesture recognition. Instead of providing a button for the call of the edit mode, which occupies a spatially limited surface area of the user interface and therefore motor demanding by an input means (eg a hand, a "stylus", etc.) of the user to use, an input area for Gesture recognition to be provided, which is provided by means of alternative gestures for the call of a primary function and only when executing the gestures invention causes the call of the edit mode as a secondary function. In this way, a graphical user interface used on the move can be adapted faster, easier and more intuitive to the wishes of the respective user. In particular, have vibration and motor limitations during the operation of a means of transportation According to the invention, a smaller influence on the difficulties of the user to start the editing mode. In this way, the traffic safety during operation of the graphical user interface also increases for the applications within a means of transportation.

Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.The dependent claims show preferred developments of the invention.

Nach erfolgter Anpassung des Homescreens im Rahmen des Editiermodus kann eine zweite Geste (Pinch/Spread-Geste) erkennt werden und im Ansprechen darauf der Editiermodus für den Homescreen verlassen werden. Erfindungsgemäße Varianten für den Aufruf beziehungsweise das Beenden des Editiermodus sind:

  • Starten des Editiermodus durch eine Pinch-Geste und Verlassen des Editiermodus durch eine weitere Pinch-Geste.
  • Starten des Editiermodus durch eine Pinch-Geste und Verlassen des Editiermodus durch eine Spread-Geste.
  • Starten des Editiermodus durch eine Spread-Geste und Verlassen des Editiermodus durch eine weitere Spread-Geste.
  • Starten des Editiermodus durch eine Spread-Geste und Verlassen des Editiermodus durch eine Pinch-Geste.
After customizing the home screen as part of the edit mode, a second gesture (pinch / spread gesture) can be detected and, in response, exit the editing mode for the home screen. Variants according to the invention for calling or ending the edit mode are:
  • Start the edit mode with a pinch gesture and exit the edit mode with another pinch gesture.
  • Start the edit mode with a pinch gesture and exit the edit mode with a spread gesture.
  • Start the edit mode by a spread gesture and exit the edit mode by another spread gesture.
  • Start the edit mode by a spread gesture and exit the edit mode with a pinch gesture.

Die Verwendung einer Zwei-Finger-Geste für den Aufruf beziehungsweise das Beenden des Editiermodus ermöglicht eine klare logische Abgrenzung üblicher Gesten für den Aufruf von Primärfunktionen gegenüber einem erfindungsgemäßen Aufruf einer Sekundärfunktion einer grafischen Anwenderschnittstelle. Insbesondere können andere bekannte Gesten für den Aufruf von Funktionen beziehungsweise Sekundärfunktionen definiert werden, welche sich auf einzelne Inhalte (z. B. einzelne Kacheln des Homescreens) beziehen. Solche weiteren Funktionen können beispielsweise das Verändern einer Position einer jeweiligen Kachel sein. Eine solche Funktion könnte daher auch als Tertiärfunktion bezeichnet werden. Der Eingabebereich, innerhalb dessen die Anwenderschnittstelle die vorstehend diskutierten Gesten erfasst, kann beispielsweise als berührungsempfindliche Oberfläche einer Anzeigeeinheit ausgestaltet sein. Mit anderen Worten wird eine transparente Sensorschicht auf einen Bildschirm zur Erkennung einer Zwei-Finger-Geste in Form einer Pinch/Spread-Geste verwendet, wie sie sich im Bereich tragbarer mobiler Endgeräte mittlerweile durchgesetzt hat. Alternativ oder zusätzlich kann der Eingabebereich der Anwenderschnittstelle durch einen Raumbereich zur Erfassung frei im Raum ausgeführter Gesten bereitgestellt werden, welche im Folgenden 3D-Gesten genannt werden. Solche 3D-Gesten werden beispielsweise über optische Sensoren und/oder kapazitive Sensoren realisiert. Selbstverständlich bedeutet die Bezeichnung "optischer Sensor" in diesem Zusammenhang nicht notwendigerweise die Verwendung von Licht im für den Menschen sichtbaren Bereich. Je nach Natur des Eingabebereiches können die erfindungsgemäß vorgeschlagenen Gesten in weitgehend identischer Weise für den Aufruf des Editiermodus verwendet werden, sodass eine redundante Definition für ein und dieselbe grafische Anwenderschnittstelle möglich ist. Dies ermöglicht eine konsistente Bedienlogik der erfindungsgemäßen grafischen Anwenderschnittstelle und gestaltet die Bedienung sicher und komfortabel.The use of a two-finger gesture for the call or exit of the edit mode allows a clear logical delimitation of common gestures for the call of primary functions over a call according to the invention a secondary function of a graphical user interface. In particular, other known gestures can be defined for the call of functions or secondary functions, which relate to individual contents (eg individual tiles of the home screen). Such other functions may be, for example, changing a position of a respective tile. Such a function could therefore also be called a tertiary function. The input area within which the user interface detects the gestures discussed above may, for example, be designed as a touch-sensitive surface of a display unit. In other words, a transparent sensor layer is used on a screen to detect a two-finger gesture in the form of a pinch / spread gesture, as it has now prevailed in the field of portable mobile devices. Alternatively or additionally, the input area of the user interface can be covered by a spatial area for detection be freely provided in space executed gestures, which are called in the following 3D gestures. Such 3D gestures are realized, for example, via optical sensors and / or capacitive sensors. Of course, the term "optical sensor" in this context does not necessarily mean the use of light in the human visible region. Depending on the nature of the input area, the gestures proposed according to the invention can be used in a largely identical manner for calling the edit mode, so that a redundant definition for one and the same graphical user interface is possible. This allows a consistent operating logic of the graphic user interface according to the invention and makes the operation safe and comfortable.

Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welche sich beispielsweise für die Verwendung in einem tragbaren elektronischen Anwenderendgerät und/oder einem Fortbewegungsmittel eignet. Die Anwenderschnittstelle umfasst eine Erfassungseinheit zum Erfassen einer Geste eines Anwenders. Weiter ist eine Anzeigeeinheit vorgesehen, über welche dem Anwender ein Homescreen in einem Anwendungsmodus sowie in einem Editiermodus dargestellt werden kann. Letzterer dient der Konfiguration des Homescreens. Die Anzeigeeinheit kann beispielsweise als Bildschirm ausgestaltet sein. Schließlich umfasst die Anwenderschnittstelle eine Auswerteeinheit, welche beispielsweise einen programmierbaren Prozessor (z. B. ein Mikrocontroller, ein Nanocontroller) umfassen kann. Dabei ist die Anzeigeeinheit zur Anzeige eines Homescreens eingerichtet, welcher beispielsweise mehrere Kacheln umfassen kann, welche - wie oben beschrieben - unterschiedlichen, thematisch nicht notwendigerweise zusammenhängenden Funktionen zugeordnet sein können. Die Auswerteeinheit ist eingerichtet, mittels der Signale der Erfassungseinheit (z. B. eine berührungsempfindliche Oberfläche, ein optischer Sensor o.ä.) eine Finger-Zueinander- beziehungsweise eine Finger-Auseinander-Geste erkennen kann. Diese wie oben beschrieben auch als Pinch/Spread-Geste bezeichneten Zwei-Finger-Gesten werden innerhalb der Auswerteeinheit beispielsweise mit abgespeicherten Klassen verglichen und bei einem erfolgreichen Vergleichsergebnis dazu verwendet, erfindungsgemäß einen Editiermodus für einen Homescreen aufzurufen. Mit anderen Worten ist die erfindungsgemäße Anwenderschnittstelle eingerichtet, ein Verfahren auszuführen, wie es in Verbindung mit dem erstgenannten Erfindungsaspekt im Detail beschrieben worden ist. Entsprechend ergeben sich die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechend dem erfindungsgemäßen Verfahren.According to a second aspect of the present invention, a user interface is proposed which is suitable, for example, for use in a portable electronic user terminal and / or a means of locomotion. The user interface includes a detection unit for detecting a gesture of a user. Furthermore, a display unit is provided, via which the user can be presented with a home screen in an application mode as well as in an editing mode. The latter is used to configure the home screen. The display unit can be designed, for example, as a screen. Finally, the user interface comprises an evaluation unit, which may comprise, for example, a programmable processor (eg a microcontroller, a nanocontroller). In this case, the display unit is set up to display a home screen, which may comprise, for example, a number of tiles, which - as described above - can be assigned to different, thematically not necessarily related functions. The evaluation unit is set up, by means of which signals of the detection unit (eg a touch-sensitive surface, an optical sensor or the like) can detect a finger-to-to-touch or a finger-apart gesture. These two-finger gestures, which are also referred to as pinch / spread gestures as described above, are compared, for example, with stored classes within the evaluation unit and, in the case of a successful comparison result, used to call an editing mode for a home screen. In other words, the user interface according to the invention is set up to carry out a method as has been described in detail in connection with the first-mentioned aspect of the invention. Accordingly, the features, feature combinations and resulting from these advantages according to the inventive method.

Auch das Verlassen des Editiermodus der erfindungsgemäßen Anwenderschnittstelle kann im Ansprechen auf das Erkennen einer Pinch-Geste beziehungsweise Spread-Geste erfolgen. Somit ergibt sich eine konsistente Bedienlogik zum Aufruf und zum Verlassen des Editiermodus. Zudem kann die Fläche der grafischen Anwenderschnittstelle für die Darstellung anderweitiger Funktionen und Schaltflächen verwendet werden.Leaving the editing mode of the user interface according to the invention can also take place in response to the recognition of a pinch gesture or spread gesture. This results in a consistent operating logic for calling and exiting the edit mode. In addition, the area of the graphical user interface can be used for displaying other functions and buttons.

Auch die Erfassungseinheit der erfindungsgemäßen Anwenderschnittstelle kann eine optische und/oder kapazitive Sensoranordnung umfassen, mittels welcher die vorgenannten Gesten entweder als Kontaktgesten oder 3D-Gesten erfasst werden können. Selbstverständlich sind andere Sensoren, mittels welcher die erfindungsgemäß verwendeten Gesten erfasst werden können, ebenfalls verwendbar.The detection unit of the user interface according to the invention may also include an optical and / or capacitive sensor arrangement, by means of which the aforementioned gestures can be detected either as contact gestures or 3D gestures. Of course, other sensors by means of which the gestures used in accordance with the invention can be detected can also be used.

Die Anzeigeeinheit kann als zentrale Anzeigeeinheit und/oder als Kombiinstrument in einem Armaturenbrett des Fortbewegungsmittels vorgesehen sein. Alternativ oder zusätzlich kann auch die Wiedergabeeinheit eines sogenannten Headup-Displays als Anzeigeeinheit der vorliegenden Erfindung verwendet werden. Im letzteren Fall bietet sich insbesondere eine 3D-Gestenerkennung an, um das Sichtfeld des Fahrers nicht durch Bediengesten einzuschränken.The display unit can be provided as a central display unit and / or as an instrument cluster in a dashboard of the means of locomotion. Alternatively or additionally, the display unit of a so-called head-up display can be used as a display unit of the present invention. In the latter case, in particular offers a 3D gesture recognition, so as not to restrict the driver's field of view by operating gestures.

Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Anwenderendgerät vorgeschlagen, welches beispielsweise ein tragbares elektronisches Anwenderendgerät nach Art eines Drahtlos-Kommunikationsgerätes (Smartphone, Tablet, Netbook, Ultrabook) ausgestaltet sein kann. Auch dieses umfasst eine wie vorstehende beschriebene erfindungsgemäße Anwenderschnittstelle. Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Computerprogrammprodukt (z. B. ein Datenspeicher) vorgeschlagen, auf welchem Instruktionen gespeichert sind, die einen programmierbaren Prozessor in die Lage versetzen, die Schritte eines Verfahren gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Das Computerprogrammprodukt kann als CD, DVD, Blu-Ray-Disc, Flash-Speicher, Festplatte, RAM/ROM, Cache etc. ausgestaltet sein.According to a further aspect of the present invention, a user terminal is proposed, which can be designed, for example, as a portable electronic user terminal in the manner of a wireless communication device (smartphone, tablet, netbook, ultrabook). This also includes a user interface as described above according to the invention. According to another aspect of the present invention, there is provided a computer program product (e.g., a data store) having stored thereon instructions that enable a programmable processor to perform the steps of a method according to the first aspect of the invention. The computer program product can be designed as a CD, DVD, Blu-ray disc, flash memory, hard disk, RAM / ROM, cache, etc.

Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird eine Signalfolge repräsentierend Instruktionen vorgeschlagen, welche einen programmierbaren Prozessor (z. B. einer Auswerteeinheit) in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Auf diese Weise wird auch die informationstechnische Bereitstellung der Instruktionen für den Fall unter Schutz gestellt, dass sich die hierzu erforderlichen Speichermittel außerhalb des Geltungsbereiches der beigefügten Ansprüche befinden.According to a further aspect of the present invention, a signal sequence representing instructions which enable a programmable processor (eg an evaluation unit) to carry out the steps of a method according to the first-mentioned aspect of the invention is proposed. In this way, the information technology provision of instructions for the case is put under protection, that the storage means required for this purpose are outside the scope of the appended claims.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:

  • Figur 1a eine schematische Ansicht auf Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle innerhalb eines Ausführungsbeispiels eines erfindungsgemäß ausgestalteten Fortbewegungsmittels;
  • Figur 1b eine schematische Ansicht auf Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle innerhalb eines Ausführungsbeispiels eines erfindungsgemäß ausgestalteten mobilen elektronischen Anwenderendgerätes;
  • Figur 2 eine Bildschirmansicht, welche ein Ausführungsbeispiel eines Homescreens darstellt;
  • Figur 3 eine Prinzipskizze zum Aufruf eines Editiermodus des in Figur 2 dargestellten Homescreens;
  • Figur 4 bis 7 Bildschirmansichten zur Veranschaulichung einer Animation beim Aufrufen eines Editiermodus für den Homescreen;
  • Figur 8 eine Prinzipskizze veranschaulichend einen Bedienschritt zum Beenden/Verlassen des Editiermodus für den Homescreen; und
  • Figur 9 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
Hereinafter, embodiments of the invention will be described in detail with reference to the accompanying drawings. In the drawings:
  • FIG. 1a a schematic view of components of an embodiment of a user interface according to the invention within an embodiment of an inventively designed means of transport;
  • FIG. 1b a schematic view of components of an embodiment of a user interface according to the invention within an embodiment of an inventively designed mobile electronic user terminal;
  • FIG. 2 a screen view illustrating an embodiment of a home screen;
  • FIG. 3 a schematic diagram for calling an edit mode of in FIG. 2 illustrated home screens;
  • FIGS. 4 to 7 Screen views illustrating an animation when calling up an editing mode for the home screen;
  • FIG. 8 a schematic diagram illustrating an operating step for terminating / exiting the edit mode for the home screen; and
  • FIG. 9 a flowchart illustrating steps of an embodiment of a method according to the invention.

Ausführungsform(en) der ErfindungEmbodiment (s) of the invention

Figur 1a zeigt einen PKW 10 als erfindungsgemäß ausgestaltetes Fortbewegungsmittel, welches über eine grafische Anwenderschnittstelle 1 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung verfügt. Ein zentrales Informationsdisplay (CID) 4 als FIG. 1a shows a car 10 designed according to the invention as a means of transport, which has a graphical user interface 1 according to an embodiment of the present invention. A central information display (CID) 4 as

Anzeigeeinheit ist mit einer berührungsempfindlichen Oberfläche 3 als ein Ausführungsbeispiel einer Erfassungseinheit versehen. Mittels der berührungsempfindlichen Oberfläche 3 kann eine informationstechnisch angeschlossene Auswerteeinheit in Form eines elektrischen Steuergerätes 6 2D-Gesten nach Art einer Pinch/Spread-Geste erfassen und auswerten. Hierbei kann ein Vergleich mit innerhalb eines (nicht dargestellten) Datenspeichers abgespeicherten Referenzen erfolgen. Eine Infrarot-LED-Leiste 5 ist als zweites Ausführungsbeispiel einer erfindungsgemäß verwendbaren Erfassungseinheit ebenfalls informationstechnisch mit dem elektronischen Steuergerät 6 verbunden und spannt einen Eingabebereich 2 vor dem CID auf. Innerhalb des Eingabebereiches kann der Anwender 3D-Gesten in Form einer Pinchbeziehungsweise einer Spread-Geste ausführen, um einen auf dem CID 4 dargestellten Homescreen anzupassen.Display unit is provided with a touch-sensitive surface 3 as an embodiment of a detection unit. By means of the touch-sensitive surface 3, an evaluation unit connected in terms of information technology in the form of an electrical control unit 6 can detect and evaluate 2D gestures in the manner of a pinch / spread gesture. In this case, a comparison can be made with references stored within a data memory (not shown). An infrared LED strip 5 is also connected in terms of information technology to the electronic control unit 6 as a second embodiment of a detection unit which can be used according to the invention and spans an input area 2 before the CID. Within the input area, the user can perform 3D gestures in the form of a pinch or spread gesture to match a home screen displayed on the CID 4.

Figur 1b zeigt ein Tablet 9 als Ausführungsbeispiel eines erfindungsgemäßen Anwenderendgerätes, welches ein Ausführungsbeispiel einer erfindungsgemäßen Anwenderschnittstelle umfasst. Das Tablet 9 umfasst einen Bildschirm 4 mit einer berührungsempfindlichen Oberfläche 3 als Erfassungseinheit, welche beide mit einem programmierbaren Prozessor 6 als Auswerteeinheit informationstechnisch verbunden sind. Zusätzlich ist eine optische Kamera 5 als alternatives Ausführungsbeispiel einer erfindungsgemäß verwendbaren Erfassungseinheit informationstechnisch mit dem programmierbaren Prozessor 6 verbunden. Sowohl über die berührungsempfindliche Oberfläche 3 als auch über die optische Kamera 5 können Pinch-/Spread-Gesten des Anwenders erfasst und zum Aufrufen eines Editiermodus eines Homescreens verwendet werden. FIG. 1b shows a tablet 9 as an embodiment of a user terminal according to the invention, which includes an embodiment of a user interface according to the invention. The tablet 9 comprises a screen 4 with a touch-sensitive surface 3 as a detection unit, which are both connected to a programmable processor 6 as an evaluation unit in information technology. In addition, an optical camera 5 is connected in terms of information technology to the programmable processor 6 as an alternative embodiment of a detection unit which can be used according to the invention. Both via the touch-sensitive surface 3 and via the optical camera 5, pinch / spread gestures of the user can be detected and used to call up an editing mode of a home screen.

Figur 2 zeigt eine Bildschirmdarstellung eines Homescreens 8, auf welcher eine erste Kachel 7a, eine Kartendarstellung einer Navigationsfunktion, eine zweite Kachel 7b Informationen zu einem sehenswerten Gebäude in der aktuellen Umgebung, eine dritte Kachel 7c Informationen zu aktuellen Einstellungen einer Ambientebeleuchtung, eines vierte Kachel 7d eine Aufforderung zur Zuweisung eines Inhaltes, eine fünfte Kachel 7e die Möglichkeit zur redundanten Darstellung eines auf einem zusätzlichen Gerät dargestellten Bildschirminhaltes und eine sechse Kachel 7f eine Information zur aktuellen Außentemperatur darstellen. FIG. 2 shows a screen display of a home screen 8, on which a first tile 7a, a map display of a navigation function, a second tile 7b information about a worth seeing building in the current environment, a third tile 7c information on current settings of ambient lighting, a fourth tile 7d a request for the assignment of a content, a fifth tile 7e representing the possibility of redundantly displaying a screen content displayed on an additional device, and a sixth tile 7f representing information on the current outside temperature.

Figur 3 zeigt ein Beispiel einer erfindungsgemäß verwendbaren Zwei-Finger-Geste in Form einer Pinch-Geste, bei welcher zwei entfernt voneinander positionierte Finger (Hand 9) zusammengeführt werden (Hand 9'). Diese Geste kann unter Kontakt mit einer berührungsempfindlichen Oberfläche, hinter welcher der Homescreen 8 dargestellt wird, oder als 3D-Geste frei im Raum ausgeführt werden. Eine erfindungsgemäß ebenfalls zum Aufrufen eines Editiermodus für die Konfiguration eines Homescreens 8 verwendbare Spread-Geste wird in umgekehrter Reihenfolge (zunächst die Stellung entsprechend der Hand 9', anschließend die Stellung der Finger der Hand 9) ausgeführt. FIG. 3 shows an example of a two-finger gesture in the form of a pinch gesture, which can be used according to the invention, in which two fingers (hand 9) are merged (hand 9 '). This gesture can be carried out in contact with a touch-sensitive surface, behind which the home screen 8 is displayed, or as a 3D gesture freely in space. A spread gesture which can likewise be used according to the invention for calling up an editing mode for the configuration of a home screen 8 is carried out in reverse order (first the position corresponding to the hand 9 ', then the position of the fingers of the hand 9).

Im Ansprechen auf die in Verbindung mit Figur 3 diskutierte Geste ruft die erfindungsgemäße Anwenderschnittstelle den Editiermodus entsprechend der Sequenz der Figuren 4 bis 7 auf. Hierbei werden die dargestellten Kacheln 7a, 7b, 7c, 7d, 7e, 7f des Homescreens 8 von links nach rechts zeitlich gegeneinander versetzt, um ihre jeweilige vertikale Achse um 180 Grad gedreht, wobei sie flächenmäßig kontinuierlich verkleinert werden. Auf diese Weise wird Platz zur Darstellung eines Rahmens 11 geschaffen, welcher die Kacheln 7a, 7b, 7c, 7d, 7e, 7f im Editiermodus umgibt. Ein Scrollbalken 12 weist den Anwender auf die Möglichkeit hin, innerhalb des Editiermodus alternative Homescreens (nicht dargestellt) anzupassen, bevor der Editiermodus verlassen wird.In response to in conjunction with FIG. 3 As discussed gesture calls the user interface according to the invention the editing mode according to the sequence of FIGS. 4 to 7 on. Here, the illustrated tiles 7a, 7b, 7c, 7d, 7e, 7f of the home screen 8 from time to time offset from each other in time, rotated about their respective vertical axis by 180 degrees, wherein they are reduced in area continuously. In this way, space is provided for displaying a frame 11 which surrounds the tiles 7a, 7b, 7c, 7d, 7e, 7f in edit mode. A scroll bar 12 alerts the user to the possibility of adjusting alternative home screens (not shown) within the edit mode before exiting the edit mode.

Figur 8 zeigt schematisch die Ausführung einer Spread-Geste zum Verlassen des Editiermodus, bei welcher der Daumen und der Zeigefinger aus einer geschlossenen Stellung (Hand 9') in eine gespreizte Stellung (Hand 9) geführt werden. Im Ansprechen auf diese Spread-Geste (oder alternativ eine entsprechend Figur 3 ausgeführte Pinch-Geste) wird der Editiermodus verlassen, indem beispielsweise die durch die Figuren 4 bis 7 veranschaulichte Animation in umgekehrter Reihenfolge (bezüglich der Größenänderung der Kacheln sowie bezüglich des Rahmens 11) beziehungsweise in identischer Reihenfolge (bezüglich der Rotation der Kacheln) ausgeführt wird. Im Ergebnis wird eine Figur 2 entsprechende Ansicht eines Homescreens 8 angezeigt, um Primärfunktionen der Kacheln 7a, 7b, 7c, 7d, 7e, 7f mittels alternativer Gesten starten zu können. FIG. 8 schematically shows the execution of a spread gesture for leaving the edit mode, in which the thumb and forefinger from a closed position (hand 9 ') in a spread position (hand 9) are performed. In response to this spread gesture (or alternatively an accordingly FIG. 3 executed pinch gesture), the editing mode is left, for example, by the FIGS. 4 to 7 illustrated animation in reverse order (with respect to the size change of the tiles and with respect to the frame 11) or in an identical order (with respect to the rotation of the tiles) is performed. As a result, a FIG. 2 corresponding view of a home screen 8 is displayed in order to start primary functions of the tiles 7a, 7b, 7c, 7d, 7e, 7f by means of alternative gestures.

Figur 9 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. In Schritt 100 wird eine Pinch-Geste in einem Eingabebereich der Anwenderschnittstelle erkannt, im Ansprechen worauf in Schritt 200 der Editiermodus für den Homescreen aufgerufen wird. Der Anwender kann nun Anordnung und Größe der dargestellten Kacheln des angezeigten Homescreens oder nicht dargestellter Homescreens ändern. Nach Vornahme der gewünschten Änderungen führt der Anwender in Schritt 300 erneut eine Pinch-Geste in dem Eingabebereich der Anwenderschnittstelle aus, im Ansprechen worauf der Editiermodus für den Homescreen in Schritt 400 verlassen wird. Nun kann über eine Tippgeste oder andere vordefinierte Gesten auf die durch die Kacheln veranschaulichten Funktionen zugegriffen werden. FIG. 9 shows steps of an embodiment of a method according to the invention. In step 100, a pinch gesture is detected in an input area of the user interface in response to which the editing screen for the home screen is called in step 200. The user can now change the arrangement and size of the displayed tiles of the displayed home screen or unillustrated home screens. After making the desired changes, the user performs again in step 300 a pinch gesture in the input area of the user interface, in response to which the editing mode for the home screen is left in step 400. Now you can access the features illustrated by the tiles through a tap gesture or other predefined gestures.

Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird.Although the aspects and advantageous embodiments of the invention have been described in detail with reference to the embodiments explained in connection with the accompanying drawings, modifications and combinations of features of the illustrated embodiments are possible for the skilled person, without departing from the scope of the present invention, the scope of protection the appended claims are defined.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
AnwenderschnittstelleUser interface
22
Eingabebereichinput Panel
33
berührungsempfindliche Oberflächetouch-sensitive surface
44
Anzeigeeinheitdisplay unit
55
Infrarot-LED-LeisteInfrared LED bar
66
elektronisches Steuergerät / programmierbarer Prozessorelectronic control unit / programmable processor
7a - 7f7a-7f
Kachelntiling
88th
HomescreenHome Screen
99
Tablettablet
1010
PKWcar
1111
Rahmenframe
1212
Scroll-Balken
100 - 400 Verfahrensschritte
Scroll bar
100 - 400 process steps

Claims (11)

Verfahren zum Aufrufen eines Editiermodus' für die Konfiguration eines Homescreens einer graphischen Anwenderschnittstelle (1), umfassend die Schritte: - Erkennen (100) einer "Finger-zueinander", im Folgenden "Pinch" genannt, - Geste oder einer "Finger-auseinander", im Folgenden "Spread" genannt, - Geste in einem Eingabebereich (2) der Anwenderschnittstelle (1), und im Ansprechen darauf - Aufrufen (200) des Editiermodus für den Homescreen. A method of invoking an editing mode for configuring a home screen of a graphical user interface (1), comprising the steps of: Detecting (100) a "finger-to-each other", hereinafter referred to as "pinch", - gesture or a "finger-apart", hereinafter called "spread", gesture in an input area (2) of the user interface (1), and in response to that - Calling (200) the edit mode for the home screen. Verfahren nach Anspruch 1 weiter umfassend - Erkennen (300) einer Pinch-Geste oder einer Spread-Geste in einem Eingabebereich (2) der Anwenderschnittstelle (1), und im Ansprechen darauf - Verlassen (400) des Editiermodus für den Homescreen. The method of claim 1 further comprising - Detecting (300) a pinch gesture or a spread gesture in an input area (2) of the user interface (1), and in response thereto - leaving (400) the edit mode for the home screen. Verfahren nach Anspruch 1 oder 2, wobei der Eingabebereich (2) der Anwenderschnittstelle (1) - durch eine berührungsempfindliche Oberfläche (3) einer Anzeigeeinheit (4) und/oder - durch einen Raumbereich zur Erfassung frei im Raum ausgeführter Gesten definiert ist. Method according to claim 1 or 2, wherein the input area (2) of the user interface (1) - By a touch-sensitive surface (3) of a display unit (4) and / or - Is defined by a space area for detecting freely executed in space gestures. Anwenderschnittstelle (1) umfassend - eine Erfassungseinheit (3, 5), - eine Anzeigeeinheit (4), und - eine Auswerteeinheit (6), wobei die Anzeigeeinheit (4) zur Anzeige eines Homescreens (8) eingerichtet ist, und - die Auswerteeinheit (6) eingerichtet ist, mittels der Signale der Erfassungseinheit (3, 5) eine "Finger-zueinander", im Folgenden "Pinch" genannt, -Geste oder eine "Finger-auseinander", im Folgenden "Spread" genannt, -Geste zu erkennen, und im Ansprechen darauf die Anzeigeeinheit (4) zu veranlassen, - einen Editiermodus für den Homescreen (8) darzustellen. User interface (1) comprising a detection unit (3, 5), - a display unit (4), and - An evaluation unit (6), wherein the display unit (4) is arranged to display a home screen (8), and - the evaluation unit (6) is set up, by means of the signals of the detection unit (3, 5) a "finger-to each other", hereinafter referred to as "pinch" gesture or a "finger-apart", hereinafter referred to as "spread", Gesture and, in response, cause the display unit (4) to - To display an editing mode for the home screen (8). Anwenderschnittstelle nach Anspruch 4, wobei - die Auswerteeinheit (6) weiter eingerichtet ist, mittels der Signale der Erfassungseinheit (3, 5) eine Pinch-Geste oder eine Spread-Geste zu erkennen, und im Ansprechen darauf die Anzeigeeinheit (4) zu veranlassen - den Editiermodus für den Homescreen (8) zu verlassen. A user interface according to claim 4, wherein - The evaluation unit (6) is further adapted to recognize by means of the signals of the detection unit (3, 5) a pinch gesture or a spread gesture, and in response thereto to cause the display unit (4) - exit the editing mode for the home screen (8). Anwenderschnittstelle nach Anspruch 4 oder 5, wobei
die Erfassungseinheit (3, 5) eine berührungsempfindliche Oberfläche (3) aufweist und/oder einen Sensor (5) zur Erfassung frei im Raum ausgeführter Gesten.
A user interface according to claim 4 or 5, wherein
the detection unit (3, 5) has a touch-sensitive surface (3) and / or a sensor (5) for detecting gestures carried out freely in space.
Fortbewegungsmittel, insbesondere Fahrzeug, bevorzugt PKW oder Transporter oder LKW, umfassend eine Anwenderschnittstelle (1) nach einem der Ansprüche 4 bis 6.Vehicle, in particular vehicle, preferably passenger car or van or truck, comprising a user interface (1) according to one of claims 4 to 6. Fortbewegungsmittel nach Anspruch 7, wobei die Anzeigeeinheit (4) als zentrale Anzeigeeinheit und/oder als Kombiinstrument in ein Armaturenbrett des Fortbewegungsmittels (10) eingebaut ist.Means according to claim 7, wherein the display unit (4) is installed as a central display unit and / or as an instrument cluster in a dashboard of the means of transport (10). Anwenderendgerät, insbesondere Drahtloskommunikationsgerät (9), umfassend eine Anwenderschnittstelle (1) nach einem der Ansprüche 4 bis 6.User terminal, in particular wireless communication device (9), comprising a user interface (1) according to one of claims 4 to 6. Computerprogrammprodukt umfassend Instruktionen, welche, wenn Sie auf einer Auswerteeinheit (6) einer Anwenderschnittstelle (1) nach einem der Ansprüche 4 bis 6 ausgeführt werden, die Auswerteeinheit (6) veranlassen, die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 3 durchzuführen.Computer program product comprising instructions which, when executed on an evaluation unit (6) of a user interface (1) according to one of claims 4 to 6, cause the evaluation unit (6) to perform the steps of a method according to one of claims 1 to 3. Signalfolge repräsentierend Instruktionen, welche, wenn Sie auf einer Auswerteeinheit (6) einer Anwenderschnittstelle (1) nach einem der Ansprüche 4 bis 6 ausgeführt werden, die Auswerteeinheit (6) veranlassen, die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 3 durchzuführen.Signal sequence representing instructions which, when executed on an evaluation unit (6) of a user interface (1) according to any one of claims 4 to 6, cause the evaluation unit (6) to perform the steps of a method according to one of claims 1 to 3.
EP14171023.6A 2014-06-03 2014-06-03 User interface and method for calling up an editing mode of a homescreen Ceased EP2953005A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP14171023.6A EP2953005A1 (en) 2014-06-03 2014-06-03 User interface and method for calling up an editing mode of a homescreen
CN201510299938.2A CN105278829A (en) 2014-06-03 2015-06-03 User interface and method for calling up an editing mode of a homescreen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP14171023.6A EP2953005A1 (en) 2014-06-03 2014-06-03 User interface and method for calling up an editing mode of a homescreen

Publications (1)

Publication Number Publication Date
EP2953005A1 true EP2953005A1 (en) 2015-12-09

Family

ID=50943083

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14171023.6A Ceased EP2953005A1 (en) 2014-06-03 2014-06-03 User interface and method for calling up an editing mode of a homescreen

Country Status (2)

Country Link
EP (1) EP2953005A1 (en)
CN (1) CN105278829A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010134718A2 (en) 2009-05-19 2010-11-25 Samsung Electronics Co., Ltd. Mobile device and method for editing pages used for a home screen
EP2590064A2 (en) * 2011-10-28 2013-05-08 LG Electronics Mobile terminal and method of controlling mobile terminal
US20130271370A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Free hand gesture control of automotive user interface
US20140078088A1 (en) * 2012-09-18 2014-03-20 Samsung Electronics Co., Ltd. Flexible apparatus and control method thereof
EP2711821A1 (en) * 2012-09-25 2014-03-26 Samsung Electronics Co., Ltd Apparatus and method for controlling split view in portable device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010134718A2 (en) 2009-05-19 2010-11-25 Samsung Electronics Co., Ltd. Mobile device and method for editing pages used for a home screen
EP2590064A2 (en) * 2011-10-28 2013-05-08 LG Electronics Mobile terminal and method of controlling mobile terminal
US20130271370A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Free hand gesture control of automotive user interface
US20140078088A1 (en) * 2012-09-18 2014-03-20 Samsung Electronics Co., Ltd. Flexible apparatus and control method thereof
EP2711821A1 (en) * 2012-09-25 2014-03-26 Samsung Electronics Co., Ltd Apparatus and method for controlling split view in portable device

Also Published As

Publication number Publication date
CN105278829A (en) 2016-01-27

Similar Documents

Publication Publication Date Title
EP2930049B1 (en) User interface and method for adapting a view on a display unit
EP3484738B1 (en) Vehicle having an operator control and display device and method for operating such a vehicle
EP3113969B1 (en) User interface and method for signalling a 3d position of input means during gesture detection
EP3108331B1 (en) User interface and method for contactlessly operating a hardware operating element in a 3-d gesture mode
EP3358454B1 (en) User interface, vehicle and method for user distinguishing
DE102015213362B4 (en) Method for extending a vehicle interface
EP3416848B1 (en) Arrangement, means of locomotion and method for assisting a user in the operation of a touch-sensitive display device
EP3040830B1 (en) User interface for a means of locomotion and method for displaying information about states of vehicle components
EP2955614A1 (en) User interface and method of adjusting the semantic scaling of a tile
DE102015200907A1 (en) Steering device for a motor vehicle and a method for operating a steering device
DE102014200993A1 (en) User interface and method for adapting a view on a display unit
EP3040808B1 (en) Means of locomotion, user interface and method for defining a tile on a display device
EP3234749B1 (en) User interface and method for customising a dash display in a vehicle
WO2017140569A1 (en) Motor vehicle operator control apparatus and method for operating an operator control apparatus in order to cause an interaction between a virtual presentation plane and a hand
EP3108333B1 (en) User interface and method for assisting a user in the operation of a user interface
EP3140147A1 (en) User interface and method for changing between screen views of a user interface
EP2953005A1 (en) User interface and method for calling up an editing mode of a homescreen
EP3040842B1 (en) User interface and method for hybrid use of a display unit of a means of locomotion
DE102017219332A1 (en) HUMAN-VEHICLE INTERACTION
EP3426516B1 (en) Operating device and method for detecting a user selection of at least one operating function of the operating device
EP3093182B1 (en) Means of locomotion, working machine, user interface and method for displaying the content of a first display device on a second display device
EP3143483B1 (en) Operating method and operating system in a vehicle
DE102014202833A1 (en) User interface and method for switching from a first user interface operating mode to a 3D gesture mode
DE102015212850A1 (en) User interface and method for assisting a user in interacting with a user interface
EP3040836B1 (en) Means of locomotion, user interface and method for reducing a light emission from a display device of a means of locomotion

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

17P Request for examination filed

Effective date: 20160609

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

17Q First examination report despatched

Effective date: 20160825

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20171211