DE102014218920A1 - Erweiterte Bedienfunktion von grafischen Bedienoberflächen - Google Patents

Erweiterte Bedienfunktion von grafischen Bedienoberflächen Download PDF

Info

Publication number
DE102014218920A1
DE102014218920A1 DE102014218920.9A DE102014218920A DE102014218920A1 DE 102014218920 A1 DE102014218920 A1 DE 102014218920A1 DE 102014218920 A DE102014218920 A DE 102014218920A DE 102014218920 A1 DE102014218920 A1 DE 102014218920A1
Authority
DE
Germany
Prior art keywords
graphical
graphical element
region
activation
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014218920.9A
Other languages
English (en)
Inventor
Christian Frey
Michael Lützeler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Schweiz AG
Original Assignee
Siemens Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Schweiz AG filed Critical Siemens Schweiz AG
Priority to DE102014218920.9A priority Critical patent/DE102014218920A1/de
Publication of DE102014218920A1 publication Critical patent/DE102014218920A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Grafische Bedien- und Beobachtungsoberfläche (mit Vorzug integriert in einem elektrischen Gerät, wie Smartphone oder Tablet), mit einer berührungssensitive Ein-/Ausgabeeinheit (Touchscreen) zur Darstellung eines grafischen Elementes, wobei das grafische Element eine ausführbare Funktion repräsentiert; wobei das grafische Element in unterschiedliche Regionen aufgeteilt ist, wobei die Ausführung der Funktion durch Aktivierung einer Region des grafischen Elementes erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendeten Region erfolgt.

Description

  • Erweiterte Bedienfunktion von grafischen Bedienoberflächen
  • Die Erfindung betrifft grafische Bedien- und Beobachtungsoberflächen, mit einer berührungssensitive Ein-/Ausgabeeinheit zur Darstellung eines grafischen Elementes, wobei die Ausführung einer Funktion, die durch das grafische Element repräsentiert wird, durch Aktivierung einer Region des grafischen Elementes erfolgt. Weiterhin betrifft die Erfindung elektrische Geräte mit einer berührungssensitive Ein-/Ausgabeeinheit zur Darstellung eines grafischen Elementes, wobei die Ausführung einer Funktion, die durch das grafische Element repräsentiert wird, durch Aktivierung einer Region des grafischen Elementes erfolgt.
  • Heutzutage sind insbesondere tragbare Computer (z.B. Laptops, Notebooks, PDAs) und Kommunikationsendgeräte (z.B. Smartphones, Tablet Computer), aber auch PCs und Workstations, mit berührungssensitiven Ein-/Ausgabeeinheiten (z.B. Touchscreens) weit verbreitet. Ein Touchscreen kann z.B. als resistives System mit einer Indiumzinnoxidfolie (ITO-Folie) realisiert sein, oder aber auch z.B. auf kapazitativer oder induktiver Technologie beruhen.
  • Auf einem Touchscreen werden üblicherweise grafische Bedienelemente (z.B. Kacheln, Tiles) dargestellt, über deren Aktivierung (z.B. durch Antippen des entsprechenden Symbols) Programme oder Applikationen (Apps) auf dem Gerät gestartet werden.
  • Das Aktivieren der Programme bzw. der Applikationen erfolgt bei einem Laptop oder Desktop-Computer durch das Positionieren eines Cursors auf dem entsprechenden grafischen Symbol durch Keyboard oder Maus und durch ein Starten der Aktivierung durch ein entsprechendes „Anklicken“ bzw. durch ein Drücken der „Carriage Return“-Taste.
  • Diese Arten der Aktivierung sind aber bei grafischen Bedienelementen, z.B. bei Kacheln, die eine komplexe Funktionalität und/oder unterschiedliche Darstellungsweisen (bzw. Sichten) repräsentieren, umständlich, denn ein Benutzer muss in mehreren Schritten zuerst die Kachel aktivieren und in weiteren Schritten die gewünschte Funktionalität bzw. die gewünschte Darstellungsform aktivieren. Z.B. kann man sich vorstellen, dass bei einer Kachel zur Darstellung von Börsendaten als Funktionalität die Abfrage von Daten in unterschiedlichen Börsenorten zur Verfügung steht und als Darstellungsformen Diagramme zur Darstellung der Entwicklung des jeweiligen Tages-, Wochen- oder Monatskurses. Ein Benutzer muss durch etliche Schritte in einem Menü seine gewünschte Auswahl treffen. Dies ist umständlich und kostet Zeit.
  • Es ist daher die Aufgabe der vorliegenden Erfindung einfache Mechanismen zur Aktivierung von grafischen Bedienelementen, die insbesondere eine komplexe Funktionalität repräsentieren, bereitzustellen.
  • Die Aufgabe wird gelöst durch ein elektrisches Gerät, umfassend:
    • – einen Speicher;
    • – eine elektronische Prozessoreinrichtung; und
    • – eine berührungssensitive Ein-/Ausgabeeinheit zur Darstellung eines grafischen Elementes, wobei das grafische Element eine ausführbare Funktion repräsentiert, wobei das grafische Element in unterschiedliche Regionen aufgeteilt ist, wobei die Ausführung der Funktion durch Aktivierung einer Region des grafischen Elementes erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendeten Region erfolgt. Eine Funktion, die durch das grafische Element (z.B. eine Kachel gemäss Windows 8) repräsentiert wird, kann somit benutzerdefiniert mit unterschiedlichen Parametern bzw. mit unterschiedlichen Ansichten gestartet werden. Wenn das grafische Element z.B. einen Kalender repräsentiert, kann z.B. der Kalender mit jeweils unterschiedlichen Ansichten geöffnet werden, abhängig in welchem Bereich des grafischen Elementes die Aktivierung durch einen Benutzer erfolgt. Mit Vorteil erfolgt die Belegung einer Region mit einer auszuführenden Funktion bzw. mit einer zu verwendeten Darstellungsform benutzerdefiniert. Dies kann für ein jeweiliges grafische Element z.B. menügesteuert („Einstellungen“ bzw. Einstellungsmaske) durch einen Benutzer erfolgen. Prinzipiell ist es auch möglich, dass einer Region benutzerdefinierte Makros in entsprechender Software oder Firmware zugeordnet werden können. Eine Funktion, die durch ein grafisches Element repräsentiert wird, kann somit durch kontextsensitive Bereiche (Regionen) entsprechend aktiviert werden.
  • Die Aufgabe wird weiterhin gelöst durch ein elektrisches Gerät, umfassend:
    • – einen Speicher,
    • – eine Prozessoreinrichtung und
    • – eine berührungssensitive Ein-/Ausgabeeinheit mit einer graphischen Benutzeroberfläche und mit darauf darstellbaren, für eine benutzerseitige Aktivierung vorgesehenen graphischen Elementen, wobei die berührungssensitive Ein-/Ausgabeeinheit dazu eingerichtet ist,
    • – bei einer benutzerseitigen Schwebeauswahl eines graphischen Elements zuvor verborgene unterschiedliche Regionen dieses graphischen Elements darzustellen und
    • – bei einer benutzerseitigen Aktivierung eines dieser unterschiedlichen Regionen eine Funktion auszuführen, welche diese Region repräsentiert.
  • Die Schwebeauswahl (engl. Hovering) kann z.B. mit einer Maus („over mouse“) oder mit einem Finger, positioniert über dem jeweiligen grafischen Element („air view“), erfolgen. Diese Ausgestaltung der vorliegenden Erfindung hat insbesondere den Vorteil, dass einem Benutzer vor der eigentlichen Aktivierung die zur Verfügung stehenden Aktivierungsoptionen (d.h. die aktivierbaren Regionen) dargestellt werden. Mit Vorteil stellen die zur Verfügung stehenden aktivierbaren Regionen einen Hinweis auf die jeweils repräsentierte Funktion dar, z.B. durch Darstellen eines entsprechenden Textelementes (bei einem Kalender z.B. „Tag“, „Woche“, „Monat“). Mit Vorteil erfolgt durch die Schwebeauswahl eine hierarchische Strukturierung der durch das grafische Element repräsentierten Funktionalität. So kann durch die benutzerseitige Schwebeauswahl durch Positionierung eines Eingabemittels (z.B. Cursor oder Finger) über dem jeweiligen grafischen Element eine erste (Haupt-)sicht der durch das Element repräsentierten Funktion dargestellt werden (durch Anzeigen der entsprechenden vorhandenen Regionen, die jeweils eine Hauptfunktion repräsentieren). Durch Positionierung des Eingabemittels (z.B. Cursor oder Finger) über einer Region, die eine der Hauptfunktionen repräsentiert, können für diese Hauptfunktion darunterliegende Unterfunktionen, die ebenfalls durch Regionen repräsentiert werden, dargestellt werden. Mit Vorteil erfolgt die Darstellung der Regionen für Hauptfunktionen und/oder Unterfunktionen durch eine vergrösserte Darstellung (Zoom) der Regionen.
  • Die Realisierung der Schwebeauswahl (Hovering) an einem elektrischen Gerät (z.B. Tablet, Smartphone, Laptop) erfolgt durch entsprechend eingerichtete Sensorik (z.B. kapazitativer Sensor und/oder optische Sensorik) mit geeigneter Software- bzw. Firmware.
  • Eine erste vorteilhafte Ausgestaltung der Erfindung liegt darin, dass die Regionen auf dem grafischen Element transparent sind. Das Merkmal „transparent“ bedeutet in diesem Zusammenhang „durchsichtig“, d.h. das Symbol für das grafische Element schimmert durch die Regionen hindurch. Damit ist das Symbol für das grafische Element für einen Benutzer erkennbar, aber auch die Regionen, die sich transparent über dem Symbol befinden.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass es sich beim grafischen Element um ein Icon, eine App oder eine Kachel handelt. Bei grafischen Bedienoberflächen sind Icons (Piktogramme) und Kacheln häufig benutzte grafische Elemente. Durch Mausklick, Doppelklick bzw. mechanischer Berührung können einem Icon oder einer Kachel zugeordnete Funktionen (Aktivitäten, Applikationen, Programme, etc.) üblicherweise aktiviert werden. Die vorliegende Erfindung ermöglicht eine kontextsensitive Aktivierung einer zugeordneten Funktion. Prinzipiell ist die vorliegende Erfindung für alle Arten von grafischen Bedien- bzw. Steuerelementen einsetzbar, z.B. auch für Dialogboxen, Schaltflächen oder Widgets.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass die Aktivierung des grafischen Elementes durch eine mechanische Berührung einer entsprechenden Region des grafischen Elementes auf der berührungssensitive Ein-/Ausgabeeinheit erfolgt. Mit Vorteil handelt es sich bei der berührungssensitiven Ein-/Ausgabeeinheit um ein berührungssensitives Display, das auch als Touchscreen bezeichnet wird. Der Touchscreen weist eine berührungssensitive transparente Benutzereingabefläche als Eingabeeinheit und ein Display als Ausgabeeinheit auf. Eine mechanische Berührung kann z.B. durch einen Finger oder einem Eingabestift erfolgen, je nach verwendeter Touch-Technologie (z.B. resistiv, kapazitativ, induktiv oder optisch).
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass die Aktivierung des grafischen Elementes durch Positionierung und Anklicken eines Cursors durch ein Eingabegerät (z.B. Maus, Keyboard) erfolgt. Maus und Keyboard sind übliche Eingabemittel bei der Computerbedienung. Ein Benutzer kann ein grafisches Element durch Maus und/oder Keyboard und/oder durch eine mechanische Berührung aktivieren. Eine Aktivierung kann somit sehr flexibel erfolgen, je nach Vorliebe des Benutzers bzw. abhängig von der vorhandenen Infrastruktur.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass es sich bei der Funktion um ein Programm, eine Applikation oder eine Live-Kachel handelt. In einer Live-Kachel (Live Tile) werden dynamisch aktualisierte Inhalte angezeigt, z.B. Börsenkurse oder die Aufnahmen einer Webcam. Bei einer Applikation kann es sich z.B. um eine Wetter-App handeln. Durch die Aktivierung der Wetter-App in einer bestimmten Region des App-Symbols kann z.B. dediziert das Wetter in einer bestimmten Stadt abgefragt werden. Durch die Aktivierung einer Live-Kachel für Börsenkurse in einer bestimmten Region des Kachelsymbols kann z.B. dediziert ein bestimmter Aktienindex direkt abgerufen werden,
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass eine Konfigurierung des grafischen Elementes hinsichtlich der Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendbaren Region benutzerdefinierbar ist. Ein grafisches Element kann z.B. mit unterschiedlichen Regionen für eine Aktivierung einer repräsentierten bzw. zugeordneten Funktion mit verschiedenen Parametern vorbelegt sein. Eine Definition der Regionen und die Zuordnung (Bestimmung) von jeweils zu verwendenden Eingabe- bzw. Startparametern bei der Ausführung einer Funktion durch Aktivierung der jeweiligen Region kann benutzerdefiniert erfolgen, z.B. durch Modifizieren von „Einstellungen oder „Eigenschaften“ der Funktion bzw. des grafischen Elementes das die Funktion repräsentiert.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass es sich beim elektrischen Gerät um eine oder einen Teil einer Kontrollinstrumententafel (Dashboard) handelt. Kontrollinstrumententafel (Dashboards) werden z.B. in Leitstellen, Informationslagezentren, Kontrollzentren oder auch in Gebäudeleitsystemen verwendet. Kontrollinstrumententafel (Dashboards) werden aber auch bei Gebäudeüberwachungssystemen (Zutrittskontrolle, Videoüberwachung von Gebäudeteilen, Einbruchserkennung, etc.) verwendet. So kann z.B. eine Kachel zur Darstellung eines Videobildes einer Überwachungskamera mehrere definierte Regionen aufweisen, die von einem Benutzer aktiviert werden können, um direkt eine bestimmte Kameraeinstellung oder einen bestimmten Darstellungsmodus des Bildes zu erhalten. Solch Kontrollinstrumententafel sind insbesondere bei Gefahrenmeldeanlagen einsetzbar.
  • Die Aufgabe wird weiterhin gelöst durch eine grafische Bedien- und Beobachtungsoberfläche, mit einer berührungssensitive Ein-/Ausgabeeinheit zur Darstellung eines grafischen Elementes, wobei das grafische Element eine ausführbare Funktion repräsentiert, wobei das grafische Element in unterschiedliche Regionen aufgeteilt ist, wobei die Ausführung der Funktion durch Aktivierung einer Region des grafischen Elementes (z.B. Kachel, Widget, Icon, Bildschirmfenster) erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendeten Region erfolgt. Mit Vorteil handelt es sich bei der berührungssensitiven Ein-/Ausgabeeinheit um ein berührungssensitives Display, das auch als Touchscreen bezeichnet wird. Der Touchscreen weist eine berührungssensitive transparente Benutzereingabefläche als Eingabeeinheit und ein Display als Ausgabeeinheit auf.
  • Die Ausführung einer Funktion durch Aktivierung einer Region des grafischen Elementes in Abhängigkeit der für die Aktivierung verwendeten Region erhöht die Flexibilität eines Benutzers insbesondere bei Bedien- und Beobachtungssystemen (BuB-Systemen), wie sie z.B. in Leitwarten eingesetzt werden. So kann ein Benutzer z.B. eine Live-Kachel durch Antippen an einem definierten Bereich der Kachel diese in einem vordefinierten Modus aktivieren bzw. sehr schnell in unterschiedliche Betriebsmodi oder Darstellungsmodi wechseln. Auch kann eine Funktionskachel durch Antippen an unterschiedlichen Bereichen der Kachel z.B. mit jeweils vorher festgelegten Parametern gestartet werden.
  • Die Aufgabe wird ferner gelöst durch eine grafische Bedien- und Beobachtungsoberfläche, mit einer berührungssensitive Ein-/Ausgabeeinheit mit darauf darstellbaren, für eine benutzerseitige Aktivierung vorgesehenen graphischen Elementen, wobei die berührungssensitive Ein-/Ausgabeeinheit dazu eingerichtet ist,
    • – bei einer benutzerseitigen Schwebeauswahl eines graphischen Elements zuvor verborgene unterschiedliche Regionen dieses graphischen Elements darzustellen und
    • – bei einer benutzerseitigen Aktivierung eines dieser unterschiedlichen Regionen eine Funktion auszuführen, welche diese Region repräsentiert.
  • Die Schwebeauswahl (engl. Hovering) kann z.B. mit einer Maus („over mouse“) oder mit einem Finger, positioniert über dem jeweiligen grafischen Element („air view“), erfolgen. Diese Ausgestaltung der vorliegenden Erfindung hat insbesondere den Vorteil, dass einem Benutzer vor der eigentlichen Aktivierung die zur Verfügung stehenden Aktivierungsoptionen (d.h. die aktivierbaren Regionen) dargestellt werden. Mit Vorteil stellen die zur Verfügung stehenden aktivierbaren Regionen einen Hinweis auf die jeweils repräsentierte Funktion dar, z.B. durch Darstellen eines entsprechenden Textelementes (bei einem Kalender z.B. „Tag“, „Woche“, „Monat“).
  • Die Darstellung von zuvor verborgenen Regionen eines graphischen Elements durch ein benutzerausgeführtes Hovering erhöht die Übersichtlichkeit der grafische Bedien- und Beobachtungsoberfläche. Durch das benutzergesteuerte Hovering werden dem Benutzer dediziert die Aktivierungsoptionen für das durch das Hovering erfasste grafische Element dargestellt.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass die Aktivierung des grafischen Elementes durch eine mechanische Berührung einer entsprechenden Region des grafischen Elementes auf der berührungssensitive Ein-/Ausgabeeinheit erfolgt. Die mechanische Berührung kann z.B. durch ein Antippen mit einem Finger oder einem Eingabestift erfolgen, je nach verwendeter Touchscreentechnologie.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass die mechanische Berührung durch ein Eingabemittel erfolgt, und wobei bei einer Annäherung des Eingabemittels an das grafische Element, das grafische Element ab einem definierten Abstand vom Eingabemittel vergrössert auf der Bedien- und Beobachtungsoberfläche dargestellt wird und gegebenenfalls die vorhandenen Regionen sichtbar dargestellt werden. Die Annäherung kann durch einen Hovering-Mechanismus realisiert sein, und z.B. mit einer Maus („over mouse“) oder mit einem Finger, positioniert über dem jeweiligen grafischen Element („air view“), erfolgen. Die vergrösserte Darstellung stellt sicher, dass das vom Benutzer gewünschte Element aktiviert wird. Die vergrösserte Darstellung erhöht somit die „Trefferwahrscheinlichkeit“ für das gewünschte grafische Element.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass die Aktivierung des grafischen Elementes durch Positionierung und Anklicken eines Cursors durch ein Eingabegerät (z.B. Maus, Keyboard) erfolgt. Eingabegeräte wie Maus und Keyboard zur Cursorsteuerung sind weit verbreitet. Die Vielzahl von Aktivierungsmechanismen und die Möglichkeit einer Kombination von Aktivierungsmechanismen erhöht die Flexibilität für einen Benutzer.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt darin, dass der Cursor bei Annäherung an eine Region ab einem definierten Mindestabstand auf die Region positioniert wird. Durch diese „Snap-Funktion“ wird der Cursor (Mauszeiger) bei Annäherung an eine Region bei Erreichen eines Mindestabstandes automatisch auf die Region bewegt. Dies erleichtert für einen Benutzer das Positionieren des Cursors auf eine gewünschte Region eines grafischen Elementes.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung liegt in der Verwendung der grafische Bedien- und Beobachtungsoberfläche in einer Kontrollinstrumententafel. Kontrollinstrumententafel (Dashboards) werden z.B. in Leitstellen, Informationslagezentren, Kontrollzentren oder auch in Gebäudeleitsystemen verwendet. Kontrollinstrumententafel (Dashboards) werden aber auch bei Gebäudeüberwachungssystemen (Zutrittskontrolle, Videoüberwachung von Gebäudeteilen, Einbruchserkennung, etc.) verwendet. So kann z.B. eine Kachel zur Darstellung eines Videobildes einer Überwachungskamera mehrere definierte Regionen aufweisen, die von einem Benutzer aktiviert werden können, um direkt eine bestimmte Kameraeinstellung oder einen bestimmten Darstellungsmodus des Bildes zu erhalten. Es ist beispielsweise auch denkbar, dass eine Kachel zur Darstellung eines Videobildes einer Überwachungskamera durch Aktivierung (z.B. durch Antippen) einer bestimmten Region der Kachel (mit Vorteil befinden sich die Regionen jeweils in den Eckbereichen der Kachel) die Kamera- bzw. Videoanzeige z.B. als Livestream oder eine Aufnahme der letzten 30 Sekunden anzeigt. Auch könnte z.B. eine Aufnahmefunktion für die Kamera durch Antippen auf eine entsprechende Region der Kachel aktiviert werden.
  • Die vorliegende Erfindung ermöglicht insbesondere eine einfache und intuitive Bedienung von Kontrollinstrumententafeln.
  • Die Erfindung sowie vorteilhafte Ausführungen der vorliegenden Erfindung werden am Beispiel der nachfolgenden Figuren erläutert. Dabei zeigen:
  • 1 eine erste beispielhafte Prinzipdarstellung für eine Verwendung der vorliegenden Erfindung,
  • 2 eine zweite beispielhafte Prinzipdarstellung für eine Verwendung der vorliegenden Erfindung,
  • 3 ein beispielhaftes elektrisches Gerät mit einer berührungssensitiven Ein-/Ausgabeeinheit für eine beispielhafte Anwendung der vorliegenden Erfindung, und
  • 4 eine beispielhafte Kontrollinstrumententafel (Dashboard) für eine beispielhafte Anwendung der vorliegenden Erfindung.
  • Kacheln (Tiles) als Beispiel für grafische Bedien- und Beobachtungselemente auf einem Display kann man verschieben, neu anordnen und vergrössern oder verkleinern, um die gewünschten Informationen in einer gewünschten Reihenfolge anzuzeigen. Das Verschieben einer Kachel erfolgt durch Tippen und Halten der Kachel, ziehen an die neue Position und tippen auf den Bildschirm (Display).
  • Das Ändern der Grösse einer Kachel erfolgt durch Tippen und Halten der Kachel und Tippen auf das Pfeilsymbol in einer Ecke der Kachel. Die Kacheln können unterschiedliche Grössen aufweisen. Je grösser die Kachel, desto mehr Informationen kann sie anzeigen.
  • Bei der Selektion der Kachel ist die ganze Kachel sensitiv und wird zum Aktivieren (wohl zumeist zentriert) berührt bzw. angeklickt. Es gibt für die Auswahl nur eine Region auf der Kachel. Erst nach der Gesamtkachel-Auswahl sind weitere Funktionen/Prozesse wie Verschieben, Grösse ändern oder Loslösen möglich.
  • Gleiches gilt für die Selektion von Kacheln, die z.B. eine Telefon-Funktion oder eine Email-Funktion repräsentieren.
  • Bei der Telefon-Funktion sind erst nach der Selektion der entsprechenden Telefon-Kachel Folgeprozesse wie Aufruf des Telefonmenüs oder das Schreiben von SMS möglich. Diese Folgeprozesse müssen von einem Benutzer jeweils wieder selektiert bzw. aktiviert werden.
  • Das Anrufen einer Person, die als Eintrag in einer Kontaktliste gespeichert ist, erfolgt folgendermassen:
    • 1. Tippen auf die Telefonkachel >
    • 2. und danach Tippen auf den gewünschten Kontakt >
    • 3. und danach Tippen auf die gewünschte Nummer (Privat, Geschäft, Mobil).
  • D.h. drei Prozess- bzw. Aktivierungsschritte (womöglich noch mit Scrollen) sind erforderlich, um einen gewünschten Kontakt anzurufen. 1 zeigt eine beispielhafte berührungssensitive Ein-/Ausgabeeinheit (Display) D1 zur Darstellung von grafischen Elementen, wie Kacheln oder eine Menüleiste (am oberen Rand der Darstellung gemäss 1). Der Übersichtlichkeit halber sind in 1 nur ausgewählte grafische Elemente GE1–GE4 mit Bezugszeichen versehen. Das grafische Element GE1 repräsentiert beispielshaft Funktionalität zur Alarmüberwachung (Alarms /All Sites). Das grafische Element GE2 repräsentiert beispielshaft Funktionalität zum Zugangsmanagement (Access Privileges). Das grafische Element GE3 repräsentiert beispielshaft Funktionalität zum Identitätsmanagement (Identity Management). Das grafische Element GE4 repräsentiert beispielshaft Funktionalität zum Steuern einer Überwachungskamera für einen Haupteingang (Camera 1C, Main Entrance). Die grafischen Elemente GE1–GE4 stellen beispielshaft Kacheln (Tiles) dar. Die berührungssensitive Ein-/Ausgabeeinheit (Display) D1 kann z.B. zu einem Tablet- oder Desktop-Computer als elektrisches Gerät gehören.
  • In der Darstellung gemäss 1 erfolgt eine Aktivierung der Funktionalität (Überwachungskamera Haupteingang) des grafischen Elements GE4 durch Antippen des grafischen Elements GE4 in einer Region, die sich in einem Bereich in der rechten oberen Ecke des grafischen Elements GE4 befindet. Durch das Antippen in einem Bereich der rechten oberen Ecke kann z.B. direkt eine bestimmte (vorher festgelegte) Kameraeinstellung aktiviert werden. Durch das Antippen in einem Bereich der linken unteren Ecke könnte z.B. direkt eine Aufzeichnungsfunktion (Recording) für die Kamera aktiviert werden.
  • In der Darstellung gemäss 1 erfolgt die Aktivierung beispielshaft durch mechanische Berührung (z.B. Antippen) durch den Finger einer Hand H1 eines Benutzers. Prinzipiell könnte die Aktivierung auch durch Berührung mit einem entsprechenden Eingabestift erfolgen, je nach vorhandener Infrastruktur bzw. verwendeter Touchscreen-Technologie.
  • 2 zeigt eine zweite beispielhafte Prinzipdarstellung für eine Verwendung der vorliegenden Erfindung. Auf einer beispielhaften berührungssensitiven Ein-/Ausgabeeinheit D2 befindet sich das beispielhafte grafische Element GE5 mit den beispielhaften Regionen R1–R5, wobei die Region R5 mittig in einem Bereich des grafischen Elementes GE5 angeordnet ist und die Regionen R1–R4 jeweils in einem Bereich einer Ecke des grafischen Elementes GE5 angeordnet sind.
  • In 2 erfolgt beispielshaft die dedizierte Aktivierung der Funktionalität, die durch das grafische Element GE5 repräsentiert wird, durch mechanische Berührung der Region R2 mit dem Finger einer Hand H2 eines Benutzers.
  • Bei dem grafischen Element GE5 kann es sich prinzipiell um jeden beliebigen Typ eine grafischen Bedien- und/oder Steuerelementes handeln, wie z.B. Icon, Kachel, Dialogbox, Dropdown-Box, Dropdown-Liste.
  • Das grafische Element GE5 kann z.B. mit der Maus, dem Touchpad oder über ein touchsensitives Display D2 bedient werden. Das grafische Element GE5 ist in beispielhafte sensitive Regionen R1 bis R5 aufgeteilt. Dabei kann jede der Regionen R1 bis R5 mit einer passenden Funktionalität zur Ausführung eines Prozesses (z.B. Ausführen einer App mit bestimmten Eingabeparametern oder mit einer bestimmten Darstellungsform) oder Makros belegt werden. Mit Vorteil erfolgt die Definition einer passenden Funktionalität bzw. eines Makros benutzerdefiniert.
  • Das grafische Element GE5 kann z.B. eine Kalender-App repräsentieren. Eine Aktivierung der Kalender-App durch ein Antippen von Region R1 kann z.B. ein automatisches Öffnen des Kalenders in einer Tagesansicht bewirken. Ein Antippen von Region R2 kann z.B. ein automatisches Öffnen des Kalenders in einer Wochenansicht bewirken. Ein Antippen von Region R3 kann z.B. ein automatisches Öffnen des Kalenders in einer Monatsansicht bewirken. Ein Antippen von Region R4 kann z.B. ein automatisches Öffnen des Kalenders in einer Jahresansicht bewirken. Ein Antippen von Region R5 kann z.B. das übliche Öffnen der App bewirken, d.h. die App wird geöffnet und die gewünschte Ansicht muss durch eine weitere Benutzereingabe erfolgen.
  • Mit Vorteil erfolgt die Belegung der definierten Regionen R1–R5 bezüglich auszuführender Funktion oder zu verwendender Ansicht benutzerdefiniert. Mit Vorteil werden bei Annäherung eines Eingabeelementes (z.B. Finger, Stift) an das grafische Element GE5 vorhandene Regionen sichtbar dargestellt, z.B. durch Umrandung oder Farbeffekt. Mit Vorteil wird bei Annäherung eines Eingabeelementes (z.B. Finger, Stift) an eine vorhanden Region R1–R5 eines grafischen Elementes GE5 die jeweilige Region vergrössert dargestellt. Mit Vorteil werden Regionen R1–R5 transparent, d.h. durchscheinend dargestellt, d.h. das Symbol eines grafischen Elementes schimmert durch die Regionen hindurch.
  • 3 zeigt ein beispielhaftes elektrisches Gerät EG1 mit einer berührungssensitiven Ein-/Ausgabeeinheit D3 für eine beispielhafte Anwendung der vorliegenden Erfindung. Bei dem elektrischen Gerät EG1 handelt es sich beispielhaft um ein Smartphone.
  • In einer ersten beispielhaften Ausgestaltung umfasst das elektrische Gerät EG1:
    • – einen Speicher (interner Speicher, optional ausstattbar mit zusätzlicher Speicherkarte);
    • – eine elektronische Prozessoreinrichtung (z.B. ein Mikrochip); und
    • – eine berührungssensitive Ein-/Ausgabeeinheit (Touchscreen) D3 zur Darstellung von grafischen Elementen GE6–GE8, wobei ein grafisches Element GE6–GE8 üblicherweise eine ausführbare Funktion (z.B. App) repräsentiert; wobei ein grafisches Element in unterschiedliche Regionen R6–R13 aufteilbar ist, wobei die Ausführung der Funktion durch Aktivierung einer Region R6–R13 des jeweiligen grafischen Elementes GE6–GE8 erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung jeweils verwendeten Region R6–R13 erfolgt.
  • In der Darstellung gemäss 3 sind beispielshaft drei grafische Elemente GE6–GE8 auf dem Touchscreen D3 des Gerätes EG1 dargestellt, wobei das grafische Elemente GE6 die Regionen R6 bis R9 aufweist, das grafische Elemente GE7 die Regionen R10 und R11 aufweist, und das grafische Elemente GE8 die Regionen R12 und R13 aufweist.
  • Die grafischen Elemente GE6–GE8 weisen somit beispielhaft die kontextsensitiven Regionen R6–R13 auf.
  • In einer zweiten beispielhaften Ausgestaltung umfasst das elektrische Gerät EG1:
    • – einen Speicher (interner Speicher, optional ausstattbar mit zusätzlicher Speicherkarte),
    • – eine Prozessoreinrichtung (z.B. Mikrochip) und
    • – eine berührungssensitive Ein-/Ausgabeeinheit D3 mit einer graphischen Benutzeroberfläche und mit darauf darstellbaren, für eine benutzerseitige Aktivierung vorgesehenen graphischen Elementen GE6–GE8, wobei die berührungssensitive Ein-/Ausgabeeinheit D3 dazu eingerichtet ist, bei einer benutzerseitigen Schwebeauswahl (Hovering) eines graphischen Elements GE6–GE8 zuvor verborgene unterschiedliche Regionen R6–R13 des jeweiligen graphischen Elements GE6–GE8 darzustellen und bei einer benutzerseitigen Aktivierung eines dieser unterschiedlichen Regionen R6–R13 eine Funktion auszuführen, welche diese Region R6–R13 repräsentiert.
  • In der Darstellung gemäss 3 durch Fingereingabe seiner Hand H3 beispielhaft die Region R11 des grafischen Elementes GE7 für eine dedizierte Aktivierung der darunterliegenden Funktion aus. Bei Annäherung an die Region R11 wird diese ab einem Mindestabstand vergrössert auf der berührungssensitiven Ein-/Ausgabeeinheit D3 dargestellt.
  • Mit Vorteil handelt es sich bei der berührungssensitiven Ein-/Ausgabeeinheit D3 um ein berührungssensitives Display, das auch als Touchscreen bezeichnet wird. Der Touchscreen weist eine berührungssensitive transparente Benutzereingabefläche als Eingabeeinheit und ein Display als Ausgabeeinheit auf. Ein Touchscreen kann z.B. als resistives System mit einer Indiumzinnoxidfolie (ITO-Folie) realisiert sein, oder aber auch z.B. auf kapazitativer oder induktiver Technologie beruhen. Die Schwebeauswahl erfolgt in 3 mit einem Finger, positioniert über dem jeweiligen grafischen Element („air view“), bei anderen Typen von elektrischen Geräten könnte die Schwebeauswahl optional auch z.B. mit einer Maus („over mouse“) erfolgen. Die Realisierung der Schwebeauswahl erfolgt durch Verwendung einer entsprechenden Sensorik (z.B. durch einen kapazitativen Näherungssensor).
  • 4 zeigt eine beispielhafte Kontrollinstrumententafel KIT (Dashboard) für eine beispielhafte Anwendung der vorliegenden Erfindung. Die Kontrollinstrumententafel KIT stellt ein Cockpit (Leitstand) mit den Bedien- und Beobachtungsoberflächen BBO1–BBO3 dar. Eine Bedien- und Beobachtungsoberfläche BBO1–BBO3 enthält jeweils eine berührungssensitiven Ein-/Ausgabeeinheit D4–D6 (z.B. Touchscreens). Die Touchscreens sind geeignet zur Darstellung von grafischen Elementen zum Bedienen und/oder Beobachten von z.B. Anlagen- oder Gebäudezuständen. Die Kontrollinstrumententafel KIT umfasst optional einen Tablet-Computer EG2 mit einem Touchscreen D7. Ein Benutzer B (z.B. Anlagenfahrer) kann durch mechanische Berührung eines grafischen Elementes GE9 z.B. durch einen Finger seiner Hand H4 eine entsprechende Funktion aktivieren, die durch das grafische Elemente GE9 repräsentiert wird. Durch mechanische Berührung einer bestimmten Region des grafischen Elementes GE9 kann ein Benutzer B die Funktion dediziert aktivieren, z.B. mit bestimmten Parametern oder in einer bestimmten Anwendungssicht. In 4 ist eine beispielhafte Berührung in der rechten oberen Ecke des grafischen Elementes GE9 dargestellt. Die Aktivierung der durch die grafischen Elemente repräsentierten Funktionalität kann mechanische Berührung (z.B. Finger oder Eingabestift) und/oder durch Cursor erfolgen, gesteuert durch Maus M bzw. Tastatur T, je nach vorhandener Infrastruktur.
  • Grafische Bedien- und Beobachtungsoberfläche (mit Vorzug integriert in einem elektrischen Gerät, wie Smartphone oder Tablet), mit einer berührungssensitive Ein-/Ausgabeeinheit (Touchscreen) zur Darstellung eines grafischen Elementes, wobei das grafische Element eine ausführbare Funktion repräsentiert; wobei das grafische Element in unterschiedliche Regionen aufgeteilt ist, wobei die Ausführung der Funktion durch Aktivierung einer Region des grafischen Elementes erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendeten Region erfolgt.
  • Bezugszeichen
    • EG1, EG2
      Elektrisches Gerät
      GE1–GE9
      Grafisches Element
      R1–R13
      Region
      D1–D7
      Berührungssensitive Ein-/Ausgabeeinheit
      H1–H4
      Hand
      BBO1–BBO3
      Bedien- und Beobachtungsoberfläche
      M
      Eingabemaus
      T
      Tastatur
      B
      Benutzer
      KIT
      Kontrollinstrumententafel (Dashboard)

Claims (16)

  1. Ein elektrisches Gerät (EG1, EG2), umfassend: – einen Speicher; – eine elektronische Prozessoreinrichtung; und – eine berührungssensitive Ein-/Ausgabeeinheit (D1–D7) zur Darstellung eines grafischen Elementes (GE1–GE9), wobei das grafische Element (GE1–GE9) eine ausführbare Funktion repräsentiert; wobei das grafische Element (GE1–GE9) in unterschiedliche Regionen (R1–R13) aufgeteilt ist, wobei die Ausführung der Funktion durch Aktivierung einer Region des grafischen Elementes (GE1–GE9) erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendeten Region (R1–R13) erfolgt.
  2. Ein elektrisches Gerät (EG1, EG2), umfassend: – einen Speicher, – eine Prozessoreinrichtung und – eine berührungssensitive Ein-/Ausgabeeinheit (D1–D7) mit einer graphischen Benutzeroberfläche und mit darauf darstellbaren, für eine benutzerseitige Aktivierung vorgesehenen graphischen Elementen, wobei die berührungssensitive Ein-/Ausgabeeinheit (D1–D7) dazu eingerichtet ist, – bei einer benutzerseitigen Schwebeauswahl eines graphischen Elements (GE1–GE9) zuvor verborgene unterschiedliche Regionen (R1–R13) dieses graphischen Elements (GE1–GE9) darzustellen und – bei einer benutzerseitigen Aktivierung eines dieser unterschiedlichen Regionen (R1–R13) eine Funktion auszuführen, welche diese Region (R1–R13) repräsentiert.
  3. Das elektrisches Gerät (EG1, EG2) nach Anspruch 1 oder 2, wobei die Regionen (R1–R13) auf dem grafischen Element transparent sind.
  4. Das elektrisches Gerät (EG1, EG2) nach einem der vorhergehenden Ansprüche, wobei es sich beim grafischen Element (GE1–GE9) um ein Icon, App oder eine Kachel handelt.
  5. Das elektrisches Gerät (EG1, EG2) nach einem der vorhergehenden Ansprüche, wobei die Aktivierung des grafischen Elementes (GE1–GE9) durch eine mechanische Berührung einer entsprechenden Region (R1–R13) des grafischen Elementes (GE1–GE9) auf der berührungssensitive Ein-/Ausgabeeinheit (D1–D7) erfolgt.
  6. Das elektrisches Gerät (EG1, EG2) nach einem der vorhergehenden Ansprüche, wobei die Aktivierung des grafischen Elementes (GE1–GE9) durch Positionierung und Anklicken eines Cursors durch ein Eingabegerät (M, T) erfolgt.
  7. Das elektrisches Gerät (EG1, EG2) nach einem der vorhergehenden Ansprüche, wobei es sich bei der Funktion um ein Programm, eine Applikation oder eine Live-Kachel handelt.
  8. Das elektrisches Gerät (EG1, EG2) nach einem der vorhergehenden Ansprüche, wobei eine Konfigurierung des grafischen Elementes (GE1–GE9) hinsichtlich der Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendbaren Region (R1–R13) benutzerdefinierbar ist.
  9. Das elektrisches Gerät (EG1, EG2) nach einem der vorhergehenden Ansprüche, wobei es sich beim elektrischen Gerät (EG1, EG2) um eine oder einen Teil einer Kontrollinstrumententafel (KIT) handelt.
  10. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3), mit einer berührungssensitive Ein-/Ausgabeeinheit (D1–D7) zur Darstellung eines grafischen Elementes (GE1–GE9), wobei das grafische Element (GE1–GE9) eine ausführbare Funktion repräsentiert; wobei das grafische Element (GE1–GE9) in unterschiedliche Regionen (R1–R13) aufgeteilt ist, wobei die Ausführung der Funktion durch Aktivierung einer Region des grafischen Elementes (GE1–GE9) erfolgt, und wobei die Ausführung der Funktion in Abhängigkeit der für die Aktivierung verwendeten Region (R1–R13) erfolgt.
  11. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3), mit einer berührungssensitive Ein-/Ausgabeeinheit (D1–D7) mit darauf darstellbaren, für eine benutzerseitige Aktivierung vorgesehenen graphischen Elementen (GE1–GE9), wobei die berührungssensitive Ein-/Ausgabeeinheit (D1–D7) dazu eingerichtet ist, – bei einer benutzerseitigen Schwebeauswahl eines graphischen Elements (GE1–GE9) zuvor verborgene unterschiedliche Regionen (R1–R13) dieses graphischen Elements (GE1–GE9) darzustellen und – bei einer benutzerseitigen Aktivierung eines dieser unterschiedlichen Regionen (R1–R13) eine Funktion auszuführen, welche diese Region (R1–R13) repräsentiert.
  12. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3) nach Anspruch 10 oder 11, wobei die Aktivierung des grafischen Elementes (GE1–GE9) durch eine mechanische Berührung einer entsprechenden Region (R1–R13) des grafischen Elementes (GE1–GE9) auf der berührungssensitive Ein-/Ausgabeeinheit (D1–D7) erfolgt.
  13. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3) nach einem der Ansprüche 10 bis 12, wobei die mechanische Berührung durch ein Eingabemittel erfolgt, und wobei bei einer Annäherung des Eingabemittels an das grafische Element (GE1–GE9), das grafische Element ab einem definierten Abstand vom Eingabemittel vergrössert auf der Bedien- und Beobachtungsoberfläche (BBO1–BBO3) dargestellt wird und gegebenenfalls die vorhandenen Regionen (R1–R13) sichtbar dargestellt werden.
  14. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3) nach einem der Ansprüche 10 bis 13, wobei die Aktivierung des grafischen Elementes (GE1–GE9) durch Positionierung und Anklicken eines Cursors durch ein Eingabegerät (M, T) erfolgt.
  15. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3) nach Anspruch 14, wobei der Cursor bei Annäherung an eine Region (R1–R13) ab einem definierten Mindestabstand auf die Region (R1–R13) positioniert wird.
  16. Grafische Bedien- und Beobachtungsoberfläche (BBO1–BBO3) nach einem der Ansprüche 10 bis 15, insbesondere für die Verwendung in einer Kontrollinstrumententafel (KIT).
DE102014218920.9A 2014-09-19 2014-09-19 Erweiterte Bedienfunktion von grafischen Bedienoberflächen Withdrawn DE102014218920A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014218920.9A DE102014218920A1 (de) 2014-09-19 2014-09-19 Erweiterte Bedienfunktion von grafischen Bedienoberflächen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014218920.9A DE102014218920A1 (de) 2014-09-19 2014-09-19 Erweiterte Bedienfunktion von grafischen Bedienoberflächen

Publications (1)

Publication Number Publication Date
DE102014218920A1 true DE102014218920A1 (de) 2016-03-24

Family

ID=55444603

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014218920.9A Withdrawn DE102014218920A1 (de) 2014-09-19 2014-09-19 Erweiterte Bedienfunktion von grafischen Bedienoberflächen

Country Status (1)

Country Link
DE (1) DE102014218920A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2175358A2 (de) * 2008-10-10 2010-04-14 Lg Electronics Inc. Mobiles Endgerät und Anzeigeverfahren dafür

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2175358A2 (de) * 2008-10-10 2010-04-14 Lg Electronics Inc. Mobiles Endgerät und Anzeigeverfahren dafür

Similar Documents

Publication Publication Date Title
KR101054597B1 (ko) 입상 그래픽 사용자 인터페이스 엘리먼트
US20150268802A1 (en) Menu control method and menu control device including touch input device performing the same
KR101328202B1 (ko) 제스처 입력을 통한 기능 수행 명령실행 방법 및 장치
EP2738661A2 (de) Verfahren zur Anzeige von Anwendungen und elektronische Vorrichtung dafür
US20090265659A1 (en) Multi-window display control system and method for presenting a multi-window display
US9311000B2 (en) Method for displaying keypad for smart devices
US20120110483A1 (en) Multi-desktop management
DE112014002687T5 (de) Berührungserkennung am rahmenrand
US20170344214A1 (en) Selecting and performing contextual actions via user interface objects
US11537265B2 (en) Method and apparatus for displaying object
CN107810468A (zh) 一种应用程序的切换方法及应用该方法的电子设备
CN103597438A (zh) 信息处理终端及方法、程序和记录介质
CN106354373A (zh) 一种图标移动方法及移动终端
US20170255357A1 (en) Display control device
CN106569674A (zh) 移动终端及其屏幕操作控制方法
CN112783408A (zh) 电子设备的手势导航方法、装置、设备及可读存储介质
DE102017102691A1 (de) Ausführen von Aktionen in Erwiderung auf ein Schweben über einer Eingabeoberfläche
CN111796746B (zh) 音量调节方法、音量调节装置和电子设备
CN113703623A (zh) 程序图标显示方法、装置、电子设备及介质
CN112732368A (zh) 程序运行方法、装置及电子设备
JP2015018426A (ja) 情報表示装置
DE102014218920A1 (de) Erweiterte Bedienfunktion von grafischen Bedienoberflächen
WO2022121604A1 (en) Devices and methods for fast navigation in a multi-attributed search space of electronic devices
CN114518929A (zh) 应用程序处理方法及装置
KR20150111651A (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: MAIER, DANIEL OLIVER, DIPL.-ING. UNIV., DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee