DE102017102691A1 - Ausführen von Aktionen in Erwiderung auf ein Schweben über einer Eingabeoberfläche - Google Patents

Ausführen von Aktionen in Erwiderung auf ein Schweben über einer Eingabeoberfläche Download PDF

Info

Publication number
DE102017102691A1
DE102017102691A1 DE102017102691.6A DE102017102691A DE102017102691A1 DE 102017102691 A1 DE102017102691 A1 DE 102017102691A1 DE 102017102691 A DE102017102691 A DE 102017102691A DE 102017102691 A1 DE102017102691 A1 DE 102017102691A1
Authority
DE
Germany
Prior art keywords
input
action
distance
instrument
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017102691.6A
Other languages
English (en)
Inventor
John Carl Mese
Arnold S. Weksler
Nathan J. Peterson
Russell Speight VanBlon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102017102691A1 publication Critical patent/DE102017102691A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein Ansatz wird offenbart, der ein Eingabeinstrument erfasst, das in einem Abstand weg von einem Objekt, das auf einer Eingabeoberfläche angezeigt wird, schwebt und eine Aktion in Erwiderung auf die Erfassung ausführt.

Description

  • HINTERGRUND
  • Ein Berührungsbildschirm ist ein Eingabegerät, das normalerweise auf der Oberseite einer elektronischen visuellen Anzeige eines Informationshandhabungsgerätes angeordnet ist. Ein Nutzer kann Eingaben eingeben oder das Informationsverarbeitungssystem durch einfache oder Multi-Berührungsgesten durch Berühren des Bildschirms mit einem speziellen Griffel/Stift und-oder einem oder mehreren Fingern steuern. Der Nutzer kann den Berührungsbildschirm verwenden, um auf das, was angezeigt wird, zu reagieren und um zu steuern, wie es anzuzeigen ist, zum Beispiel Zoomen, um die Textgröße zu vergrößern. Der Berührungsbildschirm ermöglicht dem Nutzer, direkt mit dem was angezeigt wird zu interagieren, anstelle eines Verwendens einer Maus, eines Berührungspads oder eines anderen Eingabegerätes.
  • Berührungsbildschirme sind in Geräten wie Spielekonsolen, Personalcomputern, Tabletcomputern, elektronischen Wählmaschinen und Smartphones üblich. Sie können auch an Computern oder als Anschlussgeräte für Netzwerke befestigt sein. Berührungsbildschirme werden auch in anderen Arten von Informationshandhabungsgeräten wie Smartphones, digitalen Personalassistenten (PDAs, personal digital assistants) und elektronischen Buchlesegeräten verwendet.
  • Die Popularität von Smartphones, Tablets und vielen Arten von Informationsgeräten fördert die Nachfrage und die Akzeptanz von gewöhnlichen Berührungsbildschirmen für tragbare und funktionelle Elektroniken. Touchscreens gibt es auf dem medizinischen Gebiet und in der Schwerindustrie sowie für Bankautomaten (ATMs, automated teller machines) und vollautomatische Geschäftsstellen wie Museumsanzeigen oder Raumautomatisierung, wo andere Eingabegeräte keine geeignete intuitive, schnelle oder genaue Interaktion durch den Nutzer mit dem Anzeigeinhalt ermöglichen.
  • Traditionelle Berührungsbildschirme erfordern vom Nutzer, den Bildschirm zu berühren, um eine Aktion auszuführen, welches die Anzahl der Aktionen begrenzt, die in Erwiderung auf die angezeigten Informationen ausgeführt werden können.
  • ZUSAMMENFASSUNG
  • Ein Ansatz wird offenbart, der ein Eingabeinstrument erfasst, das in einem Abstand weg von einem Objekt, das auf einer Eingabeoberfläche angezeigt wird, schwebt und eine Aktion in Erwiderung auf die Erfassung ausführt.
  • Das Vorhergehende ist eine Zusammenfassung und enthält somit notwendigerweise Vereinfachungen, Verallgemeinerungen und Auslassungen von Details; konsequenterweise wird der Fachmann anerkennen, dass die Zusammenfassung nur darstellend ist und sie nicht beabsichtigt, in irgendeiner Weise begrenzend zu sein. Andere Aspekte, erfindungsgemäße Merkmale und Vorteile werden in der nicht-begrenzenden detaillierten Beschreibung, die unten fortgesetzt wird, deutlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese Offenbarung kann besser durch Bezugnahme auf die begleitenden Zeichnungen verstanden werden, wobei:
  • 1 ein Blockdiagramm eines Datenverarbeitungssystems ist, mit dem die Verfahren, die hierin beschrieben werden, ausgeführt werden können;
  • 2 eine Vergrößerung der Umgebung des Informationshandhabungssystems, gezeigt in 1, darstellt, um zu illustrieren, dass die Verfahren, die hierin beschrieben werden, auf einer breiten Vielfalt von Informationshandhabungssystemen, welche in einer Netzwerkumgebung arbeiten, ausgeführt werden können;
  • 3A ein Komponentendiagramm ist, das einen Nutzer zeigt, der eine Schwebeberührungsschnittstelle mit einem berührungsaktivierten Laptopsystem verwendet;
  • 3B ein Komponentendiagramm ist, das einen Nutzer zeigt, der eine Schwebeberührungsschnittstelle mit einem berührungsaktivierten Tabletsystem verwendet;
  • 4 ein Flussdiagramm ist, das Schritte zeigt, die beim Einstellen von Schwebeberührungspräferenzen eines Systems verwendet werden;
  • 5 ein Flussdiagramm ist, das Schritte von hohem Niveau zeigt, die eine Schwebeberührungsschnittstelle implementieren;
  • 6 ein Flussdiagramm ist, das Schritte zeigt, die zum Handhaben einer möglichen Schwebeberührungsaktion ausgeführt werden; und
  • 7 ein Flussdiagramm ist, das weitere Schritte zeigt, die eine bewegungsbasierte Schwebeberührungsaktion handhaben.
  • Detaillierte Beschreibung
  • 17 zeigen einen Ansatz, der einen Weg zur Verfügung stellt, um zusätzliche Nutzerschnittstellenvorgänge auszuführen, ohne in Untermenüs zu navigieren oder Eingaben erfordern, die der gegenwärtigen Aufgabe fernliegen. Luftgesten können für ein Navigieren verwendet werden, aber können nicht Tiefe und Berührung kombinieren. Der Ansatz aktiviert ein Schwebeberühren durch eine Näherungserfassung über einer Anzeige oder einer Tastatur. Durch Verwenden von Sensoren, wie Näherungserfassungsgeräten oder einer Kamera, hält das System einen z-Koordinatenwert für eine Erfassungseingabe aufrecht. Wenn ein Nutzer ein Eingabeinstrument, wie den Finger des Nutzers oder einen Griffel, über dem Bildschirm schweben lässt, kann der Nutzer eine Aktion ausführen, die von einem aktuellen Druck/Tasten/Klicken des Bildschirmortes verschieden ist. Der Ansatz nutzt Tiefe und Berührungskombinationen. In einer Ausführungsform variiert der Nutzer die Tiefe oder den Abstand, in dem der Nutzer etwas über die Bildschirmoberfläche schweben lässt, um unterschiedliche Aktionen zu aktivieren. Beispielsweise nehmen wir an, dass der Nutzer einen Text ausgewählt hat. Wenn der Nutzer erneut klickt, würde die Cursorposition bewegt und die Auswahl würde zurückgesetzt. Unter Verwendung dieses Ansatzes könnte der Nutzer etwas schweben lassen, um ein kontextempfindliches Menü für eine zusätzliche Schwebeberührungsauswahl zu aktivieren. Für ein anderes Beispiel nehmen wir an, dass der Nutzer ein Bild auf dem Bildschirm angezeigt hat. Ein Schweben, das nahe zu dem Bildschirm über dem Bild liegt, würde es vollständig hereinzoomen, während ein Schweben, das weiter weg von dem Bildschirm ist, es in einer geringeren Menge hereinzoomen würde.
  • Die Terminologie, die hierin verwendet wird, dient nur dem Zweck der Beschreibung von besonderen Ausführungsformen und beabsichtigt nicht, die Erfindung zu begrenzen. Wie hierin verwendet, ist es beabsichtigt, dass die Singularformen “ein“, „eine“ und „der, die das“ auch die Pluralformen umfassen, außer der Kontext zeigt es deutlich auf anderer Weise. Es wird weiterhin verständlich sein, dass die Ausdrücke „umfassen“ und/oder „umfassend“, wenn sie in dieser Spezifikation verwendet werden, das Vorhandensein von Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen und/oder Komponenten festlegen, aber das Vorhandensein oder den Zusatz von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen und/oder Komponenten und/oder Gruppen davon nicht ausschließen.
  • Die entsprechenden Strukturen, Materialien, Aktionen und Äquivalente von allen Mitteln oder Schritten plus Funktionselementen in den Ansprüchen unten beabsichtigen jede Struktur, jedes Material oder jede Aktion zum Durchführen der Funktion in Kombination mit anderen beanspruchten Elementen, wie speziell beansprucht, einzuschließen. Die detaillierte Beschreibung wurde zum Zweck der Darstellung präsentiert, sie ist aber nicht beabsichtigt erschöpfend oder begrenzend für die Erfindung in der offenbarten Form zu sein. Viele Modifikationen und Variationen sind für den Fachmann offensichtlich, ohne von dem Rahmen und dem Geist der Erfindung abzuweichen. Die Ausführungsform wurde ausgewählt und beschrieben, um die Prinzipien der Erfindung und die praktische Anwendung am besten zu erklären und um Andere mit normalem technischen Verständnis in die Lage zu versetzen, die Erfindung für verschiedene Ausführungsformen mit verschiedenen Modifikationen, wie sie für die betrachtete besondere Verwendung geeignet ist, zu verstehen.
  • Wie für den Fachmann ersichtlich, können Aspekte als System, Verfahren oder Computerprogrammprodukt ausgeführt sein. Demgemäß können Aspekte die Form einer vollständigen Hardwareausführung, einer vollständigen Softwareausführung (einschließlich Firmware, residente Software, Mikrocode etc.) oder eine Ausführungsform annehmen, die Software- und Hardwareaspekte kombiniert, auf die zusammen hierin generell als eine “Schaltung”, ein “Modul” oder ein “System” Bezug genommen wird. Weiterhin können Aspekte der vorliegenden Offenbarung die Form von Computerprogrammprodukten einnehmen, die in einem oder mehreren computerlesbaren Medien enthalten sind, welche computerlesbare Programmcodes darin enthaltend aufweisen.
  • Es können irgendwelche Kombinationen von einem oder mehreren computerlesbaren Medien verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, infrarotes oder halbleitendes System, eine Vorrichtung oder ein Gerät oder irgendeine geeignete Kombination des Vorhergehenden sein, ist aber nicht darauf beschränkt. Speziellere Beispiele (eine nicht erschöpfende Liste) des computerlesbaren Speichermediums würde die folgenden einschließen: eine elektrische Verbindung, die einen oder mehrere Drähte aufweist, eine tragbare Computerdiskette, eine Festplatte, einen Direktzugriffsspeicher (RAM), einen Festwertspeicher (ROM, read-only memory), einen löschbaren, programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), eine optische Faser, einen tragbaren Kompaktdisk-Festwertspeicher (CD-ROM), ein optisches Speichergerät, ein magnetisches Speichergerät oder irgendeine geeignete Kombination der Vorhergehenden. In dem Kontext dieses Dokuments kann ein computerlesbares Speichermedium irgendein fühlbares Medium sein, das ein Programm zum Gebrauch durch ein oder in Verbindung mit einem Instruktionen ausführenden System, durch eine oder in Verbindung mit einer Vorrichtung oder durch ein oder in Verbindung mit einem Gerät enthalten oder speichern kann.
  • Ein computerlesbares Signalmedium kann ein sich verbreitendes Datensignal mit darin enthaltenem, computerlesbarem Programmcode einschließen, zum Beispiel in einem Basisband oder als Teil einer Trägerwelle. Ein derartiges sich verbreitendes Signal kann eine Vielfalt von Formen einnehmen, einschließlich und nicht begrenzt auf elektromagnetische, optische oder irgendwelche geeigneten Kombinationen davon. Ein computerlesbares Signalmedium kann irgendein computerlesbares Medium sein, das kein computerlesbares Speichermedium ist und das ein Programm zum Gebrauch durch ein oder in einer Verbindung mit einem Instruktionen ausführenden System, einer Vorrichtung oder einem Gerät kommunizieren, sich verbreiten oder transportiert werden kann. Wie hierin verwendet, umfasst ein computerlesbares Speichermedium nicht ein computerlesbares Signalmedium.
  • Einen Computerprogrammcode zum Ausführen von Operationen für Aspekte der vorliegenden Offenbarung kann in irgendeiner Kombination von einer oder mehreren Programmiersprachen geschrieben werden, einschließlich einer objektorientierten Programmsprache wie Java, Smalltalk, C++ oder dergleichen und konventionell durchführbaren Programmiersprachen wie die "C"-Programmiersprache oder ähnliche Programmiersprachen. Der Programmcode kann vollständig auf einem Computer des Nutzers, teilweise auf einem Computer des Nutzers, als alleinstehendes Softwarepaket, teilweise auf dem Computer des Nutzers und teilweise auf einem fernen Computer, oder vollständig auf dem fernen Server ausgeführt werden. In dem letzteren Szenarium kann der ferne Computer mit dem Computer des Nutzers über irgendeine Art von Netzwerk verbunden sein, einschließlich einem lokalen Bereichsnetzwerk (LAN, local area network) oder einem Fernbereichsnetzwerk (WAN, wide area network), oder die Verbindung kann durch einen externen Computer (z.B. durch das Internet, das einen Internet-Service-Provider verwendet) ausgeführt werden.
  • Aspekte der vorliegenden Offenbarung werden unten mit Bezug auf Flussdiagrammdarstellungen und/oder Blockdiagrammen von Verfahren, Vorrichtung(en), (Systemen) und Computerprogrammprodukten beschrieben. Es ist verständlich, dass jeder Block der Flussdiagrammdarstellungen und/oder Blockdiagramme und Kombinationen der Blöcke in den Flussdiagrammdarstellungen und/oder Blockdiagrammen durch Computerprogramminstruktionen ausgeführt sein können. Diese Computerprogramminstruktionen können durch einen Prozessor eines Computers für allgemeine Zwecke eines Computers für spezielle Zwecke oder anderer programmierbarer Datenverarbeitungsvorrichtungen bereitgestellt werden, um eine Maschine zu erzeugen, so dass die Instruktionen, welche über den Prozessor des Computers oder anderer programmierbarer Datenverarbeitungsvorrichtungen ausgeführt werden, Mittel zum Ausführen der Funktionen/Aktionen, die in den Flussdiagrammen und/oder dem Block oder den Blöcken des Blockdiagramms spezifiziert sind, zu erzeugen.
  • Diese Computerprogramminstruktionen können auch in einem computerlesbaren Speichermedium gespeichert werden, das einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Geräte führen kann, um Funktionen in einer bestimmten Weise auszuführen, so dass die Instruktionen, die in dem computerlesbaren Speichermedium gespeichert sind, einen Gegenstand der Herstellung produzieren, einschließlich der Instruktionen, welche die Funktionen/Aktionen, die in den Flussdiagrammen und/oder dem Block oder Blöcken des Blockdiagramms spezifiziert sind, ausführen.
  • Die Computerprogramminstruktionen können auch auf einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder andere Geräte geladen werden, um zu veranlassen, dass eine Serie von operativen Schritten auf dem Computer, anderen programmierbaren Vorrichtungen oder anderen Geräten ausgeführt wird, um einen computerausgeführten Prozess zu erzeugen, so dass die Instruktionen, welche auf dem Computer oder anderen programmierbaren Vorrichtungen ausgeführt werden, Prozesse für das Ausführen der Funktionen/Aktionen, die in dem Flussdiagramm und/oder dem Block oder den Blöcken des Blockdiagramms spezifiziert werden, bereitstellen.
  • Die folgende detaillierte Beschreibung wird allgemein der Zusammenfassung folgen, wie sie oben ausgeführt ist, und ferner die Definitionen der verschiedenen Aspekte und Ausführungsformen, falls notwendig, erklären und erweitern. An diesem Punkt wird die detaillierte Beschreibung als erstes eine Computerumgebung in 1 festlegen, die geeignet ist, um Software- und/oder Hardwaretechniken, die mit der Offenbarung assoziiert sind, auszuführen. Eine Netzwerkumgebung wird in 2 als eine Erweiterung der Basiscomputerumgebung dargestellt, um zu betonen, dass moderne Computertechniken über mehrfache diskrete Geräte ausgeführt werden können.
  • 1 stellt ein Informationshandhabungssystem 100 dar, welches ein vereinfachtes Beispiel eines Computersystems ist, das in der Lage ist, die Computeroperationen, die hierin beschrieben werden, durchzuführen. Das Informationshandhabungssystem 100 umfasst einen oder mehrere Prozessoren 110, die mit einem Prozessorschnittstellen-Bus 112 gekoppelt sind. Der Prozessorschnittstellen-Bus 112 verbindet die Prozessoren 110 mit einer Northbridge 115, welche auch als Speichersteuerknoten (MCH, Memory Controller Hub) bekannt ist. Die Northbridge 115 verbindet den Systemspeicher 120 und stellt Mittel für den(die) Prozessor(en) 110 zum Zugriff auf den Systemspeicher bereit. Ein grafisches Steuergerät 125 ist auch mit der Northbridge 115 verbunden. In einer Ausführungsform verbindet ein PCI-Express-Bus 118 die Northbridge 115 mit dem grafischen Steuergerät 125. Das grafische Steuergerät 125 ist mit einem Anzeigegerät 130, wie einem Computermonitor, verbunden.
  • Die Northbridge 115 und die Southbridge 135 sind unter Verwenden des Busses 119 miteinander verbunden. In einer Ausführungsform ist der Bus ein direkter Medienschnittstellen-(DMI, Direct Media Interface)Bus, der Daten bei hoher Geschwindigkeit in jede Richtung zwischen der Northbridge 115 und der Southbridge 135 transferiert. In einer anderen Ausführungsform verbindet ein peripherer Komponenten-Interconnect-(PCI, Peripheral Component Interconnect)Bus die Northbridge und die Southbridge. Die Southbridge 135, die auch als der Ein/Aus Steuergeräteknoten (ICH, I/O Controller Hub) bekannt ist, ist ein Chip, der allgemein Fähigkeiten ausführt, die bei niedrigeren Geschwindigkeiten arbeiten, als die Fähigkeiten, die durch die Northbridge bereitgestellt werden. Die Southbridge 135 stellt typischerweise verschiedene Busse bereit, die zum Verbinden verschiedener Komponenten verwendet werden. Diese Busse umfassen zum Beispiel PCI- und PCI-Express-Busse, einen ISA-Bus, einen Systemmanagement-Bus (SMBus oder SMB) und/oder einen Niedrigpinanzahl-(LPC, Low Pin Count)Bus. Der LPC-Bus verbindet oft niedrige Bandbreitengeräte, wie ein Boot-ROM 196 und “Legacy” Ein/Aus-Geräte (unter Verwenden eines “Super I/O” Chips). Die "Legacy" Ein/Aus Geräte (198) können zum Beispiel serielle und parallele Ports, Tastaturen, Mäuse und/oder ein Floppydisk-Steuergerät einschließen. Der LPC-Bus verbindet auch die Southbridge 135 mit einem Sicherheitsplattformmodul (TPM, Trusted Platform Module) 195. Andere Komponenten, die oft in der Southbridge 135 enthalten sind, umfassen ein direktes Speicherzugriffssteuergerät (DMA, Direct Memory Access), ein programmierbares Unterbrechungssteuergerät (PIC, Programmable Interrupt Controller) und ein Speichergerätesteuergerät, welches die Southbridge 135 mit dem nichtflüchtigen Speichergerät 185, wie einem Festplattenlaufwerk, unter Verwendung eines Busses 184 verbindet.
  • Eine ExpressCard-Buchse 155 ist ein Schlitz, der schnell einsteckbare Geräte mit dem Informationshandhabungssystem verbindet. Die ExpressCard-Buchse 155 unterstützt sowohl die PCI-Express- als auch die USB-Verbindbarkeit, da diese mit der Southbridge 135 unter Verwenden sowohl des universellen Serienbusses (USB, Universal Serial Bus) als auch des PCI-Express-Busses, verbunden werden. Die Southbridge 135 umfasst das USB-Steuergerät 140, das eine USB-Verbindbarkeit mit Geräten bereitstellt, die mit dem USB verbunden sind. Diese Geräte schließen eine Webcam (Kamera) 150, einen Infrarot-(IR)Empfänger 148, eine Tastatur und ein Trackpad 144 und ein Bluetooth-Gerät 146 ein, welches ein drahtloses Privatbereichsnetzwerk (PANs, personal area networks) bereitstellt. Das USB-Steuergerät 140 stellt auch eine USB-Verbindbarkeit mit anderen sonstigen USB-verbundenen Geräten 142 bereit, wie eine Maus, ein entfernbares nicht-flüchtiges Speichergerät 145, Modems, Netzwerkkarten, ISDN-Verbinder, Fax, Drucker, USB-Knoten und viele andere Arten von USB-verbundenen Geräten. Während entfernbare nicht-flüchtige Speichergeräte 145 als ein USB-verbundenes Gerät gezeigt werden, könnten entfernbare nicht-flüchtige Speichergeräte 145 unter Verwenden einer unterschiedlichen Schnittstelle, wie einer Firewire-Schnittstelle und so weiter, verbunden werden.
  • Ein drahtloses lokales Nahbereichsnetzwerk-(LAN, Local Area Network)Gerät 175 verbindet die Southbridge 135 über den PCI- oder PCI-Express-Bus 172. Das LAN-Gerät 175 führt typischerweise einen der IEEE, 802.11 Standards der Funkmodulationstechniken aus, die alle das gleiche Protokoll verwenden, um zwischen dem Informationshandhabungssystem 100 und einem anderen Computersystem oder Gerät drahtlos zu kommunizieren. Ein optisches Speichergerät 190 verbindet die Southbridge 135 unter Verwenden eines seriellen ATA-(SATA-)Busses 188. Serielle ATA-Adapter und Geräte kommunizieren über eine serielle Hochgeschwindigkeitsverbindung. Der serielle ATA-Bus verbindet auch die Southbridge 135 mit anderen Formen der Speichergeräte, wie Festplattenlaufwerke. Eine Audioschaltung 160, wie eine Soundkarte, verbindet die Southbridge 135 über den Bus 158. Eine Audioschaltung 160 stellt auch Funktionalitäten wie eine Audioeinleitung (audio line-in) und einen optischen digitalen Audioport 162, einen optischen digitalen Ausgang und eine Kopfhörerbuchse 164, interne Lautsprecher 166 und ein internes Mikrofon 168 bereit. Ein Ethernet-Steuergerät 170 verbindet die Southbridge 135 unter Verwenden eines Busses, wie dem PCI- oder PCI-Express-Bus. Das Ethernet-Steuergerät 170 verbindet das Informationshandhabungssystem 100 mit einem Computernetzwerk, wie einem lokalen Nahbereichsnetzwerk (LAN), dem Internet und anderen öffentlichen und privaten Computernetzwerken.
  • Während 1 ein einziges Informationshandhabungssystem zeigt, kann ein Informationshandhabungssystem viele Formen einnehmen. Zum Beispiel kann ein Informationshandhabungssystem die Form eines Desktops, eines Servers, eines tragbaren Computers, eines Laptops, eines Notebooks oder andere Formfaktoren von Computern oder Datenverarbeitungssystemen annehmen. Zusätzlich kann ein Informationshandhabungssystem andere Formfaktoren wie einen digitalen Personalassistenten (PDA), ein Spielegerät, eine ATM-Maschine, ein tragbares Telefongerät, ein Kommunikationsgerät oder andere Geräte, die einen Prozessor und einen Speicher aufweisen, annehmen.
  • Das Sicherheitsplattformmodul (TPM 195, Trusted Platform Module), das in 1 gezeigt und hierin beschrieben ist, um Sicherheitsfunktionen bereitzustellen, ist nur ein Beispiel eines Hardware-Sicherheitsmoduls (HSM). Deshalb umfasst das TPM, das hierin beschrieben und beansprucht wird, jede Art von HSM, einschließlich aber nicht begrenzt auf Hardware-Sicherheitsgeräte, die dem Sicherheits-Computergruppen-(TCG)Standard entsprechen und als “Trusted Platform Module (TPM) Specification Version 1.2” bezeichnet werden. Das TPM ist ein Hardware-Sicherheitshilfssystem, das in irgendeiner Anzahl von Informationshandhabungssystemen eingebaut sein kann, wie solchen, die in 2 dargestellt sind.
  • 2 stellt eine Vergrößerung der Umgebung des Informationshandhabungssystems, das in 1 gezeigt wird, bereit, um darzustellen, dass die Verfahren, die hierin beschrieben werden, auf einer breiten Vielfalt von Informationshandhabungssystemen, die in einer Netzwerkumgebung betrieben werden, ausgeführt werden können. Arten von Informationshandhabungssystemen reichen von kleinen handgehaltenen Geräten, wie einem handgehaltenen Computer/Mobiltelefon 210, zu Großrechnersystemen, wie einem Großrechencomputer 270. Beispiele handgehaltener Computer 210 schließen digitale Personalassistenten (PDAs), persönliche Entertainmentgeräte, wie MP3-Player, tragbare Fernsehgeräte und Kompaktdisk-Wiedergabegeräte ein. Andere Beispiele von Informationshandhabungssystemen umfassen Stift- oder Tablet-Computer 220, Laptop- oder Notebook-Computer 230, Workstation 240, ein Personalcomputersystem 250 und Server 260. Andere Arten von Informationshandhabungssystemen, die nicht individuell in 2 gezeigt sind, werden durch das Informationshandhabungssystem 280 dargestellt. Wie gezeigt, können die verschiedenen Informationshandhabungssysteme über Netzwerke unter Verwenden eines Computernetzwerks 200 zusammenarbeiten. Arten von Computernetzwerken, die verwendet werden können, um die verschiedenen Informationshandhabungssysteme zusammenzuschließen, umfassen lokale Nahbereichsnetzwerke (LANs), drahtlose lokale Nahbereichsnetzwerke (WLANs), das Internet, das öffentlich geschaltete Telefonnetzwerk (PSTN), andere drahtlose Netzwerke und irgendeine andere Netzwerktopologie, die verwendet werden kann, um die Informationshandhabungssysteme untereinander zu verbinden. Viele der Informationshandhabungssysteme umfassen nichtflüchtige Datenspeicher, wie feste Laufwerke und/oder nichtflüchtige Speicher. Einige der Infor mationshandhabungssysteme, die in 2 gezeigt werden, zeigen separate nicht-flüchtige Datenspeicher (der Server 260 verwendet nichtflüchtigen Datenspeicher 265, der Großrechner 270 verwendet nichtflüchtigen Datenspeicher 275 und das Informationshandhabungssystem 280 verwendet einen nichtflüchtigen Datenspeicher 285). Der nichtflüchtige Datenspeicher kann eine Komponente sein, die extern zu den verschiedenen Informationshandhabungssystemen ist oder kann intern in einem der Informationshandhabungssysteme vorhanden sein. Zusätzlich kann ein entfernbares nichtflüchtiges Speichergerät 145 auf zwei oder mehr Informationshandhabungssysteme unter Verwenden verschiedener Techniken verteilt sein, wie ein Verbinden des entfernbaren nichtflüchtigen Speichergerätes 145 mit einem USB-Port oder einem anderen Verbinder der Informationshandhabungssysteme.
  • 3A ist ein Komponentendiagramm, das einen Nutzer zeigt, der eine Schwebeberührungsschnittstelle mit einem berührungsaktivierten Laptopsystem verwendet. Das berührungsaktivierte Informationshandhabungssystem 230, wie ein Laptopcomputersystem, weist einen berührungsaktivierten Anzeigebildschirm auf. Das System umfasst einen oder mehrere Sensoren, wie einen Näherungserfassungssensor 330, der ein Eingabeinstrument 300, wie einen Griffel oder einen menschlichen Finger, erfasst, der in einem Abstand 320 entfernt von der Oberfläche des Anzeigebildschirms schwebt. In 3A wird der Abstand als “z” gezeigt. Das Eingabeinstrument schwebt über dem Bildschirmort 310, wie eine grafische Nutzerschnittstellen-(GUI)Steuerung oder ein anderes Objekt, das auf dem Bildschirm abgebildet wird. In dem gezeigten Beispiel wird der Näherungserfassungssensor 330 auf der Keyboardkomponente des Informationshandhabungssystems gezeigt, jedoch könnte ein derartiger Sensor auch anderswo angeordnet sein, wie auf der Anzeigenkomponente des Systems.
  • Eine Eingabeoberfläche 350 kann ein berührungsaktivierter Anzeigebildschirm, eine Touchpadoberfläche oder eine Nicht-Anzeigeoberfläche sein, die in der Lage ist, Berührungseingaben zu empfangen. In den 3A und 3B wird eine Eingabeoberfläche 350 als ein berührungsaktivierter Anzeigebildschirm gezeigt.
  • 3B. ist ein Komponentendiagramm, das einen Nutzer zeigt, der eine Schwebeberührungsschnittstelle mit einem berührungsaktivierten Tabletsystem verwendet. Das berührungsaktivierte Informationshandhabungssystem 220, wie ein Tabletcomputersystem, weist einen berührungsaktivierten Anzeigebildschirm auf. Ähnlich zu dem System, das in 3A gezeigt wird, umfasst auch dieses System einen oder mehrere Sensoren, wie einen Näherungserfassungssensor 330, der ein Eingabeinstrument 300, wie einen Griffel oder einen menschlichen Finger, erfasst, der in einem Abstand 320 fern von der Oberfläche des Anzeigebildschirms schwebt. In 3B ist dieser Abstand fern von der Anzeigebildschirmfläche auch als “z” gezeigt. Das Eingabeinstrument schwebt über dem Bildschirmort 310, wie eine grafische Nutzerschnittstellen-(GUI)Steuerung oder ein anderes Objekt, das auf dem Bildschirm angezeigt wird. In dem gezeigten Beispiel wird der Näherungserfassungssensor 330 gezeigt, als dass er in der Anzeigenkomponente des Systems, wie auf dem Rand des Tabletsystems, eingeschlossen ist.
  • 4 ist ein Flussdiagramm, das Schritte zeigt, die beim Einstellen der Schwebeberührungspräferenzen auf einem System verwendet werden. Eine Verarbeitung beginnt in 4 bei 400 und zeigt die Schritte, die durch einen Prozess getätigt werden, der die Installationsverarbeitung ausführt. Beim Schritt 410 wählt der Prozess den ersten sichtbaren Bereich für Schwebeaktionen aus, der durch den Nutzer konfiguriert wird. Der sichtbare Bereich könnte eine grafische Nutzerschnittstellen-(GUI)Steuerung, ein Applikationsbereich, ein Desktophintergrundbereich oder dergleichen sein. Beim Schritt 420 konfiguriert der Prozess die erste Schwebeaktion für den ausgewählten sichtbaren Bereich. In einer Ausführungsform können vielfache Aktionen für einen Bildschirmort mit der Aktion, welche basierend auf dem Abstand, in dem sich das Eingabeinstrument von dem Bildschirm befindet, konfiguriert werden, die ausgeführt werden, wenn es der Nutzer über dem Bildschirmort schweben lässt.
  • Beim Schritt 425 wählt der Prozess eine Aktion aus, die ausgeführt wird, wenn die Schwebeaktion auf dem gewählten Bildschirmort erfasst ist. Aktionen können ein Kopieren des Bildschirmortes in eine Zwischenablage, ein Ausführen eines Zoomvorgangs (z.B. heran-/herauszoomen basierend auf einer Eingabeinstrumentenbewegung zu/weg von dem Bildschirm), ein Schwenken der Anzeige, ein Öffnen eines Eigenschaftsmenüs etc. sein.). Beim Schritt 430 veranlasst der Prozess den Nutzer zu einer Art Schwebegeste, die zu konfigurieren ist. Arten von Schwebeaktionen umfassen eine feste z-Position (Abstand) von der Bildschirmoberfläche über einem Bildschirmort, eine bewegbare z-Position, wie ein Bewegen des Eingabeinstruments zu oder von der Bildschirmoberfläche, um zum Beispiel heran zu zoomen oder heraus zu zoomen, und eine bewegbare x/y-Steuerung, um zum Beispiel ein Objekt, das auf dem Anzeigebildschirm angezeigt wird, zu bewegen oder einen Bereich auszuwählen, der durch ein “Lasso” definiert wird, das durch den Nutzer von einem Startpunkt zu einem Endpunkt des definierten Bereichs gezeichnet wird.
  • Beim Schritt 440 veranlasst der Prozess den Nutzer für den z-Abstand das Eingabeinstrument (z.B. Finger, Griffel etc.) über einem Testsymbol, das auf dem Bildschirm angezeigt wird, schweben zu lassen. Beim Schritt 450 erfasst der Prozess den z-Abstand, auf dem der Nutzer das Eingabeinstrument, in Reaktion auf das Veranlassen beim Schritt 440, schweben lässt. Beim Schritt 460 zeichnet der Prozess die Konfigurationsdaten, welche diese Schwebeaktion betreffen, in dem Datenspeicher 470 auf. Der Datenspeicher 470 umfasst verschiedene sichtbare Bildschirmorte und Schwebeaktionen, welche die verschiedenen Bildschirmorte mit den Schwebeaktionen betreffen, einschließlich der Schwebeabstände, der Art des Schwebens und den Reaktionsaktionen, die durchgeführt werden.
  • Der Prozess bestimmt, ob der Nutzer weitere Schwebeaktionen für den ausgewählten Bildschirmort zu konfigurieren wünscht (Entscheidung 480). Wenn der Nutzer wünscht, weitere Schwebeaktionen für den ausgewählten Bildschirmort zu konfigurieren, dann verzweigt sich die Entscheidung 480 zu dem 'Ja'-Zweig, welcher zurück zu dem Schritt 420 zurückkoppelt, um die nächste Schwebeaktion für den ausgewählten Bildschirmbereich zu konfigurieren. Diese Rückkopplung wird fortgesetzt, bis der Nutzer nicht mehr wünscht, weitere Schwebeaktionen für den ausgewählten Bildschirmort zu konfigurieren, an welchem Punkt sich die Entscheidung 480 unter Verlassen der Rückkopplungsschleife zu dem 'Nein'-Zweig verzweigt.
  • Der Prozess bestimmt, ob der Nutzer wünscht, weitere Bildschirmorte zu konfigurieren (Entscheidung 490). Wenn der Nutzer wünscht, weitere Bildschirmorte zu konfigurieren, verzweigt sich die Entscheidung 490 zu dem 'Ja'-Zweig, welcher zu dem Schritt 410 zurückkoppelt, um den nächsten Bildschirmort für Schwebeaktionen auszuwählen. Diese Rückkopplung wird fortgesetzt, bis der Nutzer nicht mehr wünscht, weitere Bildschirmorte zu konfigurieren, an welchem Punkt sich die Entscheidung 490 unter Verlassen der Rückkopplungsschleife zu dem 'Nein'-Zweig verzweigt. Danach endet bei 495 das Verarbeiten gemäß 4.
  • 5 ist ein Flussdiagramm, das Schritte von hohem Niveau zeigt, die eine Schwebeberührungsschnittstelle implementieren. Das Verarbeiten gemäß 5 beginnt bei 500 und zeigt die Schritte, die durch einen Prozess getätigt werden, der den Gebrauch der Schwebeaktionen durch den Nutzer handhabt. Bei Schritt 520 schaltet der Prozess den Näherungsdetektor des Gerätes ein. Der Näherungsdetektor des Gerätes oder die Detektoren sind ein oder mehrere Sensoren, die das Eingabeinstrument, welches über einem Bereich des Anzeigebildschirms schwebt, erfassen. Bei Schritt 540 überwacht der Prozess ein Schweben über dem Anzeigebildschirm des Eingabeinstruments (z.B. menschlicher Finger, Griffel etc.). Ein Schwebeereignis wird erfasst, wenn das Eingabeinstrument den Anzeigebildschirm nicht berührt, sich aber in einem relativ konstanten x-y-z-Positionsabstand fern vom Bildschirm befindet. In größerer spezifischer Weise schwebt das Eingabeinstrument in einem z-Abstand fern von dem Anzeigebildschirm über einem Bildschirmort, der durch x, y gekennzeichnet ist.
  • Der Prozess bestimmt, ob das Anzeigeinstrument über einem Bildschirmort schwebend erfasst wird (Entscheidung 560). Wenn das Anzeigeinstrument als schwebend über einem Bildschirmort erfasst wird, dann verzweigt sich die Entscheidung 560 zu dem 'Ja'-Zweig, um das Schwebeereignis unter Verwenden eines vordefinierten Prozesses 580 zu verarbeiten, welcher dann zu dem Schritt 540 zurückgekoppelt wird. Wenn ein Schwebeereignis nicht erfasst wird, dann wird die Entscheidung 560 den vordefinierten Prozess 580 überspringen und zu dem Schritt 540 zurückgekoppelt. Wenn ein Schwebeereignis erfasst wird, dann wird, in einem vordefinierten Prozess 580, der Prozess mit der Routine der Behandlung einer möglichen Schwebeberührungsaktion (siehe 6 und entsprechenden Text für Verarbeitungsdetails) durchgeführt. Nachdem das Ereignis gehandhabt wurde, wird das Verarbeiten zu dem Schritt 540 zurückgekoppelt.
  • 6 ist ein Flussdiagramm, das Schritte zeigt, die zum Handhaben einer möglichen Schwebeberührungsaktion ausgeführt werden. Das Verarbeiten gemäß 6 beginnt bei 600 und zeigt die Schritte, die durch einen Prozess getätigt werden, der ein mögliches Schwebeereignis handhabt, welches durch das Informationshandhabungssystem erfasst wird. Beim Schritt 610 ruft der Prozess den sichtbaren Bereich(e), der dem x-y-Ort entspricht, über dem das Eingabeinstrument schwebt, auf. Zum Beispiel könnte das Schwebeereignis erfasst werden, wenn das Eingabeinstrument über einem Symbol schwebt, das innerhalb eines Containerbereichs ist, der sich innerhalb einer Applikation befindet, die auf einem Desktop abgebildet wird.
  • Beim Schritt 625 wählt der Prozess den ersten sichtbaren Bereich oder einen Bildschirmort von dem kleinsten Bereich bis zu dem größten Bereich aus. Unter Verwenden des obigen Beispiels wäre der kleinste Bereich das Symbol und der größte Bereich wäre der Desktop. Bei Schritt 630 ruft der Prozess jegliche Schwebeaktionsdaten auf, die für den ausgewählten Bildschirmbereich konfiguriert wurden. Aus dem obigen Beispiel könnte der Schritt 630 jegliche Schwebeaktionsdaten zurückgewinnen, welche als erstes das Symbol, dann den Container, dann die Applikation und dann den Desktop betreffen.
  • Der Prozess bestimmt, ob eine oder mehrere Schwebeaktionen für den ausgewählten Bildschirmort konfiguriert wurden (Entscheidung 640). Wenn eine oder mehrere Schwebeaktionen für den ausgewählten Bildschirmort konfiguriert wurden, dann verzweigt sich die Entscheidung 640 zu dem 'Ja'-Zweig, um die Schritte 650 bis 685 durchzuführen. Wenn andererseits keine Aktion(en) für den ausgewählten Bereich konfiguriert wurden, verzweigt sich dann die Entscheidung 640 zu dem 'Nein'-Zweig, um die Schritte 690 bis 695 durchzuführen.
  • Wenn eine oder mehrere Schwebeaktionen für den ausgewählten Bildschirmort konfiguriert wurden, verzweigt sich die Entscheidung 640 zu dem 'Ja'-Zweig, um die Schritte 650 bis 685 durchzuführen. Der Prozess bestimmt als nächstes, ob mehrfache Aktionen für den ausgewählten Bildschirmort konfiguriert wurden (Entscheidung 650). Wenn mehrfache Aktionen für den ausgewählten Bildschirmort konfiguriert wurden, dann verzweigt sich die Entscheidung 650 zu dem 'Ja'-Zweig, woraufhin der Prozess bei Schritt 680 die Schwebeaktion mit einer z-Position, die am nächsten zu der gegenwärtigen z-Position des Zeigers angeordnet ist, auswählt. In einer Ausführungsform ist die ausgewählte Aktion innerhalb eines Abstandsbereichs, der einen gegenwärtigen Abstand umfasst, in dem das Eingabeinstrument von dem Bildschirm entfernt ist. Wenn andererseits nur eine Schwebeaktion für den ausgewählten Bildschirmort konfiguriert wurde, dann verzweigt sich die Entscheidung 650 zu dem 'Nein'-Zweig, woraufhin der Prozess beim Schritt 665 die einzige Schwebeaktion, die von dem ausgewählten Bildschirmort konfiguriert wurde, auswählt.
  • Der Prozess bestimmt, ob die ausgewählte Aktion eine Bewegung des Eingabeinstruments umfasst (Entscheidung 670). Wenn die ausgewählte Aktion eine Bewegung des Eingabeinstruments umfasst, verzweigt sich die Entscheidung 670 zu dem 'Ja'-Zweig, woraufhin der Prozess beim vordefinierten Prozess 675 die Routine einer bewegungsbasierten Aktion (siehe 7 und den entsprechenden Text für Verarbeitungsdetails) ausführt. Wenn die ausgewählte Aktion andererseits keine Bewegung des Eingabeinstruments umfasst, dann verzweigt sich die Entscheidung 670 zu dem 'Nein'-Zweig, woraufhin der Prozess bei dem Schritt 680 die ausgewählte Festposition-Aktion durchführt. Die Verarbeitung gemäß 6 kehrt danach zu der Aufrufroutine (siehe 5) bei 685 zurück.
  • Nun zurückkehrend zur Entscheidung 640, wenn keine Aktionen für den ausgewählten sichtbaren Bereich konfiguriert wurden, bestimmt der Prozess als nächstes, ob dort mehrere (größere) sichtbare Bereiche unter dem Eingabeinstrument vorhanden sind (Entscheidung 690). Unter Verwenden des Beispiels von oben, wenn keine Aktionen für das Symbol konfiguriert wurden, dann würde der Prozess bestimmen, ob irgendwelche Aktionen für den Container, die Applikation und letztendlich den Desktop konfiguriert wurden. Wenn es dort keine sichtbaren Bereiche mehr unter dem Eingabeinstrument gibt, dann verzweigt sich die Entscheidung 690 zu dem 'Ja'-Zweig, welcher zum Schritt 625 zurückkoppelt, um den nächstgrößeren Bildschirmbereich auszuwählen und um zu bestimmen, ob Aktionen für den neu ausgewählten Bildschirmbereich konfiguriert sind. Diese Rückkopplung wird fortgesetzt, bis es keine Bildschirmbereiche zum Auswählen und Bearbeiten mehr gibt, an welchem Punkt sich die Entscheidung 690 zu dem 'Nein'-Zweig verzweigt, wobei die Rückkopplungsschleife verlassen wird und das Verarbeiten zu der Aufrufroutine (siehe 6) bei 695 zurückkehrt, ohne irgendwelche Aktionen auszuführen.
  • 7 ist ein Flussdiagramm, das weitere Schritte zeigt, die eine Bewegung, welche auf einer Schwebeberührungsaktion basiert, handhaben. Das Verarbeiten gemäß 7 beginnt bei 700 und zeigt die Schritte, die durch einen Prozess getätigt werden, der bewegungsbasierende Schwebeaktionen handhabt. Beim Schritt 705 zeigt der Prozess den Start der auf einer Bewegung basierenden Aktion auf dem Bildschirm an, wie durch ein Blinken oder in anderer Weise durch Hervorheben eines Bildschirmbereichs, etc.). Bei der Entscheidung 710 bestimmt der Prozess, ob die Schwebeaktion eine z-basierte Schwebeaktion (rauf/runter, womit sich das Eingabeinstrument näher an die oder weiter weg von der Bildschirmoberfläche bewegt) oder eine x, y-basierte Schwebeaktion (über den Bildschirm) ist. Wenn die Schwebeaktion eine z-basierte Schwebeaktion (rauf/runter) ist, dann verzweigt sich die Entscheidung 710 zu dem linken (z-basierten) Zweig von der Entscheidung 710, um die Schritte 715 bis 745 durchzuführen. Wenn andererseits die Schwebeaktion eine x, y-basierte Schwebeaktion ist (über den Bildschirm), dann verzweigt sich die Entscheidung 710 zu dem nach unten (x, y-basierte) Zweig, um die Schritte 750 bis 795 durchzuführen.
  • Wenn die Schwebeaktion eine z-basierte Schwebeaktion (rauf/runter) ist, dann verzweigt sich die Entscheidung 710 zu dem linken (z-basierten) Zweig von der Entscheidung 710, um die Schritte 715 bis 745 auszuführen. Beim Schritt 715 setzt der Prozess die startende z-Position (Abstand) auf die laufende z-Position (Abstand) des Eingabeinstruments von der Bildschirmoberfläche. Beim Schritt 720 empfängt der Prozess zunächst die x, y, z-Position des Eingabeinstruments. Der Prozess bestimmt, ob das Eingabeinstrument unter Ändern des Abstands (z-Position) von der Oberfläche des Bildschirms herauf- oder herunterbewegt wurde (Entscheidung 725). Wenn das Eingabeinstrument herauf- oder herunterbewegt wurde, dann verzweigt sich die Entscheidung 725 zu dem 'Ja'-Zweig, woraufhin der Prozess beim Schritt 730 die Schwebeaktion gemäß der Bewegungsrichtung fortsetzt. Zum Beispiel könnte die Schwebeaktion ein Heranzoomen sein, wenn das Eingabeinstrument in Richtung auf die Bildschirmoberfläche bewegt wird und ein Herauszoomen sein, wenn das Eingabeinstrument weg von der Bildschirmoberfläche bewegt wird.
  • Wenn andererseits das Eingabeinstrument nicht herauf- oder herunterbewegt wurde (weg von oder zu der Oberfläche des Bildschirms), dann verzweigt sich die Entscheidung 725 zu dem 'Nein'-Zweig, um die Entscheidung 735 auszuführen. Bei der Entscheidung 735 bestimmt der Prozess, ob das Eingabeinstrument von der ursprünglichen-x/y-Position wegbewegt wurde (Entschei dung 735). Wenn das Eingabeinstrument von der ursprünglichen-x/y-Position wegbewegt wurde, dann verzweigt sich die Entscheidung 735 zu dem 'Ja'-Zweig, woraufhin beim Schritt 740 die z-basierende Schwebeaktion beendet wird und die Verarbeitung zu der Aufrufroutine (siehe 6) bei 745 zurückkehrt. Wenn andererseits das Eingabeinstrument nicht von der ursprünglichen-x/y-Position wegbewegt wurde, dann verzweigt sich die Entscheidung 735 zu dem 'Nein'-Zweig, woraufhin das Verarbeiten ein Rückkoppeln zu dem Schritt 720 fortsetzt, um die nächste x, y, z-Position des Eingabeinstruments relativ zu der Bildschirmoberfläche zu empfangen.
  • Zurückkehrend nun zu der Entscheidung 710, wenn die Schwebeaktion eine x, y-basierte Schwebeaktion (über dem Bildschirm) ist, dann verzweigt sich die Entscheidung 710 zu dem nach unten gerichteten Zweig (x, y-basiert), um die Schritte 750 bis 795 durchzuführen. Bei dem Schritt 750 setzt der Prozess die startende x, y-Position auf die gegenwärtige x, y-Position des Eingabeinstruments. Beim Schritt 755 empfängt der Prozess die nächste x, y, z-Position des Eingabeinstruments. Der Prozess bestimmt zunächst, ob sich das Eingabeinstrument zu einer unterschiedlichen x/y-Position über dem Anzeigebildschirm bewegt, wobei die z-Position relativ konstant bleibt (Entscheidung 760). Wenn sich das Eingabeinstrument zu einer unterschiedlichen x/y-Position über dem Anzeigebildschirm bewegt, dann verzweigt sich die Entscheidung 760 zu dem 'Ja'-Zweig, woraufhin beim Schritt 765 der Prozess die Schwebeaktion gemäß der Bewegungsrichtung des Eingabeinstruments fortsetzt. Wenn der Nutzer zum Beispiel einen Bereich auf dem Bildschirm auswählt, kann die Änderung der x/y-Position an die Größe eines "Lassos" angepasst werden, das auf dem Bildschirm gezeichnet wird.
  • Wenn andererseits das Eingabeinstrument nicht zu einer unterschiedlichen x/y-Position über dem Anzeigebildschirm bewegt wird, verzweigt sich die Entscheidung 760 zu dem 'Nein'-Zweig, um die Entscheidung 770 auszuführen. Bei der Entscheidung 770 bestimmt der Prozess, ob das Eingabeinstrument rauf/runter oder in Richtung zu/weg von den/dem Anzeigebildschirm bewegt wird (Entscheidung 770). Wenn das Eingabeinstrument herauf/herunterbewegt wird, dann verzweigt sich die Entscheidung 770 zu dem 'Ja'-Zweig, woraufhin beim Schritt 775 die x/y-basierende Schwebeaktion beendet wird und die Verarbeitung zu der Aufrufroutine (siehe 6) bei 795 zurückkehrt. Wenn andererseits das Eingabeinstrument nicht rauf/runter bewegt wird, dann verzweigt sich die Entscheidung 770 zu dem 'Nein'-Zweig, woraufhin das Verarbeiten eine Rückkopplung zu dem Schritt 755 fortsetzt, um die nächste x, y, z-Position des Eingabeinstruments relativ zu der Bildschirmoberfläche zu empfangen.
  • Während besondere Ausführungsformen gezeigt und beschrieben wurden, ist es für den Fachmann der Technik naheliegend, dass basierend auf den hierin vorhandenen Lehren, Änderungen und Modifikationen ohne von dieser Offenbarung und ihren breiteren Aspekten abzuweichen, ausgeführt werden können. Deshalb umfassen die anhängenden Ansprüche innerhalb ihres Rahmens alle derartigen Änderungen und Modifikationen, soweit sie innerhalb des wahren Geistes und des Schutzrahmens dieser Offenbarung liegen. Weiterhin ist es verständlich, dass die Erfindung einzig und allein durch die anhängenden Ansprüche definiert wird. Es ist für den Fachmann der Technik verständlich, wenn eine spezifische Anzahl eines eingeführten Anspruchselements beabsichtigt ist, dass eine derartige Absicht ausdrücklich in den Ansprüchen vorgetragen wird und in Abwesenheit einer derartigen Aufzählung keine derartige Begrenzung vorhanden ist. Als nicht-begrenzendes Beispiel, als Hilfe zum Verständnis enthalten die nachfolgenden Ansprüche den Gebrauch der Einleitungsausdrücke “wenigstens ein” und “eines oder mehrere”, um Anspruchselemente einzuführen. Der Gebrauch von derartigen Ausdrükken sollte jedoch nicht konstruiert sein, um zu beinhalten, dass die Einführung eines Anspruchselements durch die unbestimmten Artikel “ein” oder “eine” irgendeinen bestimmten Anspruch, der ein derartiges einführendes Anspruchselement enthält, gegenüber anderen, die nur ein derartiges Element enthalten, abzugrenzen, selbst wenn der gleiche Anspruch den einführenden Ausdruck “ein oder mehrere” oder “wenigstens einen” und unbestimmte Artikel wie “ein” oder “eine” einschließt; das Gleiche gilt für den Gebrauch von bestimmten Artikeln in den Ansprüchen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE, 802.11 Standards [0030]

Claims (20)

  1. Verfahren, umfassend: Erfassen eines Eingabeinstruments, das in einem Abstand weg von einem Objekt, das auf einer Eingabeoberfläche angezeigt wird, schwebt; Ausführen einer Aktion in Erwiderung auf die Erfassung.
  2. Verfahren nach Anspruch 1, wobei das Eingabeinstrument aus einer Gruppe ausgewählt wird, die aus einem menschlichen Finger und einem Griffel besteht.
  3. Verfahren nach Anspruch 1, wobei das Erfassen weiter eine Länge des Abstands erfasst, und wobei das Verfahren weiterhin umfasst: Auswählen einer ersten Aktion von einer Mehrzahl von Aktionen in Erwiderung auf den Abstand, der innerhalb eines ersten Abstandsbereichs weg von der Eingabeoberfläche liegt; und Auswählen einer zweiten Aktion von der Mehrzahl der Aktionen in Erwiderung auf den Abstand, der innerhalb eines zweiten Abstandsbereichs weg von der Eingabeoberfläche liegt, wobei die Aktion, die ausgeführt wird, die ausgewählte erste oder zweite Aktion ist.
  4. Verfahren nach Anspruch 1, weiter umfassend: Ausführen der Aktion auf dem Objekt.
  5. Verfahren nach Anspruch 1, weiter umfassend: Identifizieren eines ersten Eingabeortes, über dem das Eingabeinstrument schwebt; und Erfassen einer Bewegung des schwebenden Eingabeinstruments zu einem zweiten Eingabeort, wobei der erste und der zweite Eingabeort einen Oberflächenbereich definieren, der das Objekt einschließt, wobei die Aktion basierend auf dem Oberflächenbereich ausgeführt wird.
  6. Verfahren nach Anspruch 1, wobei das Erfassen weiter eine erste Länge des Abstands erfasst, und wobei das Verfahren weiterhin umfasst: Identifizieren eines Eingabeortes, über dem das Eingabeinstrument schwebt, wobei der Eingabeort nahe zu dem Objekt ist; und Erfassen einer Bewegung des schwebenden Eingabeinstruments über dem Eingabeort, wobei die Bewegung die Länge des Abstands, in dem das Eingabeinstrument über dem Eingabeort schwebt, ändert, wobei die Aktion, die ausgeführt wird, auf der Änderung der Länge basiert.
  7. Verfahren nach Anspruch 6, wobei die Aktion auf dem Objekt ausgeführt wird, basierend auf der Änderung der Länge.
  8. Informationshandhabungssystem, umfassend: einen oder mehrere Prozessoren; einen Speicher, der mit wenigstens einem der Prozessoren gekoppelt ist; eine berührungsaktivierte Anzeige, auf die wenigstens einer der Prozessoren zugreifen kann, wobei die berührungsaktivierte Anzeige eine Eingabeoberfläche aufweist; einen oder mehrere Sensoren, auf die wenigstens einer der Prozessoren zugreifen kann, welche ein Eingabeinstrument wahrnehmen, das über der berührungsaktivierten Anzeige schwebt; und einen Satz von Instruktionen, die in dem Speicher gespeichert sind und durch wenigstens einen Prozessor ausführbar sind, zum: Erfassen, basierend auf Daten, die von den Sensoren empfangen werden, dass das Eingabeinstrument in einem Abstand weg von einem Objekt, das auf der Eingabeoberfläche angezeigt wird, schwebt; Ausführen einer Aktion in Erwiderung auf die Erfassung.
  9. Informationshandhabungssystem nach Anspruch 8, wobei das Eingabeinstrument aus einer Gruppe ausgewählt wird, die aus einem menschlichen Finger und einem Griffel besteht.
  10. Informationshandhabungssystem nach Anspruch 8, wobei das Erfassen des Eingabeinstruments weiter eine Länge des Abstands erfasst, und wobei das System weiter Instruktionen umfasst, die durch die Prozessoren ausführbar sind, zum: Auswählen einer ersten Aktion von einer Mehrzahl von Aktionen in Erwiderung auf den Abstand, der innerhalb eines ersten Abstandsbereichs weg von der Eingabeoberfläche liegt; und Auswählen einer zweiten Aktion von der Mehrzahl der Aktionen in Erwiderung auf den Abstand, der innerhalb eines zweiten Abstandsbereichs weg von der Eingabeoberfläche liegt, wobei die Aktion, die ausgeführt wird, die ausgewählte erste oder zweite Aktion ist.
  11. Informationshandhabungssystem nach Anspruch 8, wobei das System weiter Instruktionen umfasst, die durch die Prozessoren ausführbar sind, zum: Ausführen der Aktion auf dem Objekt.
  12. Verfahren nach Anspruch 8, wobei das System weiter Instruktionen umfasst, die durch die Prozessoren ausführbar sind, zum: Identifizieren eines ersten Eingabeortes, über dem das Eingabeinstrument schwebt; und Erfassen einer Bewegung des schwebenden Eingabeinstruments zu einem zweiten Eingabeort, wobei der erste und der zweite Eingabeort einen Oberflächenbereich definieren, der das Objekt einschließt, wobei die Aktion basierend auf dem Oberflächenbereich ausgeführt wird.
  13. Informationshandhabungssystem nach Anspruch 8, wobei das System weiter Instruktionen umfasst, die durch die Prozessoren ausführbar sind, zum: Erfassen einer ersten Länge des Abstands; Identifizieren eines Eingabeortes, über dem das Eingabeinstrument schwebt, wobei der Eingabeort nahe zu dem Objekt ist; und Erfassen einer Bewegung des schwebenden Eingabeinstruments über dem Eingabeort, wobei die Bewegung die Länge des Abstands, in dem das Eingabeinstrument über dem Eingabeort schwebt ändert, wobei die Aktion, die ausgeführt wird, auf der Änderung der Länge basiert.
  14. Informationshandhabungssystem nach Anspruch 13, wobei die Aktion auf dem Objekt ausgeführt wird, basierend auf der Änderung der Länge.
  15. Computerprogrammprodukt, umfassend: ein computerlesbares Speichermedium, das einen Satz von Computerinstruktionen umfasst, wobei die Computerinstruktionen wirksam sind zum: Erfassen, dass ein Eingabeinstrument in einem Abstand weg von dem Objekt, das auf einer Eingabeoberfläche angezeigt wird, schwebt; Ausführen einer Aktion in Erwiderung auf die Erfassung.
  16. Computerprogrammprodukt nach Anspruch 15, wobei das Eingabeinstrument aus einer Gruppe ausgewählt wird, die aus einem menschlichen Finger und einem Griffel besteht.
  17. Computerprogrammprodukt nach Anspruch 15, wobei das Erfassen des Eingabeinstruments weiter eine Länge des Abstands erfasst, und wobei die Computerinstruktionen weiter wirksam sind zum: Auswählen einer ersten Aktion von einer Mehrzahl von Aktionen in Erwiderung auf den Abstand, der innerhalb eines ersten Abstandsbereichs weg von der Eingabeoberfläche liegt; und Auswählen einer zweiten Aktion von der Mehrzahl der Aktionen in Erwiderung auf den Abstand, der innerhalb eines zweiten Abstandsbereichs weg von der Eingabeoberfläche liegt, wobei die Aktion, die ausgeführt wird, die ausgewählte erste oder zweite Aktion ist.
  18. Computerprogrammprodukt nach Anspruch 15, wobei die Computerinstruktionen weiter wirksam sind zum: Ausführen der Aktion auf dem Objekt.
  19. Verfahren nach Anspruch 15, wobei die Computerinstruktionen weiter wirksam sind zum: Identifizieren eines ersten Eingabeortes, über dem das Eingabeinstrument schwebt; und Erfassen einer Bewegung des schwebenden Eingabeinstruments zu einem zweiten Eingabeort, wobei der erste und der zweite Eingabeort einen Oberflächenbereich definieren, der das Objekt einschließt, wobei die Aktion basierend auf dem Oberflächenbereich ausgeführt wird.
  20. Computerprogrammprodukt nach Anspruch 15, wobei die Computerinstruktionen weiter wirksam sind zum: Erfassen einer ersten Länge des Abstands; Identifizieren eines Eingabeortes, über dem das Eingabeinstrument schwebt, wobei der Eingabeort nahe zu dem Objekt ist; und Erfassen einer Bewegung des schwebenden Eingabeinstruments über dem Eingabeort, wobei die Bewegung die Länge des Abstands, in dem das Eingabeinstrument über dem Eingabeort schwebt, ändert, wobei die Aktion auf dem Objekt ausgeführt wird und auf der Änderung der Länge basiert.
DE102017102691.6A 2016-03-03 2017-02-10 Ausführen von Aktionen in Erwiderung auf ein Schweben über einer Eingabeoberfläche Pending DE102017102691A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/060,100 2016-03-03
US15/060,100 US10732719B2 (en) 2016-03-03 2016-03-03 Performing actions responsive to hovering over an input surface

Publications (1)

Publication Number Publication Date
DE102017102691A1 true DE102017102691A1 (de) 2017-09-07

Family

ID=59651091

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017102691.6A Pending DE102017102691A1 (de) 2016-03-03 2017-02-10 Ausführen von Aktionen in Erwiderung auf ein Schweben über einer Eingabeoberfläche

Country Status (3)

Country Link
US (1) US10732719B2 (de)
CN (1) CN107153458A (de)
DE (1) DE102017102691A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102399589B1 (ko) * 2014-11-05 2022-05-18 삼성전자주식회사 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체
CN109857503B (zh) * 2019-01-25 2023-04-07 北京字节跳动网络技术有限公司 页面交互效果自适应方法、装置与电子设备
WO2020239029A1 (zh) * 2019-05-31 2020-12-03 联想(北京)有限公司 一种电子设备及数据处理方法
US20220244791A1 (en) * 2021-01-24 2022-08-04 Chian Chiu Li Systems And Methods for Gesture Input
US11886685B1 (en) 2022-10-20 2024-01-30 Stardock Corporation Desktop container peek interface

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP5428436B2 (ja) * 2009-03-25 2014-02-26 ソニー株式会社 電子機器、表示制御方法およびプログラム
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
KR101685991B1 (ko) 2010-09-30 2016-12-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface
KR101907463B1 (ko) 2012-02-24 2018-10-12 삼성전자주식회사 복합 터치 스크린 장치 및 그 운용 방법
CN104285202B (zh) 2012-03-14 2018-02-02 诺基亚技术有限公司 触屏悬停输入处理方法和装置
KR102084041B1 (ko) 2012-08-24 2020-03-04 삼성전자 주식회사 펜 기능 운용 방법 및 시스템
KR102092132B1 (ko) * 2012-11-30 2020-04-14 삼성전자주식회사 호버링 입력 효과를 제공하는 전자 장치 및 그 제어 방법
KR20140089766A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 전자펜을 이용한 휴대 장치 제어 방법 및 그 휴대 장치
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
CN104298342B (zh) 2013-07-19 2019-02-05 中兴通讯股份有限公司 一种三维空间坐标的检测方法、三维输入方法及相应装置
KR102203473B1 (ko) * 2013-12-13 2021-01-18 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
KR102336445B1 (ko) * 2014-12-01 2021-12-07 삼성전자주식회사 디바이스를 제어하는 방법, 시스템 및 그 디바이스

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE, 802.11 Standards

Also Published As

Publication number Publication date
US20170255318A1 (en) 2017-09-07
US10732719B2 (en) 2020-08-04
CN107153458A (zh) 2017-09-12

Similar Documents

Publication Publication Date Title
DE102012109959B4 (de) Automatische Vergrößerungs- und Auswahlbestätigung
DE102017102691A1 (de) Ausführen von Aktionen in Erwiderung auf ein Schweben über einer Eingabeoberfläche
DE102013102285A1 (de) Benutzerinterface-Navigation unter Verwendung druckempfindlicher Berührung
CN107861784B (zh) 一种桌面图标的整理方法、装置及移动终端
CN105373522B (zh) 基于手势的图表上的数据筛选
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE102015121873A1 (de) Unterscheiden zwischen Berührungsgesten und Handschrift
US20110246875A1 (en) Digital whiteboard implementation
US9720583B2 (en) User interface for editing a value in place
DE102013112251A1 (de) Touchpad-Betriebsmodus
CN107451244B (zh) 文件夹命名方法、移动终端及计算机可读存储介质
US9026924B2 (en) Devices, systems, and methods for moving electronic windows between displays
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
US10242341B2 (en) Automatic taskbar grouping by user tasks
DE112014002687T5 (de) Berührungserkennung am rahmenrand
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE112012006448T5 (de) Umsetzung einer Berührungseingabe in eine lokale Eingabe auf der Grundlage eines Umsetzungsprofils für eine Anwendung
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE102015121870A1 (de) Interagieren mit einer Anwendung unter einer Transparenzschicht
DE102012107810A1 (de) Dynamische Benutzerschnittstelle basierend auf verbundenen Geräten
US8631317B2 (en) Manipulating display of document pages on a touchscreen computing device
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
US10908764B2 (en) Inter-context coordination to facilitate synchronized presentation of image content
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE