DE202017105674U1 - Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands - Google Patents

Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands Download PDF

Info

Publication number
DE202017105674U1
DE202017105674U1 DE202017105674.0U DE202017105674U DE202017105674U1 DE 202017105674 U1 DE202017105674 U1 DE 202017105674U1 DE 202017105674 U DE202017105674 U DE 202017105674U DE 202017105674 U1 DE202017105674 U1 DE 202017105674U1
Authority
DE
Germany
Prior art keywords
window
split
touch
display
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202017105674.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202017105674U1 publication Critical patent/DE202017105674U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Computerprogrammprodukt, das konkret in einem nichtflüchtigen computerlesbaren Speichermedium verkörpert ist und ausführbare Anweisungen beinhaltet, die, wenn sie ausgeführt werden, ein Computergerät veranlassen, ein Verfahren auszuführen, wobei das Verfahren Folgendes umfasst:Empfangen, durch ein Computergerät, einer Eingabe, die von einem Benutzer durch Berühren einer Position an einem berührungsempfindlichen Rand erzeugt wird.Bestimmen, ob eine Anzeige einen Window Split enthält;wenn die Anzeige den Window Split enthält, Bestimmen, als Reaktion auf die Eingabe, ob die Position innerhalb einer vordefinierten Nähe des Window Split liegt; undwenn die Position innerhalb der vordefinierten Nähe des Window Split liegt, Neupositionieren des Window Split auf der Anzeige auf Grundlage der Eingabe,

Description

  • TECHNISCHES GEBIET
  • Dieses Dokument bezieht sich im Allgemeinen auf die Steuerung eines angezeigten Fensters unter Verwendung eines berührungsempfindlichen Rands.
  • HINTERGRUND
  • Viele Computer-Betriebssysteme sind konfiguriert, um Inhalte in einem oder mehreren Fenstern auf dem Bildschirm anzuzeigen. Wenn mehrere Fenster gleichzeitig angezeigt werden können, kann das System die Benutzersteuerung des Fensters hinsichtlich seiner Erstellung, Position und/oder Größe auf dem Bildschirm bereitstellen. Diese Manipulation ist von der Interaktion des Benutzers mit dem im Fenster präsentierten Inhalt zu unterscheiden. Auf einigen Desktop-Anzeigen wird ein Fenster mit einem Rahmen oder einer anderen Umrandung bereitgestellt, die das Fenster umgibt, und die kann Berührungspunkte zur Manipulation mit einem Cursor und/oder Schaltflächen zum Ändern der Größe haben. In Anzeigen mit einer kleineren Größe, wie beispielsweise auf Mobilgeräten, wird die Manipulation des Fensters manchmal über eine Meta-Eingabe bereitgestellt, zum Beispiel eine Multi-Touch-Geste, eine Doppeltippen-Aktion oder eine modale Auswahl.
  • ZUSAMMENFASSUNG
  • In einem ersten Aspekt ist ein Computerprogrammprodukt konkret in einem nichtflüchtigen computerlesbaren Medium verkörpert und umfasst ausführbare Anweisungen, die, wenn sie ausgeführt werden, ein Computergerät veranlassen, ein Verfahren auszuführen, wobei das Verfahren umfasst: Empfangen, über ein Computergerät, einer Eingabe, die von einem Benutzer erzeugt wird, der eine Position auf einem berührungsempfindlichen Rand berührt; Bestimmen, ob eine Anzeige einen Window Split enthält; wenn die Anzeige den Window Split enthält, Bestimmen, als Reaktion auf die Eingabe, ob die Position innerhalb einer vordefinierten Nähe des Window Split liegt; und wenn sich die Position innerhalb der vordefinierten Nähe des Window Split befindet, Neupositionieren des Window Split auf der Anzeige basierend auf der Eingabe.
  • Implementierungen können eines oder alle der folgenden Merkmale beinhalten. Wenn die Anzeige den Window Split nicht enthält oder wenn die Position nicht innerhalb der vordefinierten Nähe des Window Split liegt, beinhaltet das Verfahren ferner das Erzeugen eines neuen Window Split auf der Anzeige basierend auf der Position als Reaktion auf die Eingabe. Die Anzeige ist in einem Monitor enthalten und der berührungsempfindliche Rand umfasst eine berührungsempfindliche Einfassung am Monitor. Um den Window Split auf der Anzeige neu zu positionieren, berührt der Benutzer die Position auf dem berührungsempfindlichen Rand und führt ein Wischen entlang der berührungsempfindlichen Kante aus und der Window Split wird auf der Anzeige basierend auf der Wischbewegung neu positioniert. Der berührungsempfindliche Rand umfasst mehrere benachbarte Ränder, wobei die vordefinierte Nähe umfasst, dass sich die Position an demselben Rand befindet wie der Window Split und innerhalb eines vordefinierten Abstands des Window Splits, und wenn sich die Position nicht an dem gleichen Rand wie der Window Split befindet, dann ist die Position nicht innerhalb der vordefinierten Nähe des Window Splits. Der berührungsempfindliche Rand ist rechteckig und alle vier Ränder sind berührungsempfindlich. Die Anzeige weist den Window Split auf und der neue Window Split wird erstellt, so dass ein erstes Fenster auf der einen Seite des Window Split definiert wird und ein zweites und drittes Fenster auf einer gegenüberliegenden Seite des Window Split definiert werden, das zweite und dritte Fenster sind dabei durch den neuen Window Split getrennt, und wobei gilt: (i) wenn eine weitere Eingabe empfangen wird, die innerhalb der vordefinierten Nähe des neuen Window Split auf einem Rand angrenzend an das zweite und dritte Fenster liegt, dann werden das zweite und dritte Fenster und nicht das erste Fenster in der Größe geändert, während (ii) wenn die weitere Eingabe am gegenüberliegenden Rand am ersten Fenster vorgenommen wird, dann wird das erste Fenster und nicht das zweite und dritte Fenster in der Größe geändert.
  • Implementierungen können beliebige oder alle der folgenden Merkmale beinhalten. Der neue Window Split ist orthogonal zum Window Split. Der neue Window Split erstreckt sich zwischen dem berührungsempfindlichen Rand und dem Window Split. Das Verfahren beinhaltet ferner das Empfangen, nach dem Erzeugen des neuen Window Split, einer weiteren Eingabe, die unter Verwendung des berührungsempfindlichen Rands erzeugt wurde, wobei die weitere Eingabe den Window Split auf der Anzeige neu positioniert und die Neupositionierung mehrere Fenster in der Größe ändert, die teilweise durch den neuen Window Split definiert sind. Das Erzeugen des neuen Window Split umfasst die Verkleinerung einer Fenstergröße auf der Anzeige, wobei das Verfahren ferner das Initiieren eines Standardfensters in einem Bereich umfasst, der durch die verkleinerte Größe erzeugt wird. Das Erzeugen des neuen Window Split umfasst die Verkleinerung einer Fenstergröße auf der Anzeige, wobei das Verfahren ferner die Aufforderung an den Benutzer umfasst, ein neues Fenster auszuwählen, das in einem Bereich, der durch die verkleinerte Größe entstanden ist, geöffnet wird.
  • Implementierungen können beliebige oder alle der folgenden Merkmale beinhalten. Das Verfahren beinhaltet ferner das Empfangen einer Clear-Split-Eingabe, die unter Verwendung des berührungsempfindlichen Rands erzeugt wurde, und die, als Reaktion auf die Clear-Split-Eingabe, zumindest den neuen Window Split von der Anzeige löscht. Der berührungsempfindliche Rand ist an einem Gehäuse positioniert, das mehrere Ecken hat, und die Clear-Split-Eingabe wird durch Berühren mindestens einer der Ecken erzeugt. Die Clear-Split-Eingabe bewirkt, dass nur ein zuletzt erzeugter Window Split gelöscht wird. Der Window Split ist in der Anzeige beinhaltet und definiert eine Grenze zwischen einem ersten Fenster und einem zweiten Fenster, wobei die Neupositionierung des Window Split auf der Anzeige, basierend auf der Eingabe, die Vergrößerung des ersten Fensters und die Verkleinerung des zweiten Fensters um einen der Vergrößerung entsprechenden Umfang umfasst Die Anzeige ist konfiguriert, um darauf Fenster ohne sichtbare Rahmen oder andere Grenzen darzustellen, so dass die Inhalte benachbarter Fenster aneinandergrenzen. Das Computergerät umfasst ein tragbares Gerät, in dem die Anzeige in einem Gehäuse untergebracht ist, wobei das Verfahren ferner das Unterscheiden der Eingabe, die vom Benutzer durch Berühren der Position auf dem berührungsempfindlichen Rand des Gehäuses erzeugt wird, und einer weiteren Eingabe, die vom Benutzer beim Halten des tragbaren Geräts erzeugt wird, umfasst. Das Computergerät umfasst getrennt vom der Anzeige ein Proxygerät, wobei der Window Split mit einer Proxyposition auf dem Proxygerät verbunden ist und die vordefinierte Nähe relativ zur Proxyposition definiert ist, wobei das Verfahren ferner das Senden eines Signals an die Anzeige entsprechend entweder der Neupositionierung des Window Split auf der Anzeige basierend auf der Eingabe oder der Erzeugung des neuen Window Split auf der Anzeige umfasst. Der berührungsempfindliche Rand umfasst mindestens einen Rand und eine Ecke eines Gehäuses und die Eingabe wird über den Rand des Gehäuses erzeugt, wobei das Verfahren ferner das Empfangen einer weiteren Eingabe, die unter Verwendung der Ecke des Gehäuses erzeugt wird und als Reaktion auf die weitere Eingabe das Betätigen eines Drehschalters im Computergerät umfasst. Die Anzeige enthält den Window Split und die Eingabe beinhaltet eine Wisch-Geste zum Window Split, wobei das Verfahren ferner das Bestimmen, wann die Wisch-Geste eine Position des Window Split erreicht, und danach das Abgleichen der Neupositionierung des Window Split mit der Wisch-Geste, umfasst.
  • Implementierungen können beliebige oder alle der folgenden Merkmale beinhalten. Wenn die Anzeige keinen Window Split aufweist oder wenn die Position nicht in der vordefinierten Nähe des Window Split liegt, beinhaltet das Verfahren ferner die Erzeugung, als Reaktion auf die Eingabe, eines neuen Window Split auf der Anzeige basierend auf der Position. Um den Window Split auf der Anzeige neu zu positionieren, muss der Benutzer die Position auf dem berührungsempfindlichen Rand berühren und eine Wischen entlang des berührungsempfindlichen Rands ausführen, dadurch wird der Window Split auf der Anzeige basierend auf der Wisch-Geste neu positioniert.
  • In einem dritten Aspekt beinhaltet ein System Folgendes: ein Computergerät mit einem berührungsempfindlichen Rand; und ein Computerprogrammprodukt, das konkret in einem nichtflüchtigen computerlesbaren Medium verkörpert ist und ausführbare Anweisungen beinhalten, die, wenn sie ausgeführt werden, ein Computergerät dazu veranlassen, Operationen auszuführen, die Folgendes beinhalten: Empfangen, über ein Computergerät, einer Eingabe, die von einem Benutzer durch Berühren einer Position auf einem berührungsempfindlichen Rand erzeugt wird; Bestimmen, ob die Anzeige einen Window Split enthält; wenn die Anzeige einen Window Split enthält, Bestimmen, als Reaktion auf die Eingabe, ob die Position innerhalb einer vordefinierten Nähe des Window Split liegt; und wenn die Position innerhalb der vordefinierten Nähe des Window Split liegt, Neupositionierung des Window Split auf der Anzeige basierend auf der Eingabe.
  • Implementierungen können beliebige oder alle der folgenden Merkmale beinhalten. Wenn die Anzeige keinen Window Split enthält oder wenn die Position nicht in der vordefinierten Nähe des Window Split liegt, beinhalten die Operationen ferner die Erzeugung, als Reaktion auf die Eingabe, eines neuen Window Split auf der Anzeige basierend auf der Position. Die Anzeige ist in dem Computergerät enthalten. Der berührungsempfindliche Rand umfasst eine berührungsempfindliche Einfassung an einem Gehäuse des Computergeräts. Die Anzeige ist berührungsempfindlich, wobei der berührungsempfindliche Rand Teil der berührungsempfindlichen Anzeige ist.
  • Figurenliste
    • 1A-B zeigen Beispiele eines Monitors bzw. eines Proxygeräts.
    • 2A-C zeigen Beispiele für das Erzeugen eines neuen Window Split.
    • 3A-E zeigen Beispiele für das Bewegen und Löschen eines neuen Window Split.
    • 4A-G zeigen Beispiele für das Erzeugen eines zusätzlichen parallelen Window Split, für das Erzeugen eines zusätzlichen orthogonalen Window Split und das Bewegen eines orthogonalen Window Split.
    • 5A-E zeigen Beispiele für die Neupositionierung eines Window Split.
    • 6 zeigt ein Beispiel eines Flussdiagramms.
    • 7A-C zeigt ein weiteres Beispiel für das Erstellen eines neuen Window Split.
    • 8A-C zeigen ein weiteres Beispiel für das Erzeugen eines neuen Window Split.
    • 9A-C zeigen ein Beispiel für die Manipulation eines Fensters unter Verwendung eines berührungsempfindlichen Rands.
    • 10A-D zeigen Beispiele für Mehrfingerberührungen.
    • 11A-C zeigen Beispiele für die Verwendung eines berührungsempfindlichen Rands.
    • 12 zeigt ein Beispiel eines Computergeräts und eines mobilen Computergeräts, die zur Implementierung der hier beschriebenen Techniken verwendet werden können.
  • Gleiche Bezugszeichen in den verschiedenen Zeichnungen verweisen auf gleiche Elemente.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Dieses Dokument beschreibt Beispiele für die Verwendung eines berührungsempfindlichen Rands zur Steuerung von Fenstern auf einer Anzeige. In einigen Implementierungen ist der Rand die Einfassung eines Monitors und dies kann es einem Benutzer erlauben, die Größe der Fenster zu ändern und/oder die Fenster neu anzuordnen, so dass es komfortabel und intuitiv ist. Der Benutzer tippt beispielsweise an einer gewünschten Stelle für eine Positionierung auf die Einfassung oder wischt entlang der Einfassung um sie neu zu positionieren. Dieser Ansatz kann die Notwendigkeit beseitigen, das/die angezeigte/n Fenster mit einem umgebenden Rahmen oder einer sonstigen Umrandung bereitzustellen, der/die ansonsten für die Manipulation verwendet werden könnte, während der Benutzer mit dem Inhalt des Fensters in gewohnter Weise interagieren kann. In einer weiteren Implementierung kann der berührungsempfindliche Rand auf dem Bildschirm einer berührungsempfindlichen Anzeige ausgebildet sein. Als weiteres Beispiel kann der berührungsempfindliche Rand auf einem Proxygerät positioniert sein, das von der Anzeige getrennt ist, so dass ein Benutzer die Fenster, die auf der Anzeige dargestellt sind, aus der Ferne steuern kann.
  • 1A zeigt ein Beispiel eines Monitors 100. Der Monitor 100 hat eine Anzeigefläche 101. Die Anzeigefläche kann jede geeignete Anzeigetechnologie verwenden, einschließlich, aber nicht beschränkt darauf, eine Flüssigkristallanzeige-Technologie. In einigen Implementierungen soll der Monitor 100 während der Benutzung im Wesentlichen stationär sein. Der Monitor ist beispielsweise ein eigenständiger Monitor, der für den Anschluss an einen Desktop-Computer oder einen Laptop entwickelt wurde. In einigen Implementierungen ist der Monitor tragbar. Der Monitor ist beispielsweise in einem Smartphone oder einem Tablet enthalten.
  • Der Monitor 100 hat eine Einfassung 102. In einigen Implementierungen erstreckt sich die Einfassung 102 um den gesamten Umfang des Monitors. Die Einfassung kann beispielsweise vier Ränder beinhalten (z. B. entsprechende obere, untere, linke und rechte Ränder). Die Einfassung kann beispielsweise ein allgemein prismatisches Profil im Querschnitt haben, so dass die Einfassung die Komponenten des Monitors zumindest teilweise umschließt, während sie eine Öffnung bereitstellt, an der die Anzeigefläche 101 sichtbar ist.
  • Der Monitor 100 hat einen berührungsempfindlichen Rand 103. Der Rand 103 kann sich um den gesamten Umfang des Monitors erstrecken oder nur über einen oder mehrere Teil/e des Umfangs. In einigen Implementierungen ist der Rand 103 ein Element, das auf der Einfassung 102 bereitgestellt wird. Jede geeignete Sensortechnologie für die Berührungsempfindlichkeit kann eingesetzt werden, einschließlich, aber nicht beschränkt darauf, ein Widerstandselement, ein kapazitives Element, ein druckempfindliches Element, ein wärmeempfindliches Element oder Kombinationen davon. In einer Implementierung wird beispielsweise ein Widerstandsstreifen im Wesentlichen um die gesamte Einfassung 102 angebracht. Eine Detektorschaltung kann mit dem berührungsempfindlichen Rand gekoppelt sein, so dass das Berühren des Widerstandsstreifens mit einem Finger oder einer Hand erkannt wird und die Position der Berührung (z. B. wo entlang des Umfangs) mit angemessener Genauigkeit bestimmt werden kann. Ein Benutzer, der die Einfassung an einer Position 104 entlang des oberen Rands berührt, wird beispielsweise erkannt, so dass die Position identifiziert werden kann. Als weiteres Beispiel kann ein Benutzer erkannt werden, der eine Position 105 an einer Ecke der Einfassung berührt, so dass die Eckposition identifiziert werden kann. Das heißt, der berührungsempfindliche Rand kann eine berührungsempfindliche Einfassung an einem Gehäuse des Monitors beinhalten.
  • In einigen Implementierungen ist die Anzeigefläche 101 eine berührungsempfindliche Anzeige. Jede geeignete Touchscreen-Technologie kann verwendet werden, einschließlich, aber nicht beschränkt darauf, kapazitives Abtasten. Dies kann beispielsweise einem Benutzer, der es gewöhnt ist mit Berührungs-Gesten auf der Anzeige zu arbeiten (z. B. Antippen oder Wischen), erlauben, auch die Fenstererzeugung, -positionierung und/oder -größeneinstellung mithilfe des Geräterands zu steuern.
  • Die gesamte Anzeigefläche 101 kann berührungsempfindlich sein. Die gesamte Fläche kann dann im Prinzip für Ausgabe und/oder Eingabe in Bezug auf das Betriebssystem und/oder jede Anwendung, die darauf läuft, ansprechbar sein. Ein Randabschnitt der Anzeige kann dem Fenstermanagement gewidmet sein, im Gegensatz beispielsweise zur Interaktion mit den Inhalten eines oder mehrerer Fenster. Hier ist ein Rand 106 der Anzeigefläche 101 ein berührungsempfindlicher Rand. Der Rand 106 kann sich um die gesamte Anzeigefläche oder nur um einen oder mehrere Abschnitte davon erstrecken. Der Rand 106 kann in irgendeiner Form visuell auf dem Bildschirm angezeigt werden oder er kann unsichtbar bleiben. Das Bereitstellen des Rands 106 kann den Rest der Anzeigefläche für die Darstellung von Fensterinhalten freimachen, ohne Bildschirmfläche für Rahmen oder andere Begrenzungen einsetzen zu müssen, die für die Fenstermanipulation verwendet würden. Die Erkennungslogik wird beispielsweise auf die Eingaben angewendet, die unter Verwendung des Rands 106 erzeugt werden, so dass das Berühren des Rands durch den Benutzer für Fensterbearbeitungszwecke von anderen Touchscreen-Gesten wie Scrollen und Wischen über den Rand unterschieden wird.
  • Mit dem berührungsempfindlichen Rand 103 und/oder dem Rand 106 können ein oder mehrere Ränder berührungsempfindlich sein. Es können beispielsweise alle vier Ränder, die eine rechteckige Anzeige umgeben, berührungsempfindlich sein. Als weiteres Beispiel kann weniger als der gesamte Rand berührungsempfindlich sein, wenn nur ein horizontaler Rand (z. B. der obere oder untere Rand) und/oder ein vertikaler Rand (z. B. der linke oder rechte Rand) berührungsempfindlich sind.
  • 1B zeigt ein Beispiel eines Proxygeräts 150. In 1B ist das Proxygerät 150 für den Betrieb konfiguriert, die in Verbindung mit einem Monitor 151 und/oder anderen Geräten stehen (aus Übersichtlichkeitsgründen nicht dargestellt). Der Monitor 151 kann einen berührungsempfindlichen Rand haben, ähnlich den obigen Beispielen. Das Proxygerät 150 kann jedoch eine weitere Möglichkeit bereitstellen, ein komfortables und intuitives Fenstermanagement zu erleichtern, wie beispielsweise nachstehend beschrieben wird.
  • In einigen Implementierungen ist das Proxygerät ein Computergerät, das dazu ausgelegt ist, eine Funktion auszuführen, um beispielsweise als eine Fernbedienung für den Monitor 151 zu dienen. Ein oder mehrere Schaltflächen 152 oder sonstige Eingabesteuerungen können beispielsweise für diesen oder andere Zwecke bereitgestellt werden. In einigen Implementierungen kann das Proxygerät 150 seine eigene Anzeige haben (aus Übersichtlichkeitsgründen nicht dargestellt). Das Proxygerät kann beispielsweise ein Handgerät wie ein Smartphone oder ein Tablet sein.
  • Das Proxygerät 150 hat einen berührungsempfindlichen Rand 103. Der Rand kann sich um den gesamten Umfang des Proxygeräts erstrecken oder nur über einen oder mehrere Teile davon. Jede geeignete Berührungssensor-Technologie kann verwendet werden, um den Rand bereitzustellen, einschließlich, aber nicht beschränkt darauf, der in obigen Beispielen erwähnten.
  • Das Proxygerät 150 mit dem berührungsempfindlichen Rand 153 stellt einem Benutzer die Möglichkeit bereit, ein oder mehrere Fenster, die auf der Anzeige des Monitors 151 dargestellt sind, zu steuern. Das Proxygerät 150 ist konfiguriert, um mit dem Monitor in jeder geeigneten Weise zu kommunizieren. Hier ist beispielsweise ein drahtloses Signal 154 schematisch dargestellt. In einigen Implementierungen kann eine Zweiweg-Kommunikation bereitgestellt werden.. In einigen Implementierungen erzeugt das Proxygerät den auf dem Monitor darzustellenden Bildinhalt und überträgt ihn (z. B. über das Signal 154) für die Darstellung. In weiteren Implementierungen macht das Proxygerät eine Eingabe an ein anderes Computergerät (aus Übersichtlichkeitsgründen nicht dargestellt), das dann den Bildinhalt erzeugt und an den Monitor weiterleitet. In einigen Implementierungen ist der Monitor 151 in einem Computergerät enthalten.
  • Das Proxygerät 150 kann für die Fenstersteuerung verwendet werden, die auf Bildschirmpositionen basiert. In einigen Implementierungen kann eine Position 155 auf der Anzeige des Monitors 151 der Position und/oder Größe eines Fensters entsprechen. Beispielsweise kann Die Position 155 kann beispielsweise die Position einer Begrenzung zwischen zwei Fenstern kennzeichnen. Auf dem Proxygerät 150 kann darüber hinaus eine Proxyposition 156 definiert werden, die der Position 155 entspricht oder diese in anderem Sinne repräsentiert. Der Monitor 151 und das Proxygerät 150 können beispielsweise im Allgemeinen rechteckig in der Form sein (wenn auch möglicherweise mit unterschiedlichen Seitenverhältnissen). Die Position 155 steht in Beziehung zu der Gesamtgröße und Form der Anzeige auf dem Monitor 151. Mit dieser Beziehung kann eine entsprechende Beziehung basierend auf der Form und Größe des Proxygeräts definiert werden. Die horizontale Verschiebung der Position 155 kann beispielsweise relativ zu einer Befestigung (z. B. einer Ecke) bestimmt und in eine entsprechende horizontale Verschiebung der Proxyposition 156 umgesetzt werden. Dadurch kann die Proxyposition 156 beispielsweise basierend auf der Position 155 auf dem Bildschirm definiert werden. Die Proxyposition kann dann als Referenz verwendet werden, wenn ein Benutzer den Rand 153 des Proxygeräts 150 berührt, wie es als Beispiel unten beschrieben wird.
  • Ein Benutzer-Mauszeiger (nicht dargestellt) kann auf dem Bildschirm dargestellt werden. In einigen Implementierungen kann dies dem Benutzer Feedback bereitstellen, wenn nur eine geringe oder keine Kalibrierung oder Ausrichtung zwischen dem/den Sensor(en) des berührungsempfindlichen Rands und dem Bildschirm besteht.
  • Es werden nun Beispiele mit Bezug auf 2A-C, 3A-E, 4A-G und 5A-G beschrieben, die einige Interaktionen veranschaulichen, die ein Benutzer auf einem oder mehreren angezeigten Fenstern unter Verwendung eines berührungsempfindlichen Rands ausführen kann. Zur Vereinfachung zeigen diese Abbildungen schematisch den angezeigten Bildschirm, wobei rechteckige Kästchen verwendet werden, um die jeweiligen Fenster darzustellen. Der Inhalt der einzelnen Fenster wird nicht explizit angezeigt. Der/die berührungsempfindliche(n) Rand oder Ränder werden darüber hinaus nicht explizit angezeigt. Vielmehr ist die Berührung des Benutzers schematisch unter Verwendung von einem oder mehreren Pfeilen in der Figur dargestellt. Es versteht sich, dass der Benutzer diese Berührungseingabe unter Verwendung irgendeiner oder aller hierin beschriebenen Arten vornehmen kann, einschließlich, aber nicht beschränkt darauf, über eine berührungsempfindliche Einfassung und/oder über einen berührungsempfindlichen Rand eines Touchscreens.
  • 2A-C zeigen Beispiele für das Erstellen eines neuen Window Split. Es wird hier eine Anzeige 200 gezeigt, die ohne Einschränkung jede hier beschriebene Anzeige beinhalten kann. Es wird aktuell ein Fenster 201 angezeigt. Das Fenster belegt gegenwärtig im Wesentlichen den gesamten sichtbaren Bereich der Anzeige 200. Beispielsweise ist das Fenster 201 ist beispielsweise einem bestimmten Anwendungsprogramm zugeordnet oder ist ein Desktop oder ein anderes Hintergrundbild, das vom Betriebssystem erzeugt wird.
  • Nehmen wir nun an, dass der Benutzer wünscht, dass auch andere Fensterinhalte angezeigt werden. Der Benutzer möchte daher den Bildschirm so teilen, dass die Bildschirmfläche nicht nur durch das Fenster 201, sondern auch durch ein oder mehrere andere Fenster verwendet wird. Dies kann beispielsweise dem Benutzer erlauben, ein separates unabhängiges Anwendungsprogramm auszuführen, das auch eine visuelle Ausgabe erzeugt und mit dem der Benutzer interagieren kann. Als weiteres Beispiel kann das andere Anwendungsprogramm zusätzliche Funktionalität für das Anwendungsprogramm bereitstellen, das aktuell im Fenster 201 angezeigt wird.
  • Um die Teilung der Bildschirmfläche zu erreichen, kann der Benutzer einen oder mehrere Finger auf den berührungsempfindlichen Rand des Bildschirms 200 legen. 2B veranschaulicht schematisch die Berührung des Benutzers durch einen Pfeil 202. Die Berührung kann an jeder beliebigen Position auf dem berührungsempfindlichen Rand ausgeführt werden, es sei denn, diese Position ist für eine andere Funktion vorgesehen, wie beispielsweise das Rückgängigmachen früherer Teilungsbefehle. Hier zeigt Pfeil 202 an, dass der Benutzer den oberen Rand des Monitors irgendwo zwischen der Mitte und der rechten Seite davon berührt.
  • Basierend auf dieser Eingabe kann eine neue Aufteilung zwischen zwei oder mehr Fenstern auf dem Monitor 200 erzeugt werden. 2C zeigt, dass in diesem Beispiel das Fenster 201 in horizontaler Richtung verkleinert wurde und ein neues Fenster 203 präsentiert wird. Die Abgrenzung zwischen den Fenstern 201 und 203 wird hier als Window Split 204 bezeichnet. Der Window Split 204 wurde an oder im Wesentlichen an der horizontalen Position erzeugt, die durch die Eingabe dargestellt wird, die empfangen wird, basierend darauf, dass der Benutzer den berührungsempfindlichen Rand berührt.
  • Das heißt, der Window Split 204 definiert aktuell den ganz rechts liegenden Rand des Fensters 201 und den ganz links liegenden Rand des neuen Fensters 203. Das Fenster 201 belegt beispielsweise den größten Teil des Bildschirms und das Fenster 303 den restlichen Bereich. Andere entsprechende Ränder des Fensters 201 und 203 sind aktuell nicht durch einen Window Split definiert. Sie können beispielsweise durch die physischen Abmessungen des Monitors 200 definiert sein.
  • Das heißt, das Erzeugen des Window Split 204 kann das Verkleinern einer Größe des Fensters 101 und das Bereitstellen eines neuen Fensterinhalts in Form des Fensters 203 beinhalten, um den erzeugten Bereich zu füllen oder um einen bereits bestehenden Hintergrund teilweise sichtbar werden zu lassen. In einigen Implementierungen ist das neue Fenster 203 ein Standardfenster, dies bedeutet, dass es Inhalte bereitstellt, die standardmäßig bei der Erzeugung eines neuen Window Split erscheinen sollen. In einigen Implementierungen entspricht das neue Fenster 203 dem System, das den Benutzer zur Auswahl auffordert, welches neue Fenster (z. B. welcher Inhalt) in dem erzeugten Bereich intiiert werden soll. Es können beispielsweise ein oder mehrere Auswahlmöglichkeiten für den Inhalt des neuen Fensters dargestellt werden.
  • In diesem Beispiel kann der Window Split 204 zwischen den Fenstern 201 und 203 im Wesentlichen eindimensional sein. Das heißt, es müssen keine sichtbaren Rahmen oder anderen Begrenzungen in den Fenstern 201 und 203 bereitgestellt werden. Vielmehr können die Inhalte solcher benachbarten Fenster entlang des Window Split aneinandergrenzen.
  • In diesem Beispiel wird ein neuer Window Split erzeugt, wenn der Benutzer den Rand berührt. In anderen Implementierungen kann das System prüfen, wenn der Benutzer einen Rand berührt, ob die Berührung auf eine Verlagerung eines bestehenden Window Split ausgerichtet ist, und wenn dies nicht der Fall ist, kann der neue Window Split erzeugt werden, wie es beispielsweise nachfolgend beschrieben wird.
  • 3A-E zeigen Beispiele für das Bewegen und Löschen eines neuen Window Split. In 3A zeigt ein Monitor 300 aktuell ein Fenster 301 neben einem anderen Fenster 302, wie es durch einem Window Split 303 angezeigt wird. Der Window Split 303 kann entlang der Linien wie oben beschrieben oder auf andere Weise (z. B. durch Manipulation von On-Screen Fenstersteuerungsmerkmalen, wie Rahmen oder Größenänderungsschaltflächen) erzeugt worden sein. Aktuell belegt das Fenster 301 einen kleinen Bereich des Bildschirms, der größte Bereich wird von Fenster 302 belegt.
  • Nehmen wir nun an, dass der Benutzer mehr von Fenster 301 oder weniger von Fenster 302 sehen möchte. Dies kann unter Verwendung des berührungsempfindlichen Rands des Monitors 300 erreicht werden. 3B zeigt, dass der Benutzer den Rand berührt, wie durch den Pfeil 304 angezeigt wird. Die Position der Berührung des Benutzers liegt auf demselben Rand wie, und horizontal in der Nähe der Position von, Window Split 303. In einigen Implementierungen wird ein vordefinierter Abstand festgelegt, gegen den die räumliche Nähe entlang des gleichen Rands gemessen wird. Der Pfeil 304 berührt beispielsweise hier den Rand (d. h. den oberen Rand), gegen den der Window Split 303 definiert ist, und er ist ebenfalls nahe der Position des Splits in horizontaler Richtung. Die Berührung, die von Pfeil 304 repräsentiert wird, kann daher als in der vordefinierten Nähe des Window Splits 303 liegend betrachtet werden. Im Gegensatz dazu kann eine Berührung, die auf einem anderen Rand ausgeführt wird als auf einem bestehenden Window Split, ob räumlich nahe oder fern von diesem Split, in einigen Implementierungen als nicht innerhalb der vordefinierten Nähe liegend betrachtet werden, wie beispielsweise nachfolgend beschrieben wird.
  • Das Berühren innerhalb der vordefinierten Nähe kann dem System signalisieren, dass der Benutzer einen bestehenden Window Split neu positionieren möchte. Diese Neupositionierung kann erreicht werden, indem in gewissem Sinne der Window Split durch Wischen am Rand entlang gezogen wird und der Window Split an einer gewünschten neuen Position durch Anheben des/der Finger(s) vom berührungsempfindlichen Rand losgelassen wird. Hier wischt der Benutzer nach Berühren des Rands, wie durch Pfeil 304 angezeigt, mit seinem/seinen Finger(n) nach rechts am Rand entlang, wie es schematisch durch Pfeil 305 dargestellt ist, wobei der gestrichelte Pfeil die Gleitbewegung in eine oder mehrere Richtungen repräsentiert. Dementsprechend führt der Benutzer hier ein Wischen am berührungsempfindlichen Rand entlang aus.
  • Der Window Split 303 kann auf dem Monitor 300 basierend auf dem Wischen neu positioniert werden. 3C zeigt, dass der Window Split 303 an eine Stelle neu positioniert worden ist, die im Wesentlichen der Stelle entspricht, an der die Wisch-Geste des Benutzers beendet wurde. Als Resultat wurde die Größe des Fensters 302 reduziert und das Fenster 301 wurde dementsprechend vergrößert.
  • Einige Implementierungen können ein Verfahren ausführen, das das Empfangen, durch ein Computergerät, einer Eingabe beinhaltet, die von einem Benutzer durch Berühren einer Position am berührungsempfindlichen Rand erzeugt wird. Das Verfahren kann das Bestimmen beinhalten, ob eine Anzeige einen Window Split enthält. Wenn das Fenster den Window Split enthält, kann das Verfahren das Bestimmen als Reaktion auf die Eingabe beinhalten, ob die Position innerhalb einer vordefinierten Nähe des Window Split liegt. Wenn die Position innerhalb der vordefinierten Nähe des Window Split liegt, kann das Verfahren die Neupositionierung des Window Split auf der Anzeige basierend auf der Eingabe beinhalten. Wenn das Display keinen Window Split aufweist oder wenn die Position nicht in der vorbestimmten Nähe des Window Split liegt, kann das Verfahren das Erzeugen, als Reaktion auf die Eingabe, eines neuen Window Split basierend auf der Position inschließen.
  • Mit erneuter kurzer Bezugnahme auf 1A-B kann die Eingabe unter Verwendung des berührungsempfindlichen Rands 103 oder des berührungsempfindlichen Rands 153 erzeugt werden, um nur zwei Beispiele zu nennen. Wenn das Computergerät ein von der Anzeige separates Proxygerät beinhaltet, kann der Window Split einer Proxyposition auf dem Proxygerät, wie der Proxyposition 156, zugeordnet werden. Die vordefinierte Nähe kann relativs zur Proxyposition definiert werden. Wenn der Benutzer beispielsweise das Proxygerät 150 an demselben Rand wie die Proxyposition und nahe der Proxyposition berührt, kann die Berührung als innerhalb der vordefinierten Nähe liegend betrachtet werden. Wenn der Benutzer andererseits das Proxygerät auf einem anderen Rand berührt, kann die Berührung, dort wo sich die Proxyposition befindet, als nicht innerhalb der vordefinierten Nähe liegend betrachtet werden, ob der räumliche Abstand nun geringer oder größer als ein vordefinierter Abstand ist. Das Verfahren kann ferner das Senden eines Signals an die Anzeige beinhalten, das entweder der Neupositionierung des Window Split auf der Anzeige basierend auf der Eingabe oder der Erzeugung des neuen Window Split auf der Anzeige entspricht. Das drahtlose Signal 154 kann beispielsweise den Monitor 151 anweisen, eine Änderung in Bezug auf zwei oder mehr angezeigte Fenster vorzunehmen, oder das Signal kann Bildinhalte aufweisen, die konfiguriert sind, um auf dem Monitor angezeigt zu werden.
  • Der Benutzer möchte möglicherweise einen oder mehrere Window Splits auf dem Bildschirm löschen. In einigen Implementierungen kann dies durch Berühren einer bestimmten Position auf dem berührungsempfindlichen Rand erreicht werden. 3D zeigt ein Beispiel, in dem der Benutzer die Ecke des Monitors 300 berührt, wie durch einen Pfeil 306 angezeigt. Hier berührt der Benutzer die untere linke Ecke des Monitors zu einem Zeitpunkt, zu dem der Window Split 303 auf der Anzeige vorhanden ist. Dies kann als Clear-Split-Eingabe betrachtet werden. Ein oder mehrere Window Splits können als Reaktion auf eine Clear-Split-Eingabe gelöscht werden. 3E zeigt beispielsweise, dass der Window Split 303 gelöscht wurde. In diesem Beispiel verbleibt nur das Fenster 301 nach der Clear-Split-Eingabe auf dem Monitor 300. Der Window Split 303 kann beispielsweise durch die Clear-Split-Eingabe gelöscht werden, da er der zuletzt erzeugte Window Split war. In weiteren Implementierungen kann mehr als ein Window Split durch jede Clear-Window-Eingabe gelöscht werden. Es können beispielsweise alle bestehenden Window Splits gelöscht werden. Die Clear-Split-Eingabe kann unter Verwendung jeder geeigneten Form einer Eingabe vorgenommen werden, wie beispielsweise durch Berühren einer Ecke wie im obigen Beispiel. In einigen Implementierungen können zwei oder mehr Ecken des berührungsempfindlichen Rands dazu dienen, unterschiedliche Eingaben zu erzeugen.
  • Wisch-Gesten am Rand können der Standard für ein „Bewegungs“-Verhalten sein. In einigen Implementierungen kann das Wischen, das dem Pfeil 305 entspricht, den Window Split 303 „einfangen“, wenn der Finger des Benutzers die Position des Split erreicht (d. h. im Moment des Zusammentreffens), und dann den Split zu der vom Benutzer gewünschten Position verschieben. Als solches kann das System von dem Moment des Zusammentreffens die Bewegung des Window Split im Wesentlichen mit der Bewegung des Fingers des Benutzers am berührungsempfindlichen Rand entlang abstimmen. Dies kann beispielsweise dem Benutzer erlauben, eine weniger präzise Geste anzuwenden und dennoch ein gewünschtes Resultat zu erzielen. Diese Swipe-to-Catch-Funktionalität kann es erforderlich machen, dass das Wischen innerhalb einer vordefinierten Nähe zum bestehenden Window Split beginnt.
  • 4A-G zeigen Beispiele für das Erzeugen eines zusätzlichen parallelen Window Split, für das Erzeugen eines zusätzlichen orthogonalen Window Split und das Bewegen eines orthogonalen Window Split. 4A zeigt, dass auf einem Monitor 400 aktuell die Fenster 401 und 402 angezeigt werden, wie es bei einem Window Split 403 angezeigt wird. Nehmen wir nun an, dass der Benutzer zusätzlichen Inhalt sehen oder mit einem anderen Anwendungsprogramm interagieren möchte. Dies kann durch Einführung eines weiteren Window Split erreicht werden. 4B zeigt, dass der Benutzer den berührungsempfindlichen Rand am oberen Rand des Monitors berührt, wie durch einen Pfeils 404 angezeigt. Als Reaktion darauf kann ein neuer Window Split erzeugt werden. 4C zeigt, dass ein neuer Window Split 405 erstellt wurde. Dies entspricht einem Fenster 406, das zusätzlich zu den Fenstern 401 und 402 angezeigt wird. Hier wurde das Fenster 401 verkleinert, um Platz für das neue Fenster 406 zu schaffen.
  • In einigen Implementierungen wird der neue Window Split 405 als Reaktion auf und an der Position der Berührung des Benutzers unabhängig davon erzeugt, ob ein irgendein anderer Window Split auf dem Bildschirm vorhanden ist. In einigen Implementierungen kann das System zunächst bestimmen, dass die Berührung, die von Pfeil 404 repräsentiert wird, nicht innerhalb einer vordefinierten Nähe eines bestehenden Fensters (falls vorhanden) liegt.
  • Window Splits können in mehr als eine Richtung erzeugt werden. Es können beispielsweise zwei oder mehr Window Splits orthogonal zueinander stehen. 4D zeigt ein Beispiel, in dem der Benutzer die rechte Seite des berührungsempfindlichen Rands berührt, wie durch einen Pfeil 407 angezeigt wird. Dies geschieht zu einem Zeitpunkt, zu dem auf dem Monitor 400 die Fenster 401 und 402 angezeigt werden, wie durch den Window Split 403 angezeigt (ähnlich wie in 4A). Hier ist der Rand, an dem die Berührung des Benutzers erfolgte, orthogonal zu den Rändern, gegen die der Window Split 403 definiert ist, nämlich den oberen und den unteren Rand.
  • Als Reaktion auf die Berührung des Benutzers kann ein neuer Window Split erzeugt werden. 4E zeigt, dass ein Window Split 408 erzeugt wurde. Der Window Split 408 ist die Grenze zwischen dem Fenster 402 (jetzt in der Größe verändert) und einem neuen Fenster 409. Das Fenster 401 ist im Gegensatz dazu in diesem Beispiel nicht in der Größe oder auf sonstige Weise verändert. Dementsprechend kann ein neuer Window Split erzeugt werden, der orthogonal zu einem oder mehreren bestehenden Window Splits ist. Der Window Split 408 erstreckt sich beispielsweise hier zwischen dem berührungsempfindlichen Rand (d. h. der rechten Seite davon) und dem Window Split 403.
  • Das heißt, der Window Split 408 wurde hier als Reaktion auf eine Berührung erzeugt, obwohl er sich innerhalb eines vordefinierten Abstands zu einem bestehenden Window Split befunden haben kann (d. h. dem Window Split 403), da die Berührung des Benutzers auf einem anderen Rand als dem, für den der bestehende Window Split definiert war, ausgeführt wurde. Dementsprechendkann die vordefinierte Nähe beinhalten, dass die Berührungsposition auf demselben Rand liegt wie der bestehende Window Split und innerhalb eines vordefinierten Abstands davon. Im Gegensatz dazu, wenn die Position nicht auf demselben Rand wie der bestehende Window Split liegt, kann die Position als nicht innerhalb der vordefinierten Nähe des Window Split liegend betrachtet werden. Vergleichen Sie beispielsweise die Situation in 4E, in der ein neuer Split erzeugt wurde, mit der in 3B, in der die Berührung für eine Neupositionierung und nicht für eine Erzeugung eines neuen Split angesehen wurde.
  • Der Window Split 408 kann verlegt werden, wie beispielsweise oben angesprochen. 4F zeigt, dass der Benutzer den Rand auf der rechten Seite berührt, wie durch einen Pfeil 410 angezeigt, und eine Wisch-Geste ausführt, wie durch einen Pfeil 411 angezeigt. Hier kann die Berührung, die dem Pfeil 410 entspricht, als innerhalb der vordefinierten Nähe des Window Split 408 liegend betrachtet werden (siehe Position in 4E). Der Window Split 408 kann deshalb als Reaktion auf die Wisch-Geste, beispielsweise an eine Stelle, wie in 4F dargestellt, neu positioniert werden.
  • Wie erwähnt, wenn eine Berührung an einem anderen Rand (z. B. orthogonal oder parallel dazu) ausgeführt wird, als dem, für den ein bestehender Window Split definiert ist, kann die Berührung als nicht innerhalb der vordefinierten Nähe dieses Split liegend betrachtet werden. Immer noch bezogen auf 4F repräsentiert ein Pfeil 412 eine veranschaulichende Position, die der Benutzer an dem Rand berühren könnte, der dem Rand gegenüberliegt, der den Window Split 408 definiert. Wenn dementsprechend der Benutzer diese Berührung ausführen und in eine Richtung wischen würde, würde dies nicht zu einer Neupositionierung des Window Split 408 führen, der in 4F dargestellt ist, da der Pfeil 412 einer Berührung an einem anderen Rand entspricht (z. B. dem gegenüberliegenden Rand) als dort, wo der Window Split 408 definiert ist. Vielmehr würde die Berührung des Benutzers zu einem neuen Window Split führen, der auf der linken Seite des Bildschirms erzeugt wird, wodurch das Fensters 401 verkleinert wird.
  • Noch einmal kurz auf 4E Bezug nehmend, könnte der Benutzer das Fenster 401 kleiner oder die Fenster 402 und 409 größer machen wollen. Dies kann unter Verwendung des berührungsempfindlichen Rands erreicht werden. 4G zeigt, dass der Benutzer den oberen Rand des Monitors berührt, wie durch einen Pfeils 413 angezeigt. Der Benutzer führt auch eine Wisch-Geste aus, hier nach links, wie durch einen Pfeils 414 angezeigt. Als Resultat wird der Window Split 403 nach links neu positioniert und der Window Split 408 weiter vom rechten Rand ausgedehnt als zuvor. Dies entspricht einer Vergrößerung der Fenster 402 und 409 und einer entsprechenden Verkleinerung der Größe des Fensters 401. Das heißt, diese Darstellung zeigt, dass nachdem ein neuer Window Split erzeugt ist (z. B. der Window Split 408), eine Neupositionierung eines bestehenden Window Split (z. B. der Window Split 403) ausgeführt werden kann. Die Neupositionierung kann beispielsweise mehrere Fenster in der Größe ändern (z. B. die Fenster 402 und 409), die teilweise durch den neuen Window Split definiert sind (z. B. den Window Split 408).
  • Eingaben an einem berührungsempfindlichen Rand zusätzlich zu den oben genannten Beispielen (z. B. eine einzelne Berührung oder Wisch-Geste) können erkannt werden. In einige Implementierungen kann ein Meta-Touch erkannt werden. Das System kann beispielsweise eine Reihe von zwei oder mehr Berührungen in schneller Folge, in ungefähr demselben Bereich des berührungsempfindlichen Rands, wie eine separate Eingabe registrieren, die unterschiedliche Funktionalität auslösen kann, wie beispielsweise gemäß folgendem Beispiel.
  • 5A-E zeigen Beispiele für die Neupositionierung eines Window Split. Hier zeigt aktuell ein Monitor 500 die Fenster 501, 502 und 503 an, die den jeweiligen Window Splits 504 und 505 entsprechen. Nehmen wir nun an, dass der Benutzer die Positionen der Fenster 501 und 502 tauschen möchte. Dies kann unter Verwendung eines berührungsempfindlichen Rands erreicht werden. 5B zeigt, dass der Benutzer ein Doppeltippen auf dem berührungsempfindlichen Rand ausführt, wie es schematisch durch einen Doppelpfeil 506 dargestellt ist. Die Berührung wird am oberen Rand des Fensters 502 ausgeführt. Da dieses Doppeltippen von anderen Berührungsarten unterschieden werden kann (z. B. wie weiter oben exemplarisch dargestellt), löst er keine Größenänderung an einem Fenster aus. Vielmehr kann er eine Neupositionierung eines Window Split in dem Sinne auslösen, dass ein oder mehrere Fenster in eine neue Position auf dem Bildschirm verschoben werden.
  • 5C zeigt, dass der Benutzer eine Wisch-Geste ausführt, wie durch den Pfeils 507 angezeigt. Als Reaktion darauf kann das System ein Fenster 502' anzeigen, das einer beweglichen Darstellung des Fensters 502 (5B) entspricht, das nicht mehr sichtbar sein kann. Ein Bereich 502" wird durch Bewegen des Fensters 502' erzeugt. Die Fenster 501 und 503 sind dagegen von dieser Bewegung nicht unmittelbar betroffen. Das heißt, der Window Split 504 (5B), der normalerweise definiert hat, wo der linke Rand des Fensters 502 den rechten Rand des Fenster 501 trifft, wird neu positioniert, so dass das Fenster 502 (repräsentiert durch das Fenster 502') links von Fenster 501 positioniert wird.
  • Das System kann periodisch überwachen, ob eines der Fenster, die derzeit nicht bewegt werden (hier die Fenster 501 und 503) neu positioniert werden soll um Platz für das zu bewegende Fenster zu schaffen (hier Fenster 502'). 5D zeigt, dass das System das Fenster 501 auf die frühere Position des bewegten Fensters neu positioniert und dadurch den Bereich 502" an der ursprünglichen Position des Fensters 501 positioniert. Dies kann beispielsweise geschehen (siehe 5C), wenn das Fenster 502' bewegt wird, so dass es näher an der Position des Fensters 501 als dem Bereich 502" liegt.
  • Wenn der Benutzer die Eingabe beendet oder eine andere Aktion ausführt, kann das bewegte Fenster im verfügbaren Bereich positioniert werden. Dies kann beispielsweise der nächstliegende Bereich sein, der nicht von einem Fenster belegt ist. 5E zeigt, dass das Fenster 502 jetzt links vom Fenster 501, im Gegensatz zu vorher (siehe 5A), positioniert ist. Dies entspricht einer Neupositionierung des Window Split 504 (z. B. 5A) in einen neuen Window Split 504'. Das Fenster 503 kann dagegen von dieser Bewegung nicht betroffen sein.
  • Im Beispiel oben verursacht die Eingabe, die unter Verwendung des berührungsempfindlichen Rands gemacht wurde, eine Verschiebung der Fenster, ohne eines davon in der Größe zu ändern. In anderen Situationen können ein oder mehrere Fenster als Ergebnis einer Berührungseingabe in der Größe geändert werden. In einigen Implementierungen kann ein Window Split entfernt werden, was dazu führt, dass ein oder mehrere bestehende Fenster zugunsten des/der verbleibenden Fenster(s) entfernt werden. Dadurch kann ein berührungsempfindlicher Rand dazu verwendet werden, die Erzeugung, Positionierung, Größeneinstellung und/oder das Entfernen des einen oder der mehreren Fenster, die auf dem Bildschirm angezeigt werden, zu steuern.
  • 6 zeigt ein Beispiel eines Flussdiagramms 600. Das Flussdiagramm stellt ein Verfahren dar, das in jedem beliebigen oder in allen hier beschriebenen Beispielen ausgeführt werden kann, einschließlich, aber nicht beschränkt darauf, dem Monitor 100 oder dem Proxygerät 150 (1A-B). Es kann beispielsweise ein Prozessor, der die in einem Computerprogrammprodukt, das konkret in einem nichtflüchtigen computerlesbaren Medium verkörpert ist, gespeicherten Anweisungen ausführt, diese und/oder andere Operationen durchführen. Zwei oder mehr Operationen können in anderer Reihenfolge durchgeführt werden, es sei denn, diese wurde ausdrücklich angezeigt. Es können in einigen Implementierungen mehr oder weniger Operationen durchgeführt werden.
  • Bei 610 wird bestimmt, ob eine Berührung an einem berührungsempfindlichen Rand erkannt wird. In einigen Implementierungen kann die Berührung unter Verwendung einer berührungsempfindlichen Einfassung (z. B. auf einem Monitor oder einem Proxygerät) und/oder an einem Rand eines Touchscreen oder einer berührungsempfindlichen Anzeige ausgeführt werden. Wenn die Einfassung eines Handgeräts berührungsempfindlich gemacht wird, kann das System die vom Benutzer durch Berühren des berührungsempfindlichen Rands erzeugte Eingabe von einer anderen Eingabe unterscheiden, die vom Benutzer unbeabsichtigt erzeugt wird, wenn er das tragbare Gerät hält. Das System kann beispielsweise nur auf Eingaben reagieren, die einer Berührung des jeweiligen Rands mit einem einzelnen Finger entsprechen, im Gegensatz zu, sagen wir, der Eingabe der gesamten Hand oder mehrerer Finger an demselben Rand. Die Bestimmung bei 610 kann fortgeführt werden, bis die Berührung erkannt wird.
  • Bei 620 wird eine Bestimmung ausgeführt, ob mindestens ein Window Split auf dem Bildschirm vorhanden ist. Wenn nicht, kann das System entscheiden, dass der Benutzer versucht einen neuen Window Split auf dem Bildschirm zu erzeugen. Dementsprechend kann bei 630 ein neuer Window Split erzeugt werden. Der Split wird in einer Position erzeugt, die der Position entspricht, an der der Benutzer den Rand berührt hat. Danach kann der Prozess zu 610 zurückkehren und auf eine weitere Berührung des Rands warten (oder andere Operationen können durchgeführt werden).
  • Wenn festgestellt wird, dass ein Window Split an 620 existiert, kann an 640 bestimmt werden, ob die erkannte Berührung innerhalb der vordefinierten Nähe des/der bestehenden Window Split(s) liegt. Dies kann beispielsweise berücksichtigen, ob sich die Berührung und der Split an demselben Rand oder an verschiedenen Rändern befinden und/oder ob die Berührung räumlich ausreichend nahe an dem Split liegt. Wenn die Berührung nicht innerhalb der vordefinierten Nähe liegt, kann der Prozess mit 630 fortfahren, wo ein neuer Window Split erzeugt werden kann.
  • Wenn die erkannte Berührung innerhalb der vordefinierten Nähe des/der bestehenden Window Split(s) bei 640 liegt, kann der Prozess mit 650 fortgesetzt und bestimmt werden, ob ein Wischen erkannt wird. Diese Bestimmung kann beispielsweise während eines vorbestimmten Zeitraums nach dem Erkennen der Berührung erfolgen. Wenn kein Wischen erkannt wird, kann der Prozess zu 610 zurückkehren.
  • Wenn ein Wischen bei 650 erkannt wird, kann der Prozess bei 660 fortfahren, bei dem ein Window Split neu positioniert werden kann. Diese Neupositionierung kann beispielsweise und ohne Beschränkung eine horizontale Neupositionierung (z. B. 3A-C), eine vertikale Neupositionierung (z. B. 4E-F) und/oder eine Verschiebung der Fenster (z. B. 5A-E) beinhalten.
  • Die oben genannten und/oder andere Operationen können in einem System durchgeführt werden, einschließlich, aber nicht beschränkt darauf, in dem Monitor 100 oder dem Proxygerät 150 (1A-B). In einigen Implementierungen kann das System eine Anzeige, ein Computergerät mit einem berührungsempfindlichen Rand und ein Computerprogrammprodukt mit Anweisungen für den Prozessor beinhalten. Die Anzeige kann beispielsweise in dem Computergerät, wie zum Beispiel in dem Monitor 100, beinhaltet sein. Der berührungsempfindliche Rand kann beispielsweise eine berührungsempfindliche Einfassung an einem Gehäuse des Computergeräts, wie in dem Monitor 100, beinhalten. Das Display kann beispielsweise berührungsempfindlich sein und der berührungsempfindliche Rand kann ein Teil der berührungsempfindlichen Anzeige sein, wie bei dem Rand 106 ( 1A).
  • Es werden nun Beispiele mit Bezug auf 7A-C, 8A-C und 9A-C beschrieben, die einige Interaktionen darstellen, die ein Benutzer auf einem oder mehreren angezeigten Fenstern unter Verwendung eines berührungsempfindlichen Rands ausführen kann. Ähnlich den früher beschriebenen Implementierungen zeigen diese Beispiele schematisch den angezeigten Bildschirm und diese/r berührungsempfindliche Rand oder Ränder werden nicht explizit dargestellt. Es versteht sich, dass der Benutzer diese Berührungseingabe auf jede beliebige oder alle hier beschriebenen Weisen ausführen kann, einschließlich, aber nicht beschränkt darauf, über eine berührungsempfindliche Einfassung und/oder über einen berührungsempfindlichen Rand eines Touchscreens.
  • 7A-C zeigen ein weiteres Beispiel für das Erzeugen eines neuen Window Split. In 7A ist ein Monitor 700 dargestellt, der einen Window Split 701 aufweist, so dass der Monitor aktuell ein Fenster 702 auf der linken und ein Fenster 703 auf der rechten Seite darstellt. Der Benutzer möchte eventuell die Fenster 702 und 703 auf dem Bildschirm voneinander trennen. In einigen Implementierungen kann dies anhand einer Mehrfinger-Geste auf dem berührungsempfindlichen Rand erfolgen. 7B zeigt die Pfeile 704 und 705, die schematisch darstellen, dass der Benutzer zwei Punkte am oberen Rand des Monitors, im Wesentlichen gleichzeitig, berührt. Jeder Pfeil repräsentiert beispielsweise eine Berührung, die unter Verwendung des Zeigefingers einer Hand gemacht wird. Als weiteres Beispiel können die Berührungen unter Verwendung von zwei oder mehr Fingern derselben Hand vorgenommen werden.
  • Immer noch in Bezug auf 7B stellt ein Pfeil 706 schematisch dar, dass der Benutzer mit der Berührung an Pfeil 704 am Rand entlang nach links gleitet. In ähnlicher Weise stellt ein Pfeil 707 dar, dass der Benutzer den Berührungspunkt an Pfeil 705 am Rand entlang nach rechts schiebt. Diese Gleitbewegungen treten im Wesentlichen zur gleichen Zeit auf, aber nicht notwendigerweise mit der gleichen Geschwindigkeit.
  • Das Auseinandergleiten der Berührungspunkte einer Mehrfinger-Berührung kann eine oder mehrere Funktionen auslösen. 7C zeigt, dass ein neues Fenster 708 erschienen ist. Das Fenster 708 ist beispielsweise ein Fenster mit Anwendungsinhalten, ähnlich den Fenstern 702 und 703. Als weiteres Beispiel entspricht Fenster 708 einem Desktop-Hintergrund oder einem anderen Standardinhalt. Dementsprechend befindet sich Fenster 702 immer noch auf der linken Seite, aber nur ein kleiner Ausschnitt ist derzeit sichtbar. Das Fenster 702 wurde beispielsweise in der Größe verändert, um das Fenster 708 unterzubringen, oder Fenster 702 ist nach links verschoben, so dass aktuell nur ein Teil davon sichtbar ist. In ähnlicher Weise ist auf der rechten Seite weniger von Fenster 703 sichtbar als zuvor. Dementsprechend kann der Benutzer bequem einen Fensterbereich an einer Grenze zwischen den Fenstern erzeugen (d. h. wo ein Window Split vorhanden ist).
  • In einigen Implementierungen kann der Split, der den Mehrfinger-Berührungen der Pfeile 704 und 705 entspricht, auch oder stattdessen ausgeführt werden, wenn kein Window Split auf dem Bildschirm vorhanden ist und anfänglich nur ein einzelnes Fenster vorhanden ist, sagen wir beispielsweise Fenster 703 in 7A, wenn das Fenster 702 nicht vorhanden wäre. In einem solchen Szenario kann das endgültige Aussehen von Fenster 703 (7C) der resultierenden Konfiguration des ursprünglich vorhandenen Fensters entsprechen. Die Fenster 702 und 708 können darüber hinaus Fenster sein, die als Ergebnis der Multi-Touch-Eingabe erzeugt werden.
  • Ein berührungsempfindlicher Rand kann verwendet werden, um ein bestehendes Fenster, das derzeit nicht auf dem Bildschirm sichtbar ist, sichtbar zu machen. 8A-C zeigen ein weiteres Beispiel für das Erzeugen eines neuen Window Split. 8A zeigt, dass ein Monitor 800 aktuell ein Fenster 801 hat, das darauf sichtbar ist. Nehmen wir darüber hinaus an, dass ein weiteres Fenster definiert wurde, aber das Fenster aktuell nicht auf dem Monitor 800 sichtbar ist. 8B zeigt einen Pfeil 802, der schematisch darstellt, dass ein Benutzer einen bestimmten Bereich am berührungsempfindlichen Rand berührt. Jeder dedizierte Bereich kann verwendet werden, einschließlich, aber nicht beschränkt darauf, eine Ecke eines polygonalen berührungsempfindlichen Rands. Ein Pfeil 803 stellt dar, dass der Benutzer den Berührungspunkt am Rand entlang verschiebt. Der Benutzer kann beispielsweise von der Ecke zum Rest des Bildschirms gleiten. Dies kann dazu führen, dass ein oder mehrere derzeit verborgene Fenster sichtbar gemacht werden. 8C zeigt beispielsweise, dass ein Fenster 804 jetzt auf dem Bildschirm vorhanden ist. Die Ausdehnung des Fensters 804 kann davon abhängen, wie weit der Benutzer entlang des Rands wischt. Das Fenster 801 ist beispielsweise auf dem Bildschirm derzeit noch sichtbar, aber nimmt weniger Platz ein, als vor dem Wischen.
  • Ein berührungsempfindlicher Rand kann verwendet werden, um die Ausrichtung eines oder mehrerer Fenster zu steuern. 9A-C zeigen ein Beispiel für die Manipulation eines Fensters unter Verwendung eines berührungsempfindlichen Rands. 9A zeigt einen Monitor 900, auf dem gegenwärtig ein Fenster 901 dargestellt ist. Die Ausrichtung des Fensters 901 wird durch einen Inhalt 902 angezeigt, hier ist es ein nach oben zeigendes Dreieck. Der Benutzer kann das System dazu veranlassen, das Fenster 901 unter Verwendung eines berührungsempfindlichen Rands zu drehen. 9B zeigt einen Pfeil 903, der anzeigt, dass der Benutzer eine Seite des Rands berührt, und einen Pfeil 904, der eine nach oben wischende Bewegung anzeigt. Als weiteres Beispiel zeigt ein Pfeil 903' und ein Pfeil 904' ein Wischen in die entgegengesetzte Richtung an, das an einem gegenüberliegenden Rand ausgeführt wird. Die Richtung der Wisch-Geste kann eine Drehung des Fensters 901 in eine entsprechende Richtung auslösen. 9C zeigt, dass das Fenster 901 in eine Richtung gedreht wurde, die der Wisch-Geste entspricht. Hier wurde das Fenster um 90 Grad gegen den Uhrzeigersinn gedreht. Dies kann beispielsweise dazu führen, dass ein oder zwei Nicht-Fensterbereiche 905 (z. B. Hintergrund) sichtbar werden.
  • Es wurde oben schon erwähnt, dass ein System im Wesentlichen gleichzeitige Berührungen an einem oder mehreren Punkten eines berührungsempfindlichen Rands erkennen kann. 10A-D zeigen Beispiele für Mehrfinger-Berührungen. In diesen Abbildungen sind die einzelnen Berührungspunkte schematisch, beispielsweise als Kreise, dargestellt. 10A zeigt schematisch eine Mehrpunkt-Berührung an einem berührungsempfindlichen Rand 1000. Der Rand 1000 kann beispielsweise eine berührungsempfindliche Einfassung sein. In weiteren Implementierungen kann der Rand eine Umrandung eines berührungsempfindlichen Bildschirms sein. Die Mehrpunkt-Berührung beinhaltet hier die entsprechenden Berührungspunkte 1001 und 1002. Die Berührungspunkte 1001 und 1002 können beispielsweise unter Verwendung der Finger derselben Hand erzeugt werden. 10B zeigt schematisch die entsprechenden gleitenden Berührungspunkte 1003 und 1004. 10C zeigt schematisch die entsprechenden gleitenden Berührungspunkte 1005 und 1006. 10D zeigt schematisch einen gleitenden Berührungspunkt 1007 auf einer Seite eines berührungsempfindlichen Rands (z. B. ein oberer Rand) und einen weiteren gleitenden Berührungspunkt 1008 auf einer anderen Seite des berührungsempfindlichen Rands (z. B. ein unterer Rand). Das Gleiten kann im Wesentlichen in dieselbe Richtung oder im Wesentlichen in die entgegengesetzte Richtung ausgeführt werden, um nur zwei Beispiele zu nennen. Das Wischen kann beispielsweise in dieselbe oder entgegengesetzte Richtung verschiedene Aktionen des Systems auslösen.
  • In einigen Implementierungen können eine oder mehrere der folgenden Eingaben am berührungsempfindlichen Rand erkannt werden und eine oder mehrere Funktionen in einem System auslösen:
    • einTippen;
    • ein wiederholtes Tippen (z. B. zweimal Tippen in ausreichend kurzer Folge);
    • ein wiederholtes Tippen, gefolgt von einer Wisch-Geste;
    • ein Mehrfinger-Tippen (z. B. Tippen mit zwei oder mehr Fingern gleichzeitig);
    • ein wiederholtes Mehrfinger-Tippen;
    • ein Mehrfinger-Tippen, gefolgt von einer Wisch-Geste;
    • ein langes/kurzes Drücken (z. B. das länger (oder kürzer) dauert als eine vordefinierte Zeit);
    • ein kurzes/langes Mehrfinger-Drücken;
    • ein langes/kurzes Drücken, gefolgt von einer Wisch-Geste;
    • ein starkes/sanftes Drücken (z. B. um ein Eingabesignal mit einer längeren/kürzeren vordefinierten Amplitude zu erzeugen);
    • ein starkes/sanftes Mehrfinger-Drücken; und/oder
    • ein starkes/sanftes Drücken, gefolgt von einer Wisch-Geste.
  • Andere Arten von Fenstermanipulationen können vorgenommen werden. 11A-C zeigen Beispiele für die Verwendung eines berührungsempfindlichen Rands. 11A zeigt ein Gerät 1100, wie ein Smartphone, Tablet oder ein anderes tragbares Gerät. Das Gerät hat einen berührungsempfindlichen Rand 1101, beispielsweise eine der oben beispielhaft genannten. Auf einem Bildschirm 1102 des Geräts wird aktuell ein Fenster 1103 dargestellt. Weitere verfügbare Fenster werden bei Verwendung der Registerkarten 1104 angezeigt. Die Registerkarten werden beispielsweise von einem Betriebssystem oder durch eine Anwendung, wie einen Browser, erzeugt. Die Pfeile 1105 stellen schematisch Eingaben dar, die ein Benutzer unter Verwendung des berührungsempfindlichen Rands 1102 vornehmen kann. Die Berührung kann eine oder mehrere Gerätefunktionen steuern, abhängig davon, wo auf dem Rand sie vorgenommen wird. Das Berühren kann beispielsweise eine oder mehrere Registerkarten 1104 für die Darstellung des/der entsprechenden Fenster auswählen. Als weiteres Beispiel können ein oder mehrere Registerkarten auf dem Bildschirm neu angeordnet werden.
  • Ein berührungsempfindlicher Rand kann für das Auslösen eines Feedbacks an den Benutzer verwendet werden. Das Gerät kann beispielsweise einen Ton oder ein taktiles Feedback (z. B. eine Vibration) ausgeben, abhängig davon, wo die Eingabe vorgenommen wird. 11B zeigt ein Gerät 1110, dass einen berührungsempfindlichen Rand 1111 hat. Ein Fenster 1112 wird derzeit auf dem Bildschirm dargestellt. Das Fenster ist von einem rechten Rand 1112A, einem linken Rand 1112B, einem oberen Rand 1112C und einem unteren Rand 1112D begrenzt. Ein Benutzer kann beispielsweise mit dem im Fenster dargestellten Inhalt (z. B. einer Anwendung) unter Verwendung einer Tastatur oder einem Zeigegerät interagieren. Wenn der Bildschirm berührungsempfindlich ist, kann der Benutzer auch oder stattdessen über das Berühren von Anwendungssteuerungen, die innerhalb der Grenzen des Fensters 1112 dargestellt sind, interagieren.
  • Ein sehbehinderter Benutzer möchte möglicherweise bestimmen, wo auf dem Bildschirm das Fenster 1112 positioniert ist. Dies kann beispielsweise dem Benutzer helfen, einen Screenreader oder andere unterstützende Funktionalität anzuwenden, die dem Benutzer bei der Interaktion mit dem Gerät helfen. Der berührungsempfindliche Rand kann dann verwendet werden, um es dem Benutzer zu ermöglichen, die Position des Fensters zu erkennen. Nehmen wir beispielsweise an, dass der Benutzer seinen Finger am oberen Rand des Geräts entlang gleiten lässt, um die horizontale Position des Fensters 1112 zu lokalisieren. Ein Pfeil 1113A stellt schematisch eine Ausgabe dar, die das System vornehmen kann, wenn die Berührung an der Position der rechten Begrenzung 1112A ausgeführt wird. Es kann beispielsweise ein Ton oder eine Vibration erzeugt werden. Das heißt, die Position des Pfeils 1113A zeigt an, dass die Ausgabe erzeugt wird, wenn die gleitende Berührung die horizontale Position der Begrenzung 1112A erreicht. In gewisser Hinsicht kann dies dem Benutzer erlauben, den rechten Rand des Fensters zu „fühlen“. Ein Pfeil 1113B repräsentiert darüber hinaus eine Ausgabe, die der Berührung der horizontalen Position der linken Begrenzung 1112B durch den Benutzer entspricht. In ähnlicher Weise entsprechen die Pfeile 1113C und D den oberen und unteren Begrenzungen 112C bzw. D. Die Ausgaben können vom selben Typ oder unterschiedlichen Typs sein. Ausgaben desselben Typs (z. B. Audioausgaben) können identisch (z. B. ein Klang) sein oder sich voneinander unterscheiden (z. B. die gesprochenen Wörter „links“ oder „rechts“).
  • Es wurde schon erwähnt, dass unterschiedliche Bereiche eines berührungsempfindlichen Rands verwendet werden können, um separate Funktionalität auszulösen. 11C zeigt ein Beispiel eines Geräts 1120, in dem eine lineare Steuerungsbewegung und eine rotierende Steuerungsbewegung erkannt wird. Das Gerät 1120 hat einen berührungsempfindlichen Rand 1121A entlang seines oberen Rands. In ähnlicher Weise ist ein berührungsempfindlicher Rand 1121B an seinem linken Rand entlang positioniert. Andere Ränder des Geräts können auch entsprechende berührungsempfindliche Ränder haben. Ein berührungsempfindlicher Rand 1121C ist an einer Ecke des Geräts positioniert, wie etwa einer abgerundeten Ecke des Gerätegehäuses. Der Eckenradius kann für die Berührungsempfindlichkeit verwendet werden. Dies kann beispielsweise eine Drehsteuerung auslösen, wie wenn das Fenster oder ein anderes Objekt auf der Anzeige gedreht werden muss, oder eine andere Art von Dreheinstellung. Die Ränder 112A-B können andererseits eine lineare Steuerung einer oder mehrerer Funktionen auslösen.
  • 12 zeigt ein Beispiel eines allgemeinen Computergeräts 1200 und eines allgemeinen mobilen Computergeräts 1250, die mit den hier beschriebenen Techniken verwendet werden können. Computergerät 1200 soll verschiedene Formen von digitalen Computern, wie Laptops, Desktops, Tablets, Workstations, Personal Digital Assistants, Fernseher, Server, Blade-Server, Mainframes und andere geeignete Computergeräte darstellen. Computergerät 1250 soll verschiedene Formen mobiler Geräte, wie z. B. Personal Digital Assistants, Mobiltelefone, Smartphones und andere ähnliche Computergeräte darstellen. Die hier gezeigten Komponenten, ihre Verbindungen und Beziehungen und ihre Funktionen sollen nur beispielhaft sein und sollen Implementierungen der in diesem Dokument beschriebenen und/oder beanspruchten Erfindungen nicht einschränken.
  • Computergerät 1200 beinhaltet einen Prozessor 1202, einen Speicher 1204, ein Speichergerät 1206, eine Hochgeschwindigkeitsschnittstelle 1208, die sich mit Speicher 1204 und Hochgeschwindigkeits-Erweiterungsanschlüssen 1210 verbindet, und eine Niedergeschwindigkeitsschnittstelle 1212, die sich mit dem Niedergeschwindigkeitsbus 1214 und Speichergerät 1206 verbindet. Der Prozessor 1202 kann ein Halbleiter-basierter Prozessor sein. Der Speicher 1204 kann ein Halbleiter-basierter Speicher sein. Alle der Komponenten 1202, 1204, 1206, 1208, 1210 und 1212 sind mithilfe verschiedener Busse miteinander verbunden und können gegebenenfalls auf einer gemeinsamen Hauptplatine oder auf andere Weise montiert werden. Der Prozessor 1202 kann Anweisungen zur Ausführung innerhalb des Computergeräts 1200 verarbeiten, einschließlich Anweisungen, die im Speicher 1204 oder auf dem Speichergerät 1206 gespeichert sind, um grafische Informationen für ein GUI auf einem externen Eingabe-/Ausgabegerät, wie z. B. Anzeige 1216, anzuzeigen, die an die Hochgeschwindigkeitsschnittstelle 1208 gekoppelt ist. Bei anderen Implementierungen können gegebenenfalls mehrere Prozessoren und/oder mehrere Busse zusammen mit mehreren Speichern und Speichertypen verwendet werden. Außerdem können mehrere Computergeräte 1200 verbunden sein, wobei jedes Gerät Teile der erforderlichen Operationen (z. B. als Serverbank, eine Gruppe von Blade-Servern oder ein Multiprozessor-System) bereitstellt.
  • Der Speicher 1204 speichert Informationen im Computergerät 1200. In einer Implementierung ist der Speicher 1204 eine flüchtige Speichereinheit oder Speichereinheiten. In einer anderen Implementierung ist der Speicher 1204 ein nicht flüchtiges Speichereinheit oder Speichereinheiten. Der Speicher 1204 kann zudem in einer anderen Form eines computerlesbaren Mediums, zum Beispiel als magnetischer oder optischer Datenträger, vorliegen.
  • Das Speichergerät 1206 kann Massenspeicher für das Computergerät 1200 bereitstellen. In einer Implementierung kann das Speichergerät 1206 ein computerlesbares Medium sein oder enthalten, zum Beispiel ein Floppy-Diskettengerät, ein Festplattengerät, ein optisches Datenträgergerät oder ein Bandgerät, ein Flash-Speicher oder ein anderes ähnliches Solid-State-Speichergerät oder eine Reihe von Geräten, zum Beispiel Geräte in einem Speichernetzwerk oder in anderen Konfigurationen. Ein Computerprogrammprodukt kann konkret in einem Informationsträger verkörpert sein. Das Computerprogrammprodukt kann auch Anweisungen enthalten, die bei Ausführung ein oder mehrere Verfahren wie diejenigen, die vorstehend beschrieben sind, ausführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium, wie z. B. der Speicher 1204, das Speichergerät 1206 oder der Prozessorspeicher 1202.
  • Der Hochgeschwindigkeits-Controller 1208 verwaltet bandbreitenintensive Operationen für das Computergerät 1200, während der Niedergeschwindigkeits-Controller 1212 weniger bandbreitenintensive Operationen verwaltet. Eine solche Zuordnung von Funktionen ist nur beispielhaft. In einer Implementierung ist der Hochgeschwindigkeits-Controller 1208 an den Speicher 1204, die Anzeige 1216 (z. B. durch einen Grafikprozessor oder -beschleuniger) und die Hochgeschwindigkeits-Erweiterungsanschlüsse 1210 gekoppelt, die verschiedene Erweiterungskarten aufnehmen können (nicht dargestellt). In der Implementierung ist der Niedergeschwindigkeits-Controller 1212 an das Speichergerät 1206 und den Niedergeschwindigkeits-Erweiterungsanschluss 1214 gekoppelt. Der Niedergeschwindigkeits-Erweiterungsanschluss, der verschiedene Kommunikationsanschlüsse (z. B. USB, Bluetooth, Ethernet, Funkethernet) beinhalten kann, kann an ein oder mehrere Eingabe-/Ausgabegeräte wie eine Tastatur, ein Zeigegerät, einen Scanner oder ein Netzwerkgerät wie einen Switch oder Router, z. B. durch einen Netzwerkadapter, gekoppelt sein.
  • Das Computergerät 1200 kann, wie in der Figur dargestellt, in einer Anzahl verschiedener Formen implementiert sein. Es kann beispielsweise als Standardserver 1220 oder mehrfach in einer Gruppe solcher Server implementiert werden. Außerdem kann es als Teil eines Rackserversystems 1224 implementiert werden. Darüber hinaus kann es in einem Personal-Computer, wie z. B. einem Laptop-Computer 1222, implementiert werden. Alternativ können Komponenten von Computergerät 1200 mit anderen Komponenten in einem Mobilgerät (nicht dargestellt), wie z. B. Gerät 1250, kombiniert werden. Jedes dieser Geräte kann ein oder mehrere Computergeräte 1200, 1250 enthalten, wobei ein gesamtes System aus mehreren Computergeräten 1200, 1250 bestehen kann, die miteinander kommunizieren.
  • Das Computergerät 1250 beinhaltet unter anderen Komponenten einen Prozessor 1252, einen Speicher 1264, ein Eingabe-/Ausgabegerät, wie z. B. eine Anzeige 1254, eine Kommunikationsschnittstelle 1266, und einen Sendeempfänger 1268. Das Gerät 1250 kann zudem mit einem Speichergerät, z. B. einem Microdrive oder einem anderen Gerät, ausgestattet sein, um zusätzlichen Speicher bereitzustellen. Jede der Komponenten 1250, 1252, 1264, 1254, 1266 und 1268 ist mithilfe verschiedener Busse miteinander verbunden und mehrere der Komponenten können gegebenenfalls auf einer gemeinsamen Hauptplatine oder auf andere Weise montiert werden.
  • Der Prozessor 1252 kann Anweisungen im Computergerät 1250 ausführen, einschließlich Anweisungen, die im Speicher 1264 gespeichert sind. Der Prozessor kann als ein Chipsatz von Chips implementiert sein, die separate und mehrere analoge und digitale Prozessoren beinhalten. Der Prozessor kann zum Beispiel für die Koordination der anderen Komponenten des Geräts 1250 sorgen, wie z. B. die Steuerung von Benutzerschnittstellen, Anwendungen, die vom Gerät 1250 ausgeführt werden, und die drahtlose Kommunikation durch Gerät 1250.
  • Der Prozessor 1252 kann mit einem Benutzer über die Steuerschnittstelle 1258 und die mit einer Anzeige 1254 gekoppelte Anzeigeschnittstelle 1256 kommunizieren. Die Anzeige 1254 kann zum Beispiel eine TFT LCD- (Dünnfilmtransistor-Flüssigkristallanzeige) oder eine OLED-Anzeige (organische Leuchtdiode) oder eine andere angemessene Anzeigetechnologie sein. Die Anzeigeschnittstelle 1256 kann eine angemessene Schaltung als Treiber der Anzeige 1254 umfassen, um einem Benutzer grafische und andere Informationen zu präsentieren. Die Steuerschnittstelle 1258 kann Befehle von einem Benutzer empfangen und sie für die Übergabe an den Prozessor 1252 konvertieren. Zusätzlich kann eine externe Schnittstelle 1262 in Kommunikation mit Prozessor 1252 bereitgestellt werden, um eine Nahbereichskommunikation von Gerät 1250 mit anderen Geräten zu ermöglichen. Die externe Schnittstelle 1262 kann zum Beispiel in einigen Implementierungen eine kabelgebundene Kommunikation oder in anderen Implementierungen eine drahtlose Kommunikation bereitstellen, zudem können mehrere Schnittstellen verwendet werden.
  • Der Speicher 1264 speichert Informationen innerhalb des Computergeräts 1250. Der Speicher 1264 kann als ein oder mehrere eines computerlesbaren Mediums oder Medien, einer oder mehrerer flüchtiger Speichereinheiten oder einer oder mehrerer nichtflüchtiger Speichereinheiten implementiert werden. Erweiterungsspeicher 1274 kann ebenfalls bereitgestellt und mit dem Gerät 1250 über Erweiterungsschnittstelle 1272 verbunden werden, die zum Beispiel eine SIMM (Single-In-Line-Speichermodul)-Kartenschnittstelle beinhalten kann. Dieser Erweiterungsspeicher 1274 kann zusätzlichen Speicherplatz für Gerät 1250 bereitstellen oder kann auch Anwendungen oder andere Informationen für Gerät 1250 speichern. Insbesondere kann Erweiterungsspeicher 1274 Anweisungen zum Ausführen oder Ergänzen der oben beschriebenen Prozesse beinhalten, und kann außerdem sichere Informationen beinhalten. Somit kann Erweiterungsspeicher 1274 zum Beispiel als Sicherheitsmodul für Gerät 1250 bereitgestellt werden und mit Anweisungen programmiert werden, die eine sichere Verwendung von Gerät 1250 erlauben. Zusätzlich dazu können über die SIMM-Karten sichere Anwendungen zusammen mit zusätzlichen Informationen, wie dem Ablegen von Identifizierungsinformationen auf der SIMM-Karte auf eine Weise, die nicht gehackt werden kann, bereitgestellt werden.
  • Der Speicher kann zum Beispiel Flashspeicher und/oder NVRAM-Speicher beinhalten, wie nachstehend beschrieben. Bei einer Implementierung ist ein Computerprogrammprodukt in einem Informationsträger konkret verkörpert. Das Computerprogrammprodukt enthält Anweisungen, die bei Ausführung ein oder mehrere Verfahren, wie die vorstehend beschriebenen, durchführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium, wie z. B. der Speicher 1264, der Erweiterungsspeicher 1274 oder der Speicher auf Prozessor 1252, der zum Beispiel über den Sendeempfänger 1268 oder die externe Schnittstelle 1262 empfangen werden kann.
  • Gerät 1250 kann drahtlos über Kommunikationsschnittstelle 1266 kommunizieren, die gegebenenfalls eine digitale Signalverarbeitungsschaltung beinhalten kann. Die Kommunikationsschnittstelle 1266 kann die Kommunikation mit verschiedenen Kommunikationsmodi oder -protokollen bereitstellen, z. B. unter anderem GSM-Sprachanrufe, SMS, EMS oder MMS-Messaging, CDMA, TDMA, PDC, WCDMA, CDMA2000 oder GPRS. Diese Kommunikation kann beispielsweise durch Hochfrequenz-Sendeempfänger 1268 erfolgen. Zusätzlich kann eine Kurzstreckenkommunikation erfolgen, wie bei Verwendung von Bluetooth, WLAN- oder einen anderen derartigenTransceiver (nicht gezeigt). Außerdem kann das GPS (Globales Positionierungssystem)-Empfängermodul 1270 zusätzliche navigations- und standortbezogene drahtlose Daten für das Gerät 1250 bereitstellen, die gegebenenfalls von Anwendungen verwendet werden können, die auf dem Gerät 1250 ausgeführt werden.
  • Gerät 1250 kann außerdem mithilfe von Audio-Codec 1260 akustisch kommunizieren, der gesprochene Informationen von einem Benutzer empfangen und in nutzbare digitale Informationen umwandeln kann. Ebenso kann Audio-Codec 1260 akustische Töne für einen Benutzer, z. B. durch einen Lautsprecher, wie etwa in einem Handgerät von Gerät 1250, erzeugen. Diese Töne können Töne von Sprachtelefonanrufen, aufgezeichnete Töne (z. B. Sprachnachrichten, Musikdateien usw.) beinhalten, außerdem können sie Töne beinhalten, die von laufenden Anwendungen auf dem Gerät 1250 erzeugt wurden.
  • Das Computergerät 1250 kann, wie in der Abbildung dargestellt, in einer Reihe verschiedener Formen implementiert werden. Es kann beispielsweise als Mobiltelefon 1280 implementiert werden. Es kann außerdem als Teil eines Smartphones 1282, eines persönlichen digitalen Assistenten oder eines anderen ähnlichen Mobilgeräts implementiert werden.
  • Verschiedene Implementierungen der hier beschriebenen Systeme und Techniken können in digitalen elektronischen Schaltungen, integrierten Schaltungen, speziell konzipierten ASICs (anwendungsorientierten integrierten Schaltungen), Computerhardware, Firmware, Software und/oder Kombinationen davon realisiert werden. Diese verschiedenen Implementierungen können eine Implementierung in einem oder mehreren Computerprogrammen beinhalten, die auf einem programmierbaren System ausführbar und/oder interpretierbar sind, das mindestens einen programmierbaren Prozessor beinhaltet, der ein spezieller oder für allgemeine Zwecke sein kann und der zum Empfangen von Daten und Anweisungen von und zum Übertragen von Daten und Anweisungen an ein Speichersystem, mindestens ein Eingabegerät und mindestens ein Ausgabegerät gekoppelt ist.
  • Diese Computerprogramme (auch bekannt als Programme, Software, Softwareanwendungen oder Code) beinhalten Maschinenbefehle für einen programmierbaren Prozessor und können in einer höheren prozeduralen und/oder objektorientierten Programmiersprache und/oder in Assembler-/Maschinensprache implementiert werden. Wie hierin verwendet, beziehen sich die Begriffe „maschinenlesbares Medium“, „computerlesbares Medium“ auf ein beliebiges Computerprogrammprodukt, eine beliebige Vorrichtung und/oder ein beliebiges Gerät (z. B. Magnetplatten, optische Platten, Speicher, programmierbare Logikbausteine (PLDs)), die verwendet werden, um einem programmierbaren Prozessor Maschinenbefehle und/oder Daten bereitzustellen, einschließlich eines maschinenlesbaren Mediums, das Maschinenbefehle als ein maschinenlesbares Signal empfängt. Der Begriff „maschinenlesbares Signal“ bezieht sich auf ein beliebiges Signal, das verwendet wird, um einem programmierbaren Prozessor Maschinenanweisungen und/oder Daten bereitzustellen.
  • Um eine Interaktion mit einem Benutzer bereitzustellen, können die hier beschriebenen Systeme und Techniken auf einem Computer implementiert werden, der ein Anzeigegerät (wie z. B. einen CRT- (Kathodenstrahlröhre) oder LCD-(Flüssigkristallanzeige) -Monitor) aufweist, um dem Benutzer Informationen anzuzeigen und eine Tastatur und ein Zeigegerät (z. B. eine Maus oder ein Trackball) mittels denen der Benutzer eine Eingabe an den Computer bereitstellen kann. Andere Arten von Geräten können ebenfalls für die Interaktion mit einem Benutzer verwendet werden; ein an den Benutzer bereitgestelltes Feedback kann beispielsweise eine beliebige Form von sensorischem Feeback sein (z. B. visuelle Rückmeldung, auditive Rückmeldung oder taktile Rückmeldung); und die Eingabe vom Benutzer kann in beliebiger Form empfangen werden, einschließlich akustischer, sprachlicher oder taktiler Eingabe.
  • Die hier beschriebenen Systeme und Techniken können in einem Computersystem implementiert werden, das eine Backendkomponente (z. B. als einen Datenserver) beinhaltet, oder das eine Middlewarekomponente (z. B. einen Applikationsserver) beinhaltet, oder das eine Frontendkomponente (z. B. einen Clientcomputer mit einer grafischen Benutzerschnittstelle oder einem Webbrowser, durch den ein Benutzer mit hier beschriebenen Systemimplementationen und Techniken interagieren kann) beinhaltet oder jeder Kombination aus solchen Backend-, Middleware- oder Frontendkomponenten. Die Komponenten des Systems können durch eine beliebige Form oder ein beliebiges Medium digitaler Datenkommunikation (z. B. ein Kommunikationsnetzwerk) miteinander verbunden sein. Beispiele von Kommunikationsnetzwerken beinhalten ein lokales Netzwerk („LAN“), ein Femnetzwerk („WAN“) und das Internet.
  • Das Computersystem kann Clients und Server beinhalten. Ein Client und Server befinden sich im Allgemeinen entfernt voneinander und interagieren typischerweise über ein Kommunikationsnetzwerk. Die Beziehung von Client und Server entsteht durch Computerprogramme, die auf den jeweiligen Computern ausgeführt werden und in einer Client-Server-Beziehung zueinander stehen.
  • Eine Anzahl von Ausführungsformen wurde beschrieben. Es versteht sich jedoch, dass verschiedene Modifikationen vorgenommen werden können, ohne vom Sinn und Umfang der Erfindung abzuweichen.
  • Darüber hinaus erfordern die in den Abbildungen dargestellten logischen Abläufe nicht die bestimmte dargestellte Reihenfolge oder sequenzielle Reihenfolge, um wünschenswerte Ergebnisse zu erzielen. Darüber hinaus können andere Schritte vorgesehen oder Schritte aus den beschriebenen Abläufen eliminiert und andere Komponenten zu den beschriebenen Systemen hinzugefügt oder aus denselben entfernt werden. Dementsprechend befinden sich andere Ausführungsformen innerhalb des Umfangs der folgenden Ansprüche.

Claims (25)

  1. Computerprogrammprodukt, das konkret in einem nichtflüchtigen computerlesbaren Speichermedium verkörpert ist und ausführbare Anweisungen beinhaltet, die, wenn sie ausgeführt werden, ein Computergerät veranlassen, ein Verfahren auszuführen, wobei das Verfahren Folgendes umfasst: Empfangen, durch ein Computergerät, einer Eingabe, die von einem Benutzer durch Berühren einer Position an einem berührungsempfindlichen Rand erzeugt wird. Bestimmen, ob eine Anzeige einen Window Split enthält; wenn die Anzeige den Window Split enthält, Bestimmen, als Reaktion auf die Eingabe, ob die Position innerhalb einer vordefinierten Nähe des Window Split liegt; und wenn die Position innerhalb der vordefinierten Nähe des Window Split liegt, Neupositionieren des Window Split auf der Anzeige auf Grundlage der Eingabe,
  2. Computerprogrammprodukt nach Anspruch 1, wobei wenn die Anzeige keinen Window Split enthält oder wenn die Position nicht in der vordefinierten Nähe des Window Split liegt, das Verfahren ferner Erstellen, als Reaktion auf die Eingabe, eines neuen Window Split auf der Anzeige auf der Grundlage der Position umfasst.
  3. Computerprogrammprodukt nach Anspruch 1 oder Anspruch 2, wobei die Anzeige berührungsempfindlich ist, und wobei der berührungsempfindliche Rand Teil der berührungsempfindlichen Anzeige ist.
  4. Computerprogrammprodukt nach Anspruch 1 oder Anspruch 2, wobei der berührungsempfindliche Rand eine berührungsempfindliche Einfassung an einem Gehäuse des Computergeräts umfasst.
  5. Computerprogrammprodukt nach Anspruch 1 oder Anspruch 2, wobei die Anzeige in einem Monitor beinhaltet ist und wobei der berührungsempfindliche Rand eine berührungsempfindliche Einfassung an dem Monitor umfasst.
  6. Computerprogrammprodukt nach einem der Ansprüche 1 bis 4, wobei die Anzeige in dem Computergerät beinhaltet ist.
  7. Computerprogrammprodukt nach einem vorhergehenden Anspruch, wobei der Benutzer für die Neupositionierung des Window Split auf der Anzeige die Position auf dem berührungsempfindlichen Rand berührt und eine Wischbewegung entlang des berührungsempfindlichen Rands ausführt, und wobei der Window Split auf der Anzeige auf der Grundlage der Wischbewegung neu positioniert wird.
  8. Computerprogrammprodukt nach einem vorhergehenden Anspruch, wobei der berührungsempfindliche Rand mehrere benachbarte Ränder umfasst, wobei die vordefinierte Nähe umfasst, dass die Position an einem selben Rand liegt wie der Window Split und innerhalb eines vordefinierten Abstands des Window Splits, und wobei, wenn sich die Position nicht an demselben Rand wie der Window Split befindet, die Position nicht in der vordefinierten Nähe des Window Split liegt.
  9. Computerprogrammprodukt nach Anspruch 8, wobei der berührungsempfindliche Rand rechteckig ist und wobei alle vier Ränder berührungsempfindlich sind.
  10. Computerprogrammprodukt nach Anspruch 9, soweit rückbezogen auf Anspruch 2, wobei die Anzeige den Window Split enthält und der neue Window Split erzeugt wird, so dass ein erstes Fenster auf der einen Seite des Window Split definiert wird und ein zweites und drittes Fenster auf einer gegenüberliegenden Seite des Window Split definiert werden, wobei das zweite und dritte Fenster dabei durch den neuen Window Split getrennt sind, und wobei: (i) wenn eine weitere Eingabe empfangen wird, die innerhalb der vordefinierten Nähe des neuen Window Split auf einem Rand neben dem zweiten und dritten Fenster liegt, dann werden das zweite und dritte Fenster, und nicht das erste Fenster in der Größe geändert, während (ii) wenn die weitere Eingabe am gegenüberliegenden Rand neben dem ersten Fenster vorgenommen wird, dann wird das erste Fenster und nicht das zweite und dritte Fenster in der Größe geändert.
  11. Computerprogrammprodukt nach Anspruch 2 oder einem der Ansprüche 3-10, wenn abhängig von Anspruch 2, wobei der neue Window Split orthogonal zum Window Split ist.
  12. Computerprogrammprodukt nach Anspruch 11, wobei sich der neue Window Split zwischen dem berührungsempfindlichen Rand und dem Window Split erstreckt.
  13. Computerprogrammprodukt nach Anspruch 11 oder Anspruch 12, wobei das Verfahren ferner das Empfangen, nach der Erzeugung des neuen Window Split, einer weiteren Eingabe umfasst, die von einem Benutzer erzeugt wird, der den berührungsempfindlichen Rand berührt, wobei die weitere Eingabe den Window Split auf der Anzeige neu positioniert und wobei die Neupositionierung die Größe von mehreren Fenstern ändert, die teilweise durch den neuen Window Split definiert sind.
  14. Computerprogrammprodukt nach Anspruch 2 oder einem der Ansprüche 3-13, soweit rückbezogen auf Anspruch 2, wobei das Erzeugen des neuen Window Split Verkleinern einer Fenstergröße auf der Anzeige umfasst, wobei das Verfahren ferner das Initiieren eines Standardfensters in einem Bereich umfasst, der durch die verminderte Größe erzeugt wird.
  15. Computerprogrammprodukt nach Anspruch 2 oder einem der Ansprüche 3-13, soweit rückbezogen auf Anspruch 2, wobei das Erzeugen des neuen Window Split die Verkleinern einer Fenstergröße auf der Anzeige umfasst, wobei das Verfahren ferner Auffordern des Benutzers umfasst, ein neues Fenster auszuwählen, das in einem Bereich, der durch die verminderte Größe erzeugt wird, initiiert werden soll.
  16. Computerprogrammprodukt nach Anspruch 2 oder einem der Ansprüche 3-15, soweit rückbezogen auf Anspruch 2, wobei das Verfahren ferner Empfangen einer Clear-Split-Eingabe, die unter Verwendung des berührungsempfindlichen Rands erzeugt wurde, und Löschen, als Reaktion auf die Clear-Split-Eingabe, zumindest des neuen Window Split von der Anzeige, umfasst.
  17. Computerprogrammprodukt nach Anspruch 16, wobei der berührungsempfindliche Rand an einem Gehäuse positioniert ist, das mehrere Ecken hat, und wobei die Clear-Split-Eingabe durch Berührung mindestens einer der Ecken erzeugt wird.
  18. Computerprogrammprodukt nach Anspruch 16 oder Anspruch 17, wobei die Clear-Split-Eingabe nur dazu führt, dass ein zuletzt erstellter Window Split gelöscht wird.
  19. Computerprogrammprodukt nach einem vorhergehenden Anspruch, wobei der Window Split in der Anzeige beinhaltet ist und eine Grenze zwischen einem ersten Fenster und einem zweiten Fenster definiert, und wobei die Neupositionierung des Window Split auf der Anzeige auf der Grundlage der Eingabe Vergrößern des ersten Fensters und Verkleinern des zweiten Fensters um einen der Vergrößerung entsprechenden Umfang umfasst.
  20. Computerprogrammprodukt nach einem vorhergehenden Anspruch, wobei die Anzeige konfiguriert ist, um darauf Fenster ohne sichtbare Rahmen oder andere Grenzen darzustellen, so dass Inhalte der benachbarten Fenster aneinandergrenzen.
  21. Computerprogrammprodukt nach einem der Ansprüche 1 bis 20, wobei das Computergerät ein tragbares Gerät, das die Anzeige enthält, umfasst, wobei das Verfahren ferner Unterscheiden der Eingabe, die vom Benutzer durch Berühren der Position auf dem berührungsempfindlichen Rand erzeugt wird, und einer weiteren Eingabe, die vom Benutzer erzeugt wird, wenn er das tragbare Gerät hält, umfasst.
  22. Computerprogrammprodukt nach Anspruch 2 oder einem der Ansprüche 3-20, soweit rückbezogen auf Anspruch 2, wobei das Computergerät neben der Anzeige ein Proxygerät umfasst, wobei der Window Split mit einer Proxyposition auf dem Proxygerät verbunden ist und wobei die vordefinierte Nähe relativ zur Proxyposition definiert ist, wobei das Verfahren ferner Senden eines Signals an die Anzeige umfasst, das entweder der Neupositionierung des Window Split auf der Anzeige auf der Grundlage der Eingabe oder der Erzeugung des neuen Window Split auf der Anzeige entspricht.
  23. Computerprogrammprodukt nach einem vorhergehenden Anspruch, wobei der berührungsempfindliche Rand mindestens einen Rand und eine Ecke eines Gehäuses umfasst und wobei die Eingabe unter Verwendung des Rands des Gehäuses erzeugt wird, wobei das Verfahren ferner Empfangen einer weiteren Eingabe, die unter Verwendung der Ecke des Gehäuses erzeugt wird, und als Reaktion auf die weitere Eingabe Betätigen einer Drehsteuerung im Computergerät umfasst.
  24. Computerprogrammprodukt nach einem vorhergehenden Anspruch, wobei die Anzeige den Window Split enthält und die Eingabe eine Wisch-Geste zum Window Split hin beinhaltet, wobei das Verfahren ferner Bestimmen, wann die Wisch-Geste eine Position des Window Split erreicht, und danach Abgleichen der Neupositionierung des Window Split mit der Wisch-Geste umfasst.
  25. System, Folgendes umfassend: eine Anzeige; ein Computergerät mit einem berührungsempfindlichen Rand; und ein Computerprogrammprodukt, das konkret in einem nichtflüchtigen computerlesbaren Medium verkörpert ist und ausführbare Anweisungen beinhaltet, die, wenn sie ausgeführt werden, das Computergerät veranlassen, ein Verfahren des Computerprogrammprodukts nach einem der Ansprüche 1 bis 23 auszuführen.
DE202017105674.0U 2016-12-12 2017-09-19 Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands Active DE202017105674U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/375,787 US10318130B2 (en) 2016-12-12 2016-12-12 Controlling window using touch-sensitive edge
US15/375,787 2016-12-12

Publications (1)

Publication Number Publication Date
DE202017105674U1 true DE202017105674U1 (de) 2018-03-20

Family

ID=59772846

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202017105674.0U Active DE202017105674U1 (de) 2016-12-12 2017-09-19 Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands

Country Status (4)

Country Link
US (2) US10318130B2 (de)
CN (1) CN109791467A (de)
DE (1) DE202017105674U1 (de)
WO (1) WO2018111361A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11366579B2 (en) 2016-12-12 2022-06-21 Google Llc Controlling window using touch-sensitive edge

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6977573B2 (ja) * 2018-01-12 2021-12-08 京セラドキュメントソリューションズ株式会社 情報端末装置、情報処理システムおよび表示制御プログラム
US10877573B2 (en) * 2018-04-26 2020-12-29 Htc Corporation Handheld apparatus, control method thereof of presenting mode and computer-readable recording medium
CN110568990B (zh) * 2019-08-29 2021-05-11 Oppo广东移动通信有限公司 分屏方法、装置、电子设备及存储介质
CN115808999B (zh) * 2020-12-10 2023-10-20 荣耀终端有限公司 窗口显示方法、终端设备及计算机可读存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4672558A (en) 1984-09-25 1987-06-09 Aquila Technologies Group, Inc. Touch-sensitive data input device
US6292178B1 (en) 1998-10-19 2001-09-18 Allergan Sales, Inc. Screen navigation control apparatus for ophthalmic surgical instruments
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US8434019B2 (en) * 2008-06-02 2013-04-30 Daniel Paul Nelson Apparatus and method for positioning windows on a display
CN102103580A (zh) * 2009-12-17 2011-06-22 珠海金山软件有限公司 一种利用计算机选择表格中的部分区域的方法及系统
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
WO2011123840A2 (en) * 2010-04-01 2011-10-06 Citrix Systems, Inc. Interacting with remote applications displayed within a virtual desktop of a tablet computing device
TW201203075A (en) * 2010-07-06 2012-01-16 Compal Electronics Inc Method for opening and arranging window
US9372618B2 (en) * 2010-10-01 2016-06-21 Z124 Gesture based application management
JP5413688B2 (ja) 2011-02-16 2014-02-12 ブラザー工業株式会社 画像区画プログラム、及び、表示装置
US8884892B2 (en) 2011-08-12 2014-11-11 Blackberry Limited Portable electronic device and method of controlling same
CA2896985A1 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
JP6215534B2 (ja) 2013-01-07 2017-10-18 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US8826170B1 (en) * 2013-03-15 2014-09-02 Google Inc. Window switching interface
KR20140120211A (ko) 2013-04-02 2014-10-13 엘지전자 주식회사 영상 표시 장치 및 그것의 제어 방법
CN103324435B (zh) 2013-05-24 2017-02-08 华为技术有限公司 分屏显示的方法、装置及其电子设备
WO2015068709A1 (ja) 2013-11-08 2015-05-14 株式会社村田製作所 表示装置及びプログラム
KR102189451B1 (ko) 2013-12-27 2020-12-14 삼성디스플레이 주식회사 전자 기기
KR102213212B1 (ko) * 2014-01-02 2021-02-08 삼성전자주식회사 멀티윈도우 제어 방법 및 이를 지원하는 전자 장치
US9557911B2 (en) 2014-01-27 2017-01-31 Lenovo (Singapore) Pte. Ltd. Touch sensitive control
KR102255830B1 (ko) * 2014-02-05 2021-05-25 삼성전자주식회사 복수 개의 윈도우를 디스플레이하는 방법 및 장치
KR102298972B1 (ko) * 2014-10-21 2021-09-07 삼성전자 주식회사 전자 장치의 엣지에서 수행되는 제스처를 기반으로 하는 동작 수행
KR102368044B1 (ko) 2014-11-03 2022-02-25 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
US10048767B2 (en) 2014-11-06 2018-08-14 Samsung Electronics Co., Ltd. Electronic apparatus and method of controlling multi-vision screen including a plurality of display apparatuses
CN104679427B (zh) * 2015-01-29 2017-03-15 努比亚技术有限公司 终端分屏显示方法和系统
CN104915169B (zh) * 2015-05-28 2018-04-27 努比亚技术有限公司 终端应用分屏显示方法及装置
CN106020656A (zh) * 2016-06-30 2016-10-12 努比亚技术有限公司 操作双面显示屏移动终端的装置及方法
US10318130B2 (en) 2016-12-12 2019-06-11 Google Llc Controlling window using touch-sensitive edge

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11366579B2 (en) 2016-12-12 2022-06-21 Google Llc Controlling window using touch-sensitive edge

Also Published As

Publication number Publication date
US20180164987A1 (en) 2018-06-14
US11366579B2 (en) 2022-06-21
US10318130B2 (en) 2019-06-11
CN109791467A (zh) 2019-05-21
US20190286308A1 (en) 2019-09-19
WO2018111361A1 (en) 2018-06-21

Similar Documents

Publication Publication Date Title
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
DE112010002760T5 (de) Benutzerschnittstelle
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
CN101404152B (zh) 信息显示装置
AU2013222958B2 (en) Method and apparatus for object size adjustment on a screen
DE212015000213U1 (de) Multidimensionale Objektneuordnung
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE112013006621T5 (de) Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
DE202016001819U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016001845U1 (de) Berührungseingabe-Cursor-Manipulation
DE112013002387T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
US20130132878A1 (en) Touch enabled device drop zone
US10642471B2 (en) Dual timeline
DE112012007167T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE112012000299T5 (de) Verfahren und Vorrichtung zur Textauswahl
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
DE202017002874U1 (de) Benutzerschnittstelle für Kameraeffekte
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
EP2669783A1 (de) Virtuelles Lineal für Stifteingabe

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years