DE112011102694T5 - Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung - Google Patents

Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung Download PDF

Info

Publication number
DE112011102694T5
DE112011102694T5 DE112011102694T DE112011102694T DE112011102694T5 DE 112011102694 T5 DE112011102694 T5 DE 112011102694T5 DE 112011102694 T DE112011102694 T DE 112011102694T DE 112011102694 T DE112011102694 T DE 112011102694T DE 112011102694 T5 DE112011102694 T5 DE 112011102694T5
Authority
DE
Germany
Prior art keywords
touch
command
display
display area
meta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112011102694T
Other languages
English (en)
Other versions
DE112011102694B4 (de
Inventor
Jan Hendrik Lucas Bakker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MALIKIE INNOVATIONS LTD., IE
Original Assignee
Research in Motion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research in Motion Ltd filed Critical Research in Motion Ltd
Publication of DE112011102694T5 publication Critical patent/DE112011102694T5/de
Application granted granted Critical
Publication of DE112011102694B4 publication Critical patent/DE112011102694B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

Ein Verfahren für eine Benutzereinrichtung (UE – User Equipment) umfasst in Reaktion zumindest zum Teil auf einen ATtention(AT)-Befehl für eine Aktion einer berührungsempfindliche Anzeige ein Emulieren oder Berichten einer Meta-Navigations-Geste für eine berührungsempfindliche Eingabe mit einem Anzeigebereich und einem Nicht-Anzeigebereich.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft elektronische Vorrichtungen, einschließlich, aber nicht darauf beschränkt, tragbare elektronische Vorrichtungen mit berührungsempfindlichen Anzeigen.
  • HINTERGRUND
  • Elektronische Vorrichtungen, einschließlich tragbare elektronische Vorrichtungen, haben eine weit verbreitete Verwendung erlangt und können eine Vielzahl von Funktionen vorsehen, einschließlich, zum Beispiel, telefonische, elektronische Nachrichten- und andere persönliche Informationsverwaltungs(PIM – personal information manager)-Anwendungs-Funktionen. Tragbare elektronische Vorrichtungen umfassen mehrere Typen von Vorrichtungen, einschließlich mobiler Stationen, wie einfache zellulare Telefone, Smartphones, drahtlose persönliche digitale Assistenten (PDAs – Personal Digital Assistants), Tablet-Computer und Laptop-Computer mit drahtlosen Netzwerkkommunikationen oder Nahfeldkommunikations-Konnektivität, wie Bluetooth®-Fähigkeiten.
  • Tragbare elektronische Vorrichtungen, wie PDAs oder Tablet-Computer, sind im Allgemeinen für eine handgehaltene Verwendung und zur einfachen Portabilität vorgesehen. Kleinere Vorrichtungen sind im Allgemeinen wünschenswert für die Portabilität. Eine berührungsempfindliche Anzeige, auch als eine Berührungsbildschirm-Anzeige bekannt, ist insbesondere nützlich auf handgehaltenen Vorrichtungen, die klein sind und begrenzten Platz haben für eine Benutzereingabe und -ausgabe. Die Information, die auf der berührungsempfindlichen Anzeige angezeigt wird, kann modifiziert werden abhängig von den Funktionen und Operationen, die durchgeführt werden.
  • Verbesserungen in elektronischen Vorrichtungen mit berührungsempfindlichen Anzeigen sind wünschenswert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsbeispiele der vorliegenden Offenbarung werden nun auf beispielhafte Weise unter Bezugnahme auf die beigefügten Figuren beschrieben, wobei:
  • 1 ein Blockdiagramm einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel ist;
  • 2 eine Vorderansicht eines Beispiels einer tragbaren elektronischen Vorrichtung ist;
  • 3 Beispiele von Berührungen auf der tragbaren elektronischen Vorrichtung von 2 zeigt;
  • 4 ein Ablaufdiagramm ist, das ein Verfahren zum Steuern der tragbaren elektronischen Vorrichtung in Übereinstimmung mit der Offenbarung zeigt;
  • 5 Beispiele von Assoziationen zwischen Meta-Navigations-Gesten und Information von verschiedenen Anwendungen oder Anwendungsfunktionen zeigt;
  • 6 ein Beispiel von funktionalen Komponenten einer Benutzereinrichtung zeigt, wie die tragbare elektronische Vorrichtung von 1; und
  • 7 ein Sequenzdiagramm ist, das ein Beispiel einer Verwendung von AT-Befehlen zeigt, um Gesten relativ zu einer Ausrichtung zu emulieren.
  • DETAILLIERTE BESCHREIBUNG
  • Im Folgenden wird eine Benutzereinrichtung (UE – user equipment) und ein Verfahren beschrieben, das, in Reaktion zumindest zum Teil auf einen ATtention(AT)-Befehl für eine Aktion einer berührungsempfindlichen Anzeige, ein Emulieren einer Meta-Navigations-Geste für eine berührungsempfindliche Eingabevorrichtung mit einem Anzeigebereich und einem Nicht-Anzeigebereich umfasst.
  • Zur Einfachheit und Übersichtlichkeit der Darstellung können Bezugszeichen bei den Figuren wiederholt werden, um entsprechende oder analoge Elemente zu bezeichnen. Zahlreiche Details werden dargelegt, um ein Verständnis der hier beschriebenen Ausführungsbeispiele zu ermöglichen. Die Ausführungsbeispiele können ohne diese Details praktiziert werden. In anderen Instanzen wurden weithin bekannte Verfahren, Vorgänge und Komponenten nicht im Detail beschrieben, um ein Verdecken der beschriebenen Ausführungsbeispiele zu vermeiden. Die Beschreibung soll nicht als auf den Umfang der hier beschriebenen Ausführungsbeispiele beschränkt angesehen werden.
  • Die Offenbarung betrifft im Allgemeinen eine elektronische Vorrichtung, wie eine tragbare elektronische Vorrichtung. Beispiele für tragbare elektronische Vorrichtungen umfassen drahtlose Kommunikationsvorrichtungen wie Pager, mobile oder zellulare Telefone, Smartphones, drahtlose Organizer, PDAs, Notebook-Computer, Netbook-Computer, Tablet-Computer und so weiter. Die tragbare elektronische Vorrichtung kann auch eine tragbare elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein. Beispiele umfassen eine handgehaltene elektronische Spiele-Vorrichtung, ein digitales Fotoalbum, eine digitale Kamera, Notebook-Computer, Netbook-Computer, Tablet-Computer oder eine andere Vorrichtung.
  • Ein Blockdiagramm eines Beispiels einer tragbaren elektronischen Vorrichtung 100 wird in 1 gezeigt. Die tragbare elektronische Vorrichtung 100 umfasst mehrere Komponenten, wie einen Prozessor 102, der den Gesamtbetrieb der tragbaren elektronischen Vorrichtung 100 steuert. Die hier beschriebene tragbare elektronische Vorrichtung 100 umfasst optional ein Kommunikationsteilsystem 104 und ein Nahbereichskommunikationsmodul 132, um verschiedene Kommunikationsfunktionen durchzuführen, einschließlich Daten- und Sprachkommunikationen. In dem vorliegenden Beispiel ist eine Nahbereichskommunikation enthalten. Jeder geeignete Typ einer drahtlosen Kommunikation kann statt oder zusätzlich zu der Nahbereichskommunikation verwendet werden. Daten, die von der tragbaren elektronischen Vorrichtung 100 empfangen werden, werden durch einen Decodierer 106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem 104 empfängt Nachrichten von einem drahtlosen Netzwerk 150 und sendet Nachrichten an dieses. Das drahtlose Netzwerk 150 kann jeder Typ eines drahtlosen Netzwerks sein, einschließlich, aber nicht darauf beschränkt, drahtlose Datennetzwerke, drahtlose Sprachnetzwerke, und Netzwerke, die sowohl Sprach- als auch Datenkommunikationen unterstützen. Eine Energiequelle 142, wie eine oder mehrere wiederaufladbare Batterien oder ein Anschluss zu einer externen Energieversorgung, versorgt die tragbare elektronische Vorrichtung 100 mit Energie.
  • Der Prozessor 102 interagiert mit anderen Komponenten, wie ein Arbeitsspeicher (RAM – Random Access Memory) 108, ein Speicher 110, eine Anzeige 112 mit einer berührungsempfindlichen Überlagerung 114, die betriebsfähig mit einer elektronischen Steuervorrichtung 116 verbunden ist, die zusammen eine berührungsempfindliche Eingabevorrichtung für eine berührungsempfindliche Anzeige 118 bilden, ein oder mehrere Aktuator(en) 120, ein oder mehrere Kraftsensor(en) 122, ein zusätzliches Eingabe/Ausgabe(E/A bzw. I/O – input/output)-Teilsystem 124, ein Datenanschluss 126, ein Lautsprecher 128, ein Mikrofon 130, Nahbereichskommunikationen 132 und andere Vorrichtungsteilsysteme 134. Eine Benutzerinteraktion mit einer graphischen Benutzerschnittstelle wird über die berührungsempfindliche Überlagerung 114 durchgeführt. Der Prozessor 102 interagiert mit der berührungsempfindlichen Überlagerung 114 über die elektronische Steuervorrichtung 116. Information, wie Text, Zeichen, Symbole, Bilder, Icons und andere Elemente, die auf einer tragbaren elektronischen Vorrichtung angezeigt oder dargestellt werden können, wird auf der berührungsempfindlichen Anzeige 118 über den Prozessor 102 angezeigt. Der Prozessor 102 kann mit einem Ausrichtungssensor 136, wie einem Beschleunigungsmesser, interagieren, um eine Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen, um zum Beispiel die Ausrichtung der tragbaren elektronischen Vorrichtung 100 zu bestimmen.
  • Um einen Teilnehmer für einen Netzwerkzugriff zu identifizieren, kann die tragbare elektronische Vorrichtung 100 eine UICC (Universal Integrated Circuit Card) verwenden. Die UICC ist eine Smartcard, die in einer Benutzereinrichtung (UE – User Equipment), wie der tragbaren elektronischen Vorrichtung 100, in GSM(Global System for Mobile Communications)- und UMTS(Universal Mobile Telecommunications System)-Netzwerken verwendet wird. Die UICC wird verwendet, um die Integrität und Sicherheit von persönlichen Daten sicherzustellen. Zum Beispiel enthält in einem GSM-Netzwerk die UICC eine SIM(Subscriber Identity Module)-Anwendung. In einem UMTS-Netzwerk verwendet die UICC die USIM(Universal Subscriber Identity Module)-Anwendung. In einem CDMA(Code Division Multiple Access)-Netzwerk kann die UE ein RUIM(Removable User Identity Module) umfassen. Die tragbare elektronische Vorrichtung 100 kann das SIM/USIM/RUIM 138 zur Kommunikation mit einem Netzwerk verwenden, wie dem drahtlosen Netzwerk 150. Alternativ kann eine Benutzeridentifikationsinformation in dem Speicher 110 programmiert sein.
  • Die tragbare elektronische Vorrichtung 100 umfasst ein Betriebssystem 146 und Software-Programme oder Komponenten 148, die durch den Prozessor 102 ausgeführt werden und typischerweise in einem persistenten aktualisierbaren Speicher gespeichert werden, wie dem Speicher 110. Zusätzliche Anwendungen oder Programme können auf die tragbare elektronische Vorrichtung 100 geladen werden über das drahtlose Netzwerk 150, das Hilfs-E/A-Teilsystem 124, den Datenanschluss 126, das Nahbereichskommunikationsteilsystem 132 oder jedes andere geeignete Teilsystem 134.
  • Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite, wird durch das Kommunikationsteilsystem 104 verarbeitet und in den Prozessor 102 eingegeben. Der Prozessor 102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige 112 und/oder das Hilfs-E/A-Teilsystem 124. Ein Teilnehmer kann Datenelemente erzeugen, zum Beispiel Email-Nachrichten, die über das drahtlose Netzwerk 150 durch zum Beispiel das Kommunikationsteilsystem 104 übertragen werden können.
  • Die berührungsempfindliche Anzeige 118 kann jede geeignete berührungsempfindliche Anzeige sein, wie eine kapazitive, resistive, Infrarot-, „akustische Oberflächenwelle (SAW – surface acoustic wave)” berührungsempfindliche Anzeige, Dehnungsmesser, optische Abbildung, dispersive Signaltechnologie, akustische Pulserkennung, und so weiter, wie in der Technik bekannt ist. In dem hier beschriebenen beispielhaften Ausführungsbeispiel ist die berührungsempfindliche Anzeige 118 eine kapazitive berührungsempfindliche Anzeige, die eine kapazitive berührungsempfindliche Überlagerung 114 umfasst. Die Überlagerung 114 kann eine Anordnung von mehreren Schichten in einem Stapel sein, der zum Beispiel ein Substrat, eine Masseabschirmungsschicht, eine Sperrschicht, eine oder mehrere kapazitive Berührungssensor-Schichten, die durch ein Substrat oder eine andere Barriere getrennt sind, und eine Abdeckung umfassen kann. Die kapazitiven Berührungssensor-Schichten können jedes geeignete Material sein, wie gemustertes Indium-Zinn-Oxid (ITO – indium tin oxide).
  • Die Anzeige 112 der berührungsempfindlichen Anzeige 118 umfasst einen Anzeigebereich 206, in dem Information angezeigt werden kann, und einen Nicht-Anzeigebereich 208, der sich um den Umfang des Anzeigebereichs 206 erstreckt. Information wird in dem Nicht-Anzeigebereich 208 nicht angezeigt, der verwendet wird, um zum Beispiel elektronische Bahnen oder elektrische Verbindungen, Klebstoffe oder andere Dichtmittel, und/oder Schutzschichten um die Ränder des Anzeigebereichs 206 aufzunehmen.
  • Eine oder mehrere Berührungen, auch als Berührungskontakte oder Berührungsereignisse bekannt, können von der berührungsempfindlichen Anzeige 118 erfasst werden. Der Prozessor 102 kann Attribute der Berührung bestimmen, einschließlich einer Position einer Berührung. Berührungspositionsdaten können einen Kontaktbereich oder einen einzelnen Kontaktpunkt umfassen, wie einen Punkt an oder nahe einer Mitte des Kontaktbereichs, als Zentroid bekannt. Ein Signal wird an die Steuervorrichtung 116 geliefert in Reaktion auf ein Erfassen einer Berührung. Eine Berührung kann von jedem geeigneten Objekt erfasst werden, wie einem Finger, Daumen, Gliedmaß oder anderen Elementen, zum Beispiel ein Stylus, Stift oder anderer Zeiger, abhängig von dem Typ der berührungsempfindlichen Anzeige 118. Die Position der Berührung verschiebt sich, wenn sich das erfasste Objekt während einer Berührung bewegt. Die Steuervorrichtung 116 und/oder der Prozessor 102 können eine Berührung durch jedes geeignete Kontaktelement auf der berührungsempfindlichen Anzeige 118 erfassen. Ähnlich werden mehrere gleichzeitige Berührungen erfasst. Wenn mehrere gleichzeitige Berührungen emuliert oder angezeigt werden zwischen Komponenten in einer Vorrichtung, zum Beispiel über eine Anwendungsprogrammierungsschnittstelle (API – Application Programming Interface), kann ein eindeutiger Identifizierer mit einer gleichzeitigen Berührung assoziiert werden. Zum Beispiel kann der eindeutige Identifizierer ein Nicht-Null-Ganzzahl-Wert N sein, der die N-te gleichzeitige Berührungsaktion repräsentiert, die auf der berührungsempfindlichen Anzeige 118 durchgeführt wird. Eine Berührung kann mehrere Ereignisse umfassen. Zum Beispiel kann eine Berührung ein erstes Ereignis umfassen, das anzeigt, dass der Bildschirm, der der Anzeigebereich 206 oder der Nicht-Anzeigebereich 208 sein kann, an einer ersten Koordinatenposition auf der berührungsempfindlichen Anzeige 118 gedrückt wird (eine Berührung wird erfasst), und ein zweites Ereignis, das anzeigt, dass das Drücken des Bildschirms an einer zweiten Koordinatenposition auf der berührungsempfindlichen Anzeige 118 beendet wird (d. h. freigegeben) (die Berührung wird beendet oder abgebrochen). Die zweite Koordinatenposition der Berührung, wenn abgebrochen, kann sich von der ersten Koordinatenposition der Berührung unterscheiden, wenn die Berührung anfangs erfasst wird. Wenn die ersten und zweiten Ereignisse eine gleichzeitige Berührung oder eine Mehrfachberührungsgeste darstellen, können die Ereignisse korreliert sein oder die Berührungen können durch denselben eindeutigen Identifizierer identifiziert werden.
  • Eine oder mehrere Gesten werden ebenfalls auf der berührungsempfindlichen Anzeige 118 erfasst. Eine Geste ist ein bestimmter Typ einer Berührung auf einer berührungsempfindlichen Anzeige 118, die an einem Ursprungspunkt beginnt und bis zu einem Endpunkt weitergeht. Eine Geste kann durch Attribute der Geste identifiziert werden, einschließlich zum Beispiel des Ursprungspunkts, des Endpunkts, der zurückgelegten Entfernung, der Dauer, der Geschwindigkeit und der Richtung. Eine Geste kann in der Entfernung und/oder der Dauer lang oder kurz sein. Zwei Punkte der Geste können verwendet werden, um eine Richtung der Geste zu bestimmen. In einigen Implementierungen kann ein Koordinatensystem, das verwendet wird, um Positionen oder Punkte auf einer berührungsempfindlichen Anzeige 118 zu identifizieren, fest sein, d. h. die Ursprungskoordinate (0,0) des Koordinatensystems ändert sich nicht abhängig von der Ausrichtung der tragbaren elektronischen Vorrichtung 100.
  • Ein Beispiel für eine Geste ist ein Swipe bzw. eine Wischbewegungs-Geste (auch als ein „Flick” bekannt). Eine Wischbewegungs-Geste hat eine einzige Richtung. Die berührungsempfindliche Überlagerung 114 kann Wischbewegungs-Gesten in Bezug auf den Ursprungspunkt evaluieren, an dem zuerst ein Kontakt mit der berührungsempfindlichen Überlagerung 114 gemacht wird, und den Endpunkt, an dem der Kontakt mit der berührungsempfindlichen Überlagerung 114 endet, anstatt jede einer Kontaktposition oder eines Kontaktpunkts über die Dauer der Geste zu verwenden, um eine Richtung zu erkennen.
  • Beispiele für Wischbewegungs-Gesten umfassen eine horizontale Wischbewegungs-Geste, eine vertikale Wischbewegungs-Geste und eine diagonale Wischbewegungs-Geste. Eine horizontale Wischbewegungs-Geste weist typischerweise auf einen Ursprungspunkt in der Nähe der linken oder rechten Seite der berührungsempfindlichen Überlagerung 114, um die Geste zu initialisieren, eine horizontale Bewegung des erfassten Objekts von dem Ursprungspunkt zu einem Endpunkt in der Nähe der rechten oder linken Seite der berührungsempfindlichen Überlagerung 114 unter Beibehaltung eines kontinuierlichen Kontakts mit der berührungsempfindlichen Überlagerung 114, und ein Abbrechen des Kontakts mit der berührungsempfindlichen Überlagerung 114. Ähnlich weist eine vertikale Wischbewegungs-Geste typischerweise auf einen Ursprungspunkt in der Nähe von oben oder unten der berührungsempfindlichen Überlagerung 114, um die Geste zu initialisieren, eine vertikale Bewegung des erfassten Objekts von dem Ursprungspunkt zu einem Endpunkt in der Nähe von unten oder oben der berührungsempfindlichen Überlagerung 114 unter Beibehaltung eines kontinuierlichen Kontakts mit der berührungsempfindlichen Überlagerung 114, und ein Abbrechen des Kontakts mit der berührungsempfindlichen Überlagerung 114.
  • Die Begriffe oben, unten, rechts und links werden hier zum Zweck eines Vorsehens einer Referenz verwendet und beziehen sich auf einen Rand oder eine Seite der berührungsempfindlichen Anzeige 118 der tragbaren elektronischen Vorrichtung 100 relativ zu der Ausrichtung, in der die Information, die mit der Anwendung assoziiert ist, angezeigt wird.
  • Wie oben beschrieben, kann ein Ausrichtungssensor 136, wie ein Beschleunigungsmesser, verwendet werden, um die Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen, um zum Beispiel die Ausrichtung bzw. Orientierung der tragbaren elektronischen Vorrichtung 100 zu bestimmen und Veränderungen von einer Ausrichtung zu einer anderen zu erfassen. Alternativ können andere Mittel zum Erfassen der Ausrichtung und einer Änderung der Ausrichtung verwendet werden. Vier Ausrichtungen können zum Beispiel verwendet werden. Die Ausrichtung der tragbaren elektronischen Vorrichtung 100 kann durch eine Anwendung oder eine Anwendungsfunktion oder ein Anwendungsprogramm verwendet werden, um zum Beispiel zu bestimmen, ob eine Wischbewegungs-Geste eine horizontale Wischbewegungs-Geste oder eine vertikale Wischbewegungs-Geste ist, und welche Seiten der berührungsempfindlichen Anzeige 118 die obere, die untere, die linke Seite und die rechte Seite sind. Die Ausrichtung der tragbaren elektronischen Vorrichtung 100 kann basierend auf einer Ausgabe von dem Ausrichtungssensor 136 bestimmt werden und die Ausrichtung kann zum Beispiel identifiziert werden durch Identifizieren eines Merkmals der berührungsempfindlichen Anzeige 118 als eine Referenz. Zum Beispiel können Koordinatenwerte einer Ecke des Nicht-Anzeigebereichs 208 als die obere linke Ecke identifiziert werden. Alternativ kann eine Seite der berührungsempfindlichen Anzeige 118 als die obere Seite identifiziert werden. Die Seite kann zum Beispiel identifiziert werden durch Identifizieren von Koordinatenwerten der oberen linken Ecke und Koordinatenwerten der oberen rechten Ecke. Andere Ecken oder Seiten können alternativ identifiziert werden. Durch Identifizieren einer Ecke oder einer Seite, kann die Richtung und die Ausrichtung der Wischbewegungs-Geste relativ zu der Ausrichtung der tragbaren elektronischen Vorrichtung 100 und relativ zu der Ausrichtung bestimmt werden, in der die Information, die mit der Anwendung assoziiert ist, angezeigt wird.
  • Alternativ können Seiten der berührungsempfindlichen Anzeige 118 eine „normale” Ausrichtung haben derart, dass die vier Seiten mit statischen Bezeichnungen bezeichnet werden. Die statischen Bezeichnungen können zum Beispiel „oben”, „unten”, „rechte Seite” und „linke Seite” umfassen und diese Bezeichnungen können Positionen der Seiten in einer normalen oder aufrechten Ausrichtung entsprechen, in der die tragbare elektronische Vorrichtung 100 positioniert oder gehalten wird. Somit kann, wenn abgefragt, die Ausrichtung derart sein, dass die mit „rechts” bezeichnete Seite auf der linken Seite ist oder die mit „oben” bezeichnete Seite an der unteren Seite ist. Die Ausrichtung kann unter Verwendung eines einzelnen Werts bestimmt werden, der zum Beispiel einen Winkel in Grad von der „normalen” Ausrichtung repräsentiert. Eine Ausrichtung von 180 Grad kann anzeigen, dass die aktuelle Ausrichtung der tragbaren elektronischen Vorrichtung 100 derart ist, dass die Seite mit den physikalischen Koordinaten (x, y) an der linken Seite die Seite oben in der Ausrichtung ist, in der die tragbare elektronische Vorrichtung 100 positioniert oder gehalten wird. Alternativ können zwei Werte verwendet werden, um eine Ausrichtung zu identifizieren. Die zwei Werte können Winkel relativ zu den Ursprungskoordinaten repräsentieren. Jeder Wert entspricht einem Winkel in einer anderen Richtung, um eine Darstellung der Ausrichtung der Vorrichtung in drei Dimensionen zu erleichtern. Eine Verwendung von zwei Werten, einem Winkel in Grad relativ zu der normalen Ausrichtung und einer Neigung der tragbaren elektronischen Vorrichtung 100, kann angezeigt werden.
  • Wischbewegungs-Gesten können verschiedene Längen haben, können an verschiedenen Stellen auf der berührungsempfindlichen Überlagerung 114 initiiert werden, und müssen sich nicht über die volle Dimension der berührungsempfindlichen Überlagerung 114 erstrecken. Zusätzlich kann ein Abbrechen des Kontakts einer Wischbewegungs-Geste allmählich sein, indem der Kontakt mit der berührungsempfindlichen Überlagerung 114 allmählich reduziert wird, während die Wischbewegung noch in Gange ist.
  • Meta-Navigations-Gesten können ebenfalls von der berührungsempfindlichen Überlagerung 114 erfasst werden. Eine Meta-Navigations-Geste ist eine Geste, die einen Ursprungspunkt hat, der sich außerhalb des Anzeigebereichs 206 der berührungsempfindlichen Überlagerung 114 befindet und der sich an eine Position auf dem Anzeigebereich 206 der berührungsempfindlichen Anzeige 118 bewegt. Andere Attribute der Geste können erfasst und verwendet werden, um die Meta-Navigations-Geste zu erfassen. Meta-Navigations-Gesten können auch Mehrfachberührungsgesten umfassen, bei denen Gesten gleichzeitig sind oder sich zeitlich überlappen, und wobei zumindest eine der Berührungen einen Ursprungspunkt hat, der außerhalb des Anzeigebereichs 206 ist und sich an eine Position auf dem Anzeigebereich 206 der berührungsempfindlichen Überlagerung 114 bewegt. Somit können zwei Finger für Meta-Navigations-Gesten benutzt werden. Ferner können Mehrfachberührungs-Meta-Navigations-Gesten von Einzelberührungs-Meta-Navigations-Gesten unterschieden werden und können zusätzliche oder weitere Funktionalität bieten.
  • In einigen beispielhaften Ausführungsbeispielen ist/sind ein optionaler Kraftsensor 122 oder Kraftsensoren an einer geeigneten Position angeordnet, zum Beispiel zwischen der berührungsempfindlichen Anzeige 118 und einer Rückseite der tragbaren elektronischen Vorrichtung 100, um eine Kraft zu erfassen, die durch eine Berührung auf die berührungsempfindliche Anzeige 118 weitergegeben wird. Der Kraftsensor 122 kann ein kraftempfindlicher Resistor, ein Dehnungsmesser, eine piezoelektrische oder piezoresistive Vorrichtung, ein Drucksensor oder eine andere geeignete Vorrichtung sein. Kraft, wie in der Spezifikation verwendet, bezieht sich auf Kraft-Messungen, -Schätzungen und/oder -Berechnungen, wie Druck, Deformation, Belastung, Dehnung, Kraftdichte, Kraft-Bereichs-Beziehungen, Schub, Drehkraft und andere Effekte, die Kraft oder verwandte Quantitäten umfassen.
  • Eine Kraftinformation in Bezug auf eine erfasste Berührung kann verwendet werden, um Information auszuwählen, wie Information, die mit einer Position einer Berührung assoziiert ist. Zum Beispiel kann eine Berührung, die nicht eine Kraftschwelle erreicht, eine Auswahloption hervorheben, während eine Berührung, die eine Kraftschwelle erreicht, diese Auswahloption auswählen oder eingeben kann. Auswahloptionen umfassen zum Beispiel angezeigte oder virtuelle Tasten einer Tastatur; Auswahlboxen oder -fenster, zum Beispiel „abbrechen”, „löschen” oder „entsperren”; Funktionsschaltflächen bzw. -knöpfe, wie „Wiedergabe” oder „Stopp” auf einer Musikabspielvorrichtung; und so weiter. Unterschiedliche Größen von Kraft können mit verschiedenen Funktionen oder Eingabe assoziiert sein. Zum Beispiel kann eine geringere Kraft zu einem Verschieben bzw. Panning führen, und eine größere Kraft kann zu einem Zoomen führen.
  • Eine Vorderansicht eines Beispiels der tragbaren elektronischen Vorrichtung 100 wird in 2 gezeigt. Die tragbare elektronische Vorrichtung 100 umfasst ein Gehäuse 202, das Komponenten umschließt, wie die in 1 gezeigten. Das Gehäuse 202 kann eine Rückseite, Seitenwände und eine Vorderseite 204 umfassen, die die berührungsempfindliche Anzeige 118 umrahmt.
  • In dem gezeigten Beispiel von 2 ist die berührungsempfindliche Anzeige 118 im Allgemeinen in der Mitte des Gehäuses 202 derart angeordnet, dass ein Anzeigebereich 206 der berührungsempfindlichen Überlagerung 114 im Allgemeinen zentriert ist in Bezug auf die Vorderseite 204 des Gehäuses 202. Der Nicht-Anzeigebereich 208 der berührungsempfindlichen Überlagerung 114 erstreckt sich um den Anzeigebereich 206 herum. In dem hier beschriebenen beispielhaften Ausführungsbeispiel ist die Breite des Nicht-Anzeigebereichs 208 4 mm.
  • Für den Zweck des vorliegenden Beispiels ist die berührungsempfindliche Überlagerung 114 angeordnet, um den Anzeigebereich 206 und den Nicht-Anzeigebereich 208 abzudecken. Berührungen auf dem Anzeigebereich 206 können erfasst werden und können zum Beispiel mit angezeigten auswählbaren Merkmalen assoziiert sein. Berührungen auf dem Nicht-Anzeigebereich 208 können erfasst werden, um zum Beispiel eine Meta-Navigations-Geste zu erfassen. Alternativ können Meta-Navigations-Gesten durch sowohl den Nicht-Anzeigebereich 208 als auch den Anzeigebereich 206 bestimmt werden. Die Dichte von Berührungssensoren kann von dem Anzeigebereich 206 zu dem Nicht-Anzeigebereich 208 verschieden sein. Zum Beispiel kann sich die Dichte von Knoten in einer gegenseitig kapazitiven berührungsempfindlichen Anzeige oder die Dichte von Positionen, an denen Elektroden einer Schicht über Elektroden einer anderen Schicht kreuzen, zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 unterscheiden.
  • Gesten, die auf der berührungsempfindlichen Anzeige 118 empfangen werden, können basierend auf den Attributen analysiert werden, um zwischen Meta-Navigations-Gesten und anderen Berührungen oder Nicht-Meta-Navigations-Gesten zu unterscheiden. Meta-Navigations-Gesten können identifiziert werden, wenn die Geste über eine Grenze in der Nähe einer Peripherie der Anzeige 112 geht, wie eine Grenze 210 zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208. In dem Beispiel von 2 kann der Ursprungspunkt einer Meta-Navigations-Geste bestimmt werden unter Verwendung des Bereichs der berührungsempfindlichen Überlagerung 114, die den Nicht-Anzeigebereich 208 abdeckt.
  • Ein Berührung, wie eine Geste, kann mehrere Ereignisse umfassen. Diese Ereignisse können berichtet werden (zum Beispiel zwischen Komponenten der tragbaren elektronischen Vorrichtung 100 oder UE). Meta-Navigations-Gesten können erfasst werden zum Beispiel durch Bestimmen, dass eine Geste einen Ursprungspunkt hat, der außerhalb des Anzeigebereichs 206 oder einer Grenze zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 ist, und einen Endpunkt, der innerhalb der Grenze ist. Die Grenze kann durch Erlangen der Koordinatengröße der berührungsempfindlichen Überlagerung 114 und der Größe und der Koordinatenposition des Anzeigebereichs 206 bestimmt werden. Die Koordinatengröße der berührungsempfindlichen Überlagerung 114 kann zum Beispiel erlangt werden beginnend bei (0,0) Koordinatenwerten und unter Verwendung eines maximalen x-Koordinatenwerts und eines maximalen y-Koordinatenwerts. Die Grenze des Anzeigebereichs 206 kann zum Beispiel bestimmt werden unter Verwendung der x- und y-Koordinatenwerte für die obere linke Ecke des Anzeigebereichs 206 und der x- und y-Koordinatenwerte für die untere rechte Ecke des Anzeigebereichs 206.
  • Die Bestimmung der Lage der Grenze kann ausgeführt werden derart, dass Meta-Navigations-Gesten für eine Anwendung bestimmt werden können. Meta-Navigations-Gesten können bestimmt und verwendet werden durch elektronische Vorrichtungen unterschiedlicher Größen, einschließlich verschieden großer Nicht-Anzeigebereiche und/oder verschieden großer Anzeigebereiche. Somit kann dieselbe Anwendung oder dasselbe Programm auf elektronischen Vorrichtungen ablaufen, die unterschiedliche Größen von Anzeigebereichen und/oder unterschiedliche Größen von Nicht-Anzeigebereichen haben.
  • Ein Pufferbereich 212 oder Band, der/das sich um die Grenze 210 zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 herum erstreckt, kann verwendet werden derart, dass eine Meta-Navigations-Geste identifiziert wird, wenn eine Berührung einen Ursprungspunkt außerhalb der Grenze 210 und des Pufferbereichs 212 hat und durch den Pufferbereich 212 und über die Grenze 210 bis zu einem Punkt innerhalb der Grenze 210 geht. Obgleich in 2 dargestellt, muss der Pufferbereich 212 nicht sichtbar sein. Stattdessen kann der Pufferbereich 212 ein Bereich um die Grenze 210 sein, der sich in eine Breite erstreckt, die zum Beispiel gleich ist zu einer vorgegebenen Anzahl von Pixeln. Alternativ kann sich die Grenze 210 eine vorgegebene Anzahl von Berührungssensoren erstrecken oder kann sich einen vorgegebenen Abstand von dem Anzeigebereich 206 erstrecken. Die Grenze 210 kann ein berührungsempfindlicher Bereich sein oder kann ein Bereich sein, in dem Berührungen nicht erfasst werden. Die Grenze kann bestimmt werden, wie oben beschrieben wird, durch Erlangen der Koordinatengröße der berührungsempfindlichen Überlagerung 114 und der Größe und der Koordinatenposition des Anzeigebereichs 206. Eine Breite des Pufferbereichs kann auch verwendet werden, um Meta-Navigations-Gesten zu erfassen.
  • Gesten, die in dem Pufferbereich 212 beginnen, zum Beispiel, können als Nicht-Meta-Navigations-Gesten identifiziert werden. Optional können Daten von solchen Gesten von einer Anwendung als eine Nicht-Meta-Navigations-Geste verwendet werden. Alternativ können Daten von solchen Gesten verworfen werden derart, dass Berührungen, die einen Ursprungspunkt auf dem Pufferbereich 212 haben, nicht als Eingabe an der tragbaren elektronischen Vorrichtung 100 verwendet werden.
  • 3 zeigt Beispiele von Berührungen auf der berührungsempfindlichen Anzeige 118. Der Pufferbereich 212 wird in 3 durch Schraffur-Markierungen zum Zweck einer Erläuterung dargestellt. Wie angegeben, kann der Pufferbereich 212 für den Benutzer nicht sichtbar sein. Zum Zweck der Erläuterung werden Berührungen durch Kreise an ihren Ursprungspunkten dargestellt. Pfeile, die sich von den Kreisen erstrecken, zeigen die Pfade der Berührungen, die Gesten sind.
  • Die Berührung 302 beginnt an dem Ursprungspunkt außerhalb der Grenze 210 und außerhalb des Pufferbereichs 212. Der Pfad der Berührung 302 überquert den Pufferbereich 212 und die Grenze 210 und wird daher als eine Meta-Navigations-Geste identifiziert. Ähnlich haben die Berührungen 304, 306, 308, 310, 312, 314, 316 jeweils Ursprungspunkte außerhalb der Grenze 210 und des Pufferbereichs 212 und ihre Pfade überqueren den Pufferbereich 212 und die Grenze 210. Jede der Berührungen 304, 306, 308, 310, 312, 314, 316 wird daher als eine Meta-Navigations-Geste identifiziert. Die Berührung 318 hat jedoch einen Ursprungspunkt, der in den Pufferbereich 212 fällt, und die Berührung 318 wird daher nicht als eine Meta-Navigations-Geste identifiziert. Die Berührung 320 beginnt an einem Ursprungspunkt außerhalb der Grenze 210 und des Pufferbereichs 212. Der Pfad der Berührung 320 überquert jedoch nicht die Grenze 210 und wird daher nicht als eine Meta-Navigations-Geste identifiziert. Die Berührung 322 hat ebenfalls einen Ursprungspunkt außerhalb der Grenze 210 und des Pufferbereichs 212, ist jedoch keine Geste und überquert daher nicht die Grenze 210 und wird nicht als eine Meta-Navigations-Geste identifiziert.
  • Ein Ablaufdiagramm, das ein Verfahren zum Steuern einer elektronischen Vorrichtung, wie der tragbaren elektronischen Vorrichtung 100, wird in 4 gezeigt. Das Verfahren kann durch computerlesbaren Code ausgeführt werden, der zum Beispiel durch den Prozessor 102 ausgeführt wird. Ein Codieren von Software zur Ausführung eines solchen Verfahrens liegt angesichts der vorliegenden Beschreibung im Anwendungsbereich eines Fachmanns in der Technik. Das Verfahren kann zusätzliche oder weniger Prozesse enthalten, als gezeigt und/oder beschrieben werden, und kann in einer anderen Reihenfolge durchgeführt werden.
  • Das Verfahren kann in jeder geeigneten Anwendung ausgeführt werden, wie einer Heimatbildschirm-Anwendung, einer Email-Anwendung, einer Textnachrichten-Anwendung, einer Kalender-Anwendung, einer Aufgaben-Anwendung, einer Adressbuch-Anwendung, einer Web-Browser-Anwendung oder einer anderen geeigneten Anwendung. Information von der Anwendung, die als die erste Anwendung bezeichnet wird, wird auf der berührungsempfindlichen Anzeige 118 der tragbaren elektronischen Vorrichtung 100 bei 402 angezeigt. Wenn eine Berührung bei 404 erfasst wird, geht der Prozess bei 406 weiter und es wird bestimmt, ob die Berührung eine Meta-Navigations-Geste ist. Die Bestimmung erfolgt basierend auf den Attributen der Berührung, wie oben beschrieben. In Reaktion auf eine Bestimmung, dass die Berührung keine Meta-Navigations-Geste ist, die ein Antippen auf der berührungsempfindlichen Anzeige 118 sein kann oder eine Nicht-Meta-Navigations-Geste sein kann, werden die Berührungsdaten in Verbindung mit der ersten Anwendung verwendet, für die Information auf der berührungsempfindlichen Anzeige 118 zum Zeitpunkt des Empfangs der Geste bei 408 angezeigt wird. In Reaktion auf das Identifizieren der Berührung als eine Meta-Navigations-Geste bei 406, werden die Berührungsdaten in einer zweiten Anwendung verwendet und Information, die mit der zweiten Anwendung oder einer weiteren Anwendung assoziiert ist, wird auf der berührungsempfindlichen Anzeigevorrichtung 118 bei 410 angezeigt. Die Information, die mit der zweiten Anwendung assoziiert ist, kann auf die Information überlagert werden, die mit der ersten Anwendung assoziiert ist, um zum Beispiel eine Navigation zurück zu der Information zu erleichtern, die mit der ersten Anwendung assoziiert ist. Alternativ kann die Information, die mit der zweiten Anwendung assoziiert ist, zum Beispiel Information von einer Systemebene-Navigationsschnittstelle, einer Konfigurationsschnittstelle, einer Benachrichtigungsschnittstelle, einer Status-Schnittstelle, einer Menüschnittstelle, oder Information umfassen, die mit einer anderen Schnittstelle assoziiert ist.
  • Erneut unter Bezugnahme auf 3 können die Berührungen 302, 304, 306, 308, 310, 312, 314, 316, die als Meta-Navigations-Gesten identifiziert werden, jeweils mit Information von einer Anwendung assoziiert werden derart, dass Attribute der Meta-Navigations-Geste, wie der Ursprungspunkt, verwendet werden können, um zu bestimmen, mit welcher Anwendung die Meta-Navigations-Geste assoziiert ist. 5 zeigt Beispiele von Assoziierungen zwischen Meta-Navigations-Gesten und Information von Anwendungen, verschieden von der Anwendung, die mit der Information assoziiert ist, die auf der berührungsempfindlichen Anzeige 118 angezeigt wird zum Zeitpunkt des Empfangs der Geste. Die Beziehungen, die in 5 gezeigt werden, werden nur für illustrative Zwecke gezeigt und sind austauschbar. Weitere Anwendungen und alternative Assoziierungen können verwendet werden.
  • Die Meta-Navigations-Geste 302, die in dem vorliegenden Beispiel in der Nähe einer unteren Mitte der berührungsempfindlichen Anzeige 118 beginnt und einem allgemein vertikalen Pfad in der Ausrichtung folgt, in der die Information von einer aktuellen Anwendung 502 angezeigt wird, veranlasst, dass ein Heimatbildschirm, der mit einer Wurzel-Navigationsanwendung 510 assoziiert ist, die Information ersetzt, die mit der aktuellen Anwendung 502 assoziiert ist. Der Heimatbildschirm umfasst ein Karussell, das die aktuell aktiven Anwendungen anzeigt, in einem oberen Teil der Anzeige angezeigt. Demgemäß werden aktuell aktive Anwendungen in einem durchsuchbaren Karussell in dem oberen Teil des Heimatbildschirms gezeigt. Das Karussell befindet sich an einem oberen Teil des Heimatbildschirms. In dem vorliegenden Beispiel benutzt der obere Teil nur etwa 1/3 des Heimatbildschirms und Anwendungssymbole für nicht-aktive Anwendungen werden in dem unteren Teil des Heimatbildschirms zur einfachen Auswahl vorgesehen.
  • Die Meta-Navigations-Geste 304, die in der Nähe einer linken Mitte der berührungsempfindlichen Anzeige 118 beginnt und einem allgemein seitlichen Pfad folgt, veranlasst, dass die Information, die mit der aktuellen Anwendung 502 assoziiert ist, durch Information ersetzt wird, die mit einer vorherigen Anwendung 506 assoziiert ist, die eine vorherige Anwendung in einer Gruppierung sein kann oder eine Anwendung sein kann, die mit zuvor angezeigter Information assoziiert ist. Die Meta-Navigations-Geste 306, die in der Nähe einer rechten Mitte der berührungsempfindlichen Anzeige 118 beginnt und einem allgemein seitlichen Pfad folgt, veranlasst, dass die Information, die mit der aktuellen Anwendung 502 assoziiert ist, durch Information ersetzt wird, die mit einer nächsten Anwendung 508 assoziiert ist, die eine nächste Anwendung in einer Gruppierung sein kann.
  • Die seitliche Geste in den vorliegenden Beispielen beginnt von entweder der linken Seite oder der rechten Seite der berührungsempfindlichen Anzeige 118 und kann veranlassen, dass die Information, die mit der aktuellen Anwendung 502 assoziiert ist, in der Größe reduziert wird, um einen visuellen Hinweis über andere aktive Anwendungen vorzusehen vor einem Ersetzen der Information mit der vorherigen Anwendung 506 oder der nächsten Anwendung 508. Zum Beispiel kann ein Teil der Information der vorherigen Anwendung 506 in einem dünnen Streifen angrenzend an den Rand oder die Ränder des Anzeigebereichs 206 während der Geste und vor dem Ersetzen der Information, die mit der aktuellen Anwendung 502 assoziiert ist, angezeigt werden. Die Information, die mit der aktuellen Anwendung 502 assoziiert ist, kann mit der vorherigen oder nächsten Anwendung 508 ersetzt werden, wenn die Geste fortgesetzt wird. In einem alternativen Beispiel kann ein Teil der Information der vorherigen Anwendung 506 oder ein Teil der Information für die nächste Anwendung 508 in einem dünnen Streifen angrenzend an die Ränder des Anzeigebereichs 206 angezeigt werden in Reaktion auf einen Empfang einer ersten seitlichen Geste. In diesem Beispiel kann eine Wischbewegung innerhalb des dünnen Streifens ein Scrollen der nächsten und letzten Anwendungen in einer Liste veranlassen. Eine zweite seitliche Meta-Navigations-Geste, wie die Gesten 304, 306, kann verwendet werden, um zu veranlassen, dass die Information, die mit der aktuellen Anwendung 502 assoziiert ist, deren Information in der Größe reduziert ist, ersetzt wird.
  • Die Meta-Navigations-Geste 308, die in der Nähe einer oberen Mitte der berührungsempfindlichen Anzeige 118 beginnt und einem allgemein vertikalen Pfad folgt, veranlasst, dass die Information, die mit der aktuellen Anwendung 502 assoziiert ist, ersetzt wird durch Information, die mit einer Anwendungseinstellungen-Anwendung 504 assoziiert ist.
  • Die Meta-Navigations-Geste 310, die in der Nähe einer oberen linken Ecke der berührungsempfindlichen Anzeige 118 beginnt, veranlasst, dass Information, die mit einer Benachrichtigungsanwendung 512 assoziiert ist, als Kachel(n) über der Information dargestellt wird, die mit der aktuellen Anwendung 502 assoziiert ist. Auf ähnliche Weise veranlasst die Meta-Navigations-Geste 312, die in dem vorliegenden Beispiel in der Nähe einer oberen rechten Ecke der berührungsempfindlichen Anzeige 118 beginnt, dass Information, die mit der Benachrichtigungsanwendung 512 assoziiert ist, als Kachel(n) über der Information dargestellt wird, die mit der aktuellen Anwendung 502 assoziiert ist.
  • Die Meta-Navigations-Geste 314, die in dem vorliegenden Beispiel in der Nähe einer unteren linken Ecke der berührungsempfindlichen Anzeige 118 beginnt, veranlasst, dass Information, die mit einer Status-Anwendung 514 assoziiert ist, als Kachel(n) über der Information dargestellt wird, die mit der aktuellen Anwendung 502 assoziiert ist. Auf ähnliche Weise veranlasst in dem vorliegenden Beispiel die Meta-Navigations-Geste 316, die in der Nähe einer unteren rechten Ecke der berührungsempfindlichen Anzeige 118 beginnt, dass Information, die mit der Status-Anwendung 514 assoziiert ist, als Kachel(n) über der Information dargestellt wird, die mit der aktuellen Anwendung 502 assoziiert ist.
  • ATtention(AT)-Befehle können verwendet werden, um Mobil-Terminierte(MT – Mobile Termination)-Funktionen und Netzwerk-Dienste von einer Endeinrichtung (TE – Terminal Equipment) über einen Terminal-Adapter (TA – Terminal Adapter) zu steuern. AT ist die Zwei-Buchstaben-Abkürzung, die verwendet wird, um eine Befehlszeile zu starten, die von der TE an den TA gesendet wird. Zum Beispiel kann der Berührungsbildschirm-Aktion-Steuerungsbefehl (+CTSA – Touch screen action Control command) verwendet werden, um eine berührungsempfindliche Anzeige einer MT zu betreiben. Die x-y-Koordinaten der tragbaren elektronischen Vorrichtung 100 können fest sein, auch wenn die tragbare elektronische Vorrichtung 100 zur Seite gedreht ist oder von einer Querformat- in eine Hochformat-Ausrichtung oder von einer Hochformat- in eine Querformat-Ausrichtung verändert wird, oder sich die Ausrichtung anderweitig ändert (zum Beispiel über eine Emulation). Eine Meta-Navigations-Geste auf der berührungsempfindlichen Anzeige 118 kann emuliert werden. In dem folgenden Beispiel werden AT-Befehle an die MT gesendet, um eine Berührung durch einen Benutzer einer berührungsempfindlichen Anzeige 118 zu emulieren. Die berührungsempfindliche Anzeige 118 wird an der Position (10,10) berührt, die Berührungsposition wird verschoben (50,50), und dann zu (100,100) verschoben. Die Berührung wird von der berührungsempfindlichen Anzeige 118 entfernt oder abgebrochen an der Position (100,100).
    • • AT +CTSA = 1, 10, 10
    • • AT +CTSA = 1, 50, 50
    • • +CTSA = 0, 100, 100
  • Zusätzlich kann eine Meta-Navigations-Geste auf der berührungsempfindlichen Anzeige 118 durch Vorsehen unangeforderter Ereignisse oder durch Vorsehen unangeforderter Codes berichtet werden. Bei einem Empfangen der Ereignisse oder der Codes kann eine Meta-Navigations-Geste bestimmt werden.
  • Die obigen Beispiele betreffen einen Betrieb durch die TE. Wenn die MT über eine Tastatur der MT betrieben wird, oder die berührungsempfindliche Anzeige 118 der MT verwendet, oder wenn es Änderungen in dem Zustand von Anzeigeelementen gibt, wird Information über diese Aktionen an die TE geliefert. Die Information kann über unangeforderte Ergebniscodes oder unangeforderte AT-Befehls-Antworten geliefert werden, die Tastatur-, Anzeigetext- und Indikator- und berührungsempfindliche Anzeige-Ereignisse zurückgeben. Zum Beispiel gibt der AT-Befehl +CKEV (siehe 3GPP TS 27.007 [http://www.3gpp.org/ftp/Specs/archive/27_series/27.007/27007-a40.zip]) den Taste-Code und eine Angabe zurück, wenn die Taste gedrückt wird (1) oder freigegeben wird (0), und der AT-Befehl +CTEV gibt die Position der Aktion zurück, die auf der berührungsempfindlichen Anzeige 118 durchgeführt wird. In dem folgenden Beispiel wird die Taste gedrückt, die mit der Nummer 1 assoziiert ist, die Anzeige wird aktualisiert, und die Taste wird freigegeben:
    • • +CKEV: 49, 1
    • • +CDEV: 1, „1”
    • • +CKEV: 49, 0
  • Wie oben beschrieben, kann eine Ecke des Nicht-Anzeigebereichs 208 als die obere linke Ecke identifiziert werden. Ein AT-Befehl, „Befehl Bildschirmausrichtung (CSO – Command Screen Orientation)” kann verwendet werden, um die Ausrichtung der berührungsempfindlichen Anzeige 118 zu setzen oder zurückzulesen. Tabelle 1 zeigt CSO-Befehle und beispielhafte Antworten auf die CSO-Befehle. Die folgenden syntaktischen Definitionen gelten:
    • • <CR> Carriage-Return-Zeichen, dessen Wert mit dem Befehl S3 spezifiziert wird.
    • • <LF> Zeilenvorschub(Linefeed)-Zeichen, dessen Wert mit dem Befehl S4 spezifiziert wird.
    • • <...> Name in spitzen Klammern ist ein syntaktisches Element. Klammern erscheinen nicht in der Befehlszeile.
    • • [...] Optionaler Teilparameter eines Befehls oder ein optionaler Teil einer TA-Informations-Antwort ist in eckigen Klammern enthalten. Klammern erscheinen nicht in der Befehlszeile. Wenn ein Teilparameter nicht in Parameter-Typ-Befehlen gegeben wird, ist der neue Wert gleich der vorherige Wert.
    Tabelle 1: +CSO-Parameter-Befehls-Syntax
    Befehl Beispielhafte Antwort(en)
    +CSO=[<orientation>,[<TO p_Left_X>,<Top_Left_Y]] +ERROR: <err>
    +CSO? +CSO: <orientation>,<Top_Left_X>,<Top_Left_Y> +ERROR: <err>
    +CSO=? +CSO: (list of supported <orientations>) +ERROR: <err>
  • Das obere linke (Top_Left) X kann eine positive Ganzzahl sein, die die x-Koordinate des oberen linken Pixels repräsentiert, und das obere linke (Top_Left) Y kann eine positive Ganzzahl sein, die die y-Koordinate des oberen linken Pixels repräsentiert. Die CSO-Befehle können verwendet werden, um die Referenz-Ausrichtung zu setzen, und können für Testzwecke verwendet werden.
  • Als Alternative, wie ebenfalls oben beschrieben, kann die Ausrichtung in einem oder mehreren Skalar(en) ausgedrückt werden, jeweils zum Beispiel einen Winkel relativ zu einer Koordinate oder einer Ecke repräsentierend, zum Beispiel die obere linke Ecke. Wiederum kann ein AT-Befehl, zum Beispiel CSO (Command Screen Orientation), verwendet werden, um die Ausrichtung der berührungsempfindlichen Anzeige 118 zu setzen oder zurückzulesen. Die Tabelle 2 zeigt CSO-Befehle und beispielhafte Antworten auf die CSO-Befehle. Tabelle 2: +CSO-Parameter-Befehls-Syntax
    Befehl Beispielhafte Antwort(en)
    +CSO=[<orientation>,[<degrees_orientation>[,<degrees_tilted]]] +ERROR: <err>
    +CSO? +CSO: <orientation>, [<degrees_orientation>[,<degrees_tilted>]] +ERROR: <err>
    +CSO=? +CSO: (list of supported <orientations>) +ERROR: <err>
  • Die Grad_Ausrichtung (degrees_orientation) und die Grad_Neigung (degrees_tilted) können eine positive Ganzzahl sein, die den Winkel zu den Ursprungskoordinaten und Koordinatenachsen repräsentiert. Die Grad_Ausrichtung und die Grad_Neigung können eine feste Anzahl von Werten verwenden derart, dass der Winkel von Grad_Ausrichtung und/oder Grad_Neigung in festen Inkrementen relativ zu 0 Grad ist. Zum Beispiel können Inkremente von 90 Grad verwendet werden. Andere Inkremente können abhängig von der Vorrichtung verwendet werden. Die CSO-Befehle können verwendet werden, um die Referenz-Ausrichtung zu setzen, und können für Testzwecke verwendet werden. Vorrichtung muss nicht in der Lage sein, einen Wert Grad_Neigung vorzusehen oder zu akzeptieren, wie mit der Schreibweise mit eckigen Klammern ausgedrückt.
  • Wie oben beschrieben, kann die Ausrichtung in vier Werten ausgedrückt werden, zum Beispiel „oben”, „unten”, „linke Seite”, „rechte Seite”. Wieder kann ein AT-Befehl, zum Beispiel CSO (Command Screen Orientation), verwendet werden, um die Ausrichtung der Anzeige 112 und der berührungsempfindlichen Überlagerung 114 zu setzen oder zurückzulesen.
  • Meta-Navigations-Gesten können erfasst werden zum Beispiel durch Bestimmen der Koordinatengröße der berührungsempfindlichen Überlagerung 114 und der Größe und der Koordinatenposition des Anzeigebereichs 206. Ein AT-Befehl, zum Beispiel Befehl Bildschirmgröße (CSS – Command Screen Size), kann verwendet werden, um die Koordinatengröße der berührungsempfindlichen Überlagerung 114 oder die Gesamtgröße des Anzeigebereichs 206 und des Nicht-Anzeigebereichs 208 zu bestimmen. Der AT-Befehl CSS kann den maximalen x-Koordinatenwert und den maximalen y-Koordinatenwert liefern.
  • Die Größe und Koordinatenposition des Anzeigebereichs 206 kann erlangt werden. Ein AT-Befehl, zum Beispiel „Anzeige Bildschirmgrenze” (DSB – Display Screen Boundary), kann verwendet werden, um die obere linke x-Koordinate, die obere linke y-Koordinate, die untere rechte x-Koordinate und die untere rechte y-Koordinate zu erlangen. Dieser Befehl erleichtert eine Identifikation der Grenze zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208. Die obere linke x-Koordinate kann eine positive Ganzzahl sein, die die x-Koordinate des oberen linken Pixels repräsentiert, und die obere linke y-Koordinate kann eine positive Ganzzahl sein, die die y-Koordinate des oberen linken Pixels des Anzeigebereichs 206 repräsentiert. Die untere rechte x-Koordinate kann eine positive Ganzzahl sein, die die x-Koordinate des unteren rechten Pixels repräsentiert, und die untere rechte y-Koordinate kann eine positive Ganzzahl sein, die die y-Koordinate des unteren rechten Pixels des Anzeigebereichs 206 repräsentiert. Bei einer elektronischen Vorrichtung, bei der sich die berührungsempfindliche Überlagerung nicht über den Nicht-Anzeigebereich 208 hinaus erstreckt, stimmen die DSB-Koordinatenwerte mit den CSS-Werten überein. Die CSS- und DSB-Befehle können verwendet werden, um die Grenze zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 zu erfassen, und können zu Testzwecken verwendet werden. Zum Beispiel können die CSS- und DSB-Befehle verwendet werden, um eine Geste zu emulieren, die die Grenze überquert. Die überquerte Grenze kann ein Pixel breit sein. In einigen Ausführungsbeispielen kann diese Größe der Grenze eine andere Breite oder Größe haben. Zum Beispiel ist in einigen Ausführungsbeispielen die Breite der Grenze an dem oberen Ende verschieden von der Breite der Grenze an dem unteren Ende. Auch kann die Grenze optional ein Teil des Anzeigebereichs 206 der berührungsempfindlichen Anzeige 118 sein.
  • Die UE kann somit getestet werden durch Vorsehen von Befehlen an die UE, um eine Meta-Navigations-Geste zu emulieren. Wenn die Befehle AT-Befehle sind, können AT-Befehle, wie CSS, DSB und CSO, von der Vorrichtung empfangen werden. Ein oder mehrere Befehl(e) können eine Meta-Navigations-Geste darstellen.
  • 6 zeigt ein Beispiel von funktionalen Komponenten einer Benutzereinrichtung (UE – User Equipment), wie die tragbare elektronische Vorrichtung 100 von 1. Die UE 600 kann die UICC umfassen, um persönliche Daten zu enthalten. Wenn vorhanden, ist die UICC mit der mobilen Ausrüstung (ME – Mobile Equipment) 604 gekoppelt. Die ME 604 umfasst die TE 606 und die MT 608, zwischen denen die AT-Befehle übergeben oder kommuniziert werden. Eine ME oder AT ist ein Beispiel einer AT-Befehl-Senke und eine TE ist ein Beispiel für eine AT-Befehl-Quelle.
  • 7 zeigt ein Sequenzdiagramm, das ein Beispiel einer Verwendung von AT-Befehlen zeigt, um Meta-Navigations-Gesten relativ zu einer Ausrichtung zu emulieren. 7 umfasst eine AT-Befehl-Senke 702 und eine AT-Befehl-Quelle 704. Ein TA ist ein Beispiel für eine Senke, wie die Senke 702. Ein TA kann die AT-Befehle und AT-Befehls-Antworten vor einem Einbeziehen einer MT anpassen. Eine TE ist ein Beispiel für eine Quelle, wie die Quelle 704. Eine Quelle sendet AT-Befehle und die TE kann AT-Befehls-Antworten empfangen. Die Quelle bestimmt die Ausrichtung bei 706 unter Verwendung zum Beispiel eines AT + CSO-Befehls und die Antwort 708 wird empfangen. Die Antwort 708 kann zum Beispiel anzeigen, dass die berührungsempfindliche Anzeige 118 in einer „normalen” Ausrichtung ist. Die Quelle bestimmt die Größe der berührungsempfindlichen Anzeige 118 bei 710 durch Senden zum Beispiel eines AT + CSS-Befehls und empfängt die Antwort 712. Die Antwort 712 kann zum Beispiel eine Größe von Xmax = 200, Ymax = 100 anzeigen. Die Quelle bestimmt das Vorhandensein des Anzeigebereichs 206 der berührungsempfindlichen Anzeige 118 und die Größe des Anzeigebereichs 206 bei 714 durch Senden zum Beispiel eines AT + DSB-Befehls. Die Quelle empfängt die Antwort bei 716, die zum Beispiel Xtl = 10, Ytl = 10, Xtl = 190, YTL = 90 anzeigen kann. In einigen beispielhaften Ausführungsbeispielen werden die Koordinaten der Grenze auf der berührungsempfindlichen Anzeige 118 der ME bestimmt. Wenn zum Beispiel ein ganzzahliger Wert bekannt oder empfangen wird, repräsentiert der ganzzahlige Wert die Größe oder Breite der Grenze, und wenn der Wert positiv ist, kann die Grenze ein Teil des Anzeigebereichs 206 der berührungsempfindlichen Anzeige 118 sein. Wenn der ganzzahlige Wert negativ ist, kann die Grenze ein Teil des Nicht-Anzeigebereichs 208 der berührungsempfindlichen Anzeige 118 sein. Die Quelle erzeugt oder emuliert eine Meta-Navigations-Geste relativ zu der Ausrichtung bei 718, durch Vorsehen von Ursprungspunktkoordinaten der Geste in dem Nicht-Anzeigebereich 208 der berührungsempfindlichen Anzeige 118 und durch Vorsehen von Endpunktkoordinaten in dem Anzeigebereich 206 der berührungsempfindlichen Anzeige 118. In dem dargestellten Beispiel ist die emulierte Meta-Navigations-Geste eine Mehrfach-Berührungs-Geste mit mehreren gleichzeitigen Berührungen. Die Berührungen sind zum Beispiel vertikale Wischbewegungs-Gesten in eine Richtung weg von der und senkrecht zu der Seite, die an dem oberen Ende ist. 7 zeigt Beispiele von Interaktionen und AT-Befehlen oder -Antworten. Unangeforderte Nachrichten können auch zwischen AT-Befehls-Quelle und AT-Befehls-Senke geleitet werden (zum Beispiel +CMER: 1,25,5; +CMER: 1,30,5, ..., 1; +CMER: 0,30,25, ..., 1; +CMER: 0,25,25) und einen Empfänger informieren, dass die Gesten, die die Meta-Navigations-Geste repräsentieren, stattgefunden haben.
  • Die tragbare elektronische Vorrichtung 100, die in dem Beispiel von 2 dargestellt wird, umfasst einen Nicht-Anzeigebereich 208 und eine Grenze 210, die sich um den Anzeigebereich 206 erstreckt oder diesen umgibt. Die Emulation oder Angabe von Gesten ist nicht auf den Nicht-Anzeigebereich 208 begrenzt, der sich vollständig rund um einen Anzeigebereich 206 erstreckt. Zum Beispiel kann eine Emulation von Gesten für eine elektronische Vorrichtung ausgeführt werden, die einen Anzeigebereich 206 umfasst, der angrenzend an einen Nicht-Anzeigebereich 208 ist, oder einen Nicht-Anzeigebereich 206 hat, der angrenzend an weniger als vier Seiten ist.
  • Ferner ist die Offenbarung nicht auf eine Emulation oder Angabe von Gesten unter Verwendung eines einzelnen gemeinsamen Koordinatensystems für einen angrenzenden Anzeigebereich 206 und Nicht-Anzeigebereich 208 einer einzelnen Anzeige begrenzt. Zum Beispiel kann eine UE mehrere, nicht-angrenzende Anzeigebereiche oder Nicht-Anzeigebereiche umfassen. Gemäß einem weiteren Beispiel kann die UE mehrere Anzeigebereiche und/oder Nicht-Anzeigebereiche umfassen, und einige dieser Bereiche müssen keinen einzelnen Ursprungspunkt gemeinsam haben. Gemäß einem weiteren Beispiel können mehrere Anzeigebereiche und/oder Nicht-Anzeigebereiche mehrere Koordinatensysteme umfassen, die sich gegenseitig überlagern können.
  • In den oben beschriebenen Beispielen ist eine zusätzliche Angabe oder ein Identifizierer des Anzeigebereichs oder des Nicht-Anzeigebereichs der berührungsempfindlichen Anzeige oder des Koordinatensystems, an dem ein Drücken nach unten oder eine Berührung emuliert wird, vorteilhaft, wenn ein AT-Befehl verwendet wird, um eine Berührung zu emulieren, die auf der berührungsempfindlichen Anzeige 118 zum Beispiel an den Koordinaten (25,45) erfasst wird. Ähnlich ist, wenn ein Berührungsereignis berichtet wird, zum Beispiel unter Verwendung eines unangeforderten Ergebniscodes +CTEV: 1,25,45, eine Angabe des Anzeigebereichs 206 oder Nicht-Anzeigebereichs 208, oder in welchem Koordinatensystem das Berührungsereignis stattgefunden hat, von Vorteil. Der Anzeigebereich 206 und der Nicht-Anzeigebereich 208 werden hier jeweils als ein Bildschirm bezeichnet.
  • Wenn mehrere Interaktionsbereiche oder berührungsempfindliche Bereiche existieren, können diese Bereiche Eigenschaften haben, wie die Eigenschaft, ein Nicht-Anzeigebereich 208 oder ein Anzeigebereich 206 zu sein. Information für/über die Interaktionsbereiche kann verwendet werden bei einem Emulieren eines berichteten Berührungsereignisses oder um dieses zu verstehen. Eigenschaften können für jeden Bereich vor einer Interaktion mit einem Bereich vorgesehen werden. Eine Interaktion umfasst ein Empfangen von AT-Befehlen, Emulieren von Gesten oder Berichten von Ereignissen. Zum Beispiel kann ein Befehl durch eine MT oder einen TA unterstützt werden derart, dass eine Liste mit Identifizierern, die Bereiche zur Interaktion identifizieren, in Reaktion auf den Befehl vorgesehen wird. Ein AT-Befehl kann unterstützt werden durch ein Auflisten von Eigenschaften, die mit einem Interaktionsbereich assoziiert sind, durch eine MT oder einen TA. Ein solcher Befehl kann einen Identifizierer, der einen Interaktionsbereich identifiziert, als Parameter verwenden. Eine Liste von Eigenschaften, die mit dem Interaktionsbereich assoziiert sind, kann als Antwort auf den AT-Befehl vorgesehen werden. Beispiele für solche Eigenschaften umfassen eine Angabe, ob der Bereich ein Anzeigebereich 206 oder ein Nicht-Anzeigebereich 208 ist, eine Angabe, ob der Bereich angrenzend an einen anderen Interaktionsbereich ist, eine Angabe, ob der Interaktionsbereich auf der UE ist oder nicht. Wenn der Interaktionsbereich nicht auf derselben UE ist, kann der Bereich mit der UE kommunikativ verbunden oder gekoppelt sein. Die Angabe, ob ein Interaktionsbereich nicht auf der UE ist, kann den Bereich über einen Kommunikationsprotokollnamen, Kommunikationsprotokollanschluss oder Kommunikationsadresse identifizieren, zum Beispiel „USB”, „USB1”, „HDMI”, „HDMI5”, „BLUETOOTH”, „SIP:interactive-tv-screen@home.nl”.
  • Weitere Beispiele für Eigenschaften der Interaktionsbereiche umfassen die Auflösung oder die Größe des Bereichs (zum Beispiel in Pixel).
  • Wie oben angegeben, ist ein Beispiel einer Eigenschaft eine Angabe, ob der Interaktionsbereich angrenzend an einen anderen Interaktionsbereich ist. Eine Grenze existiert, wenn ein Interaktionsbereich angrenzend an einen anderen Interaktionsbereich ist. Eine Meta-Navigations-Geste kann vorgesehen, identifiziert oder erfasst werden, wenn die Meta-Navigations-Geste die Grenze überquert, zum Beispiel beginnt die Geste auf einem Interaktionsbereich und endet auf einem anderen Interaktionsbereich. Eine Meta-Navigations-Geste kann durch einen ersten Emulationsbefehl emuliert werden, der einen Beginn eines Berührungsereignisses anzeigt, wobei das Berührungsereignis durch einen Identifizierer identifiziert werden kann, das auf einem ersten Interaktionsbereich ist oder mit diesem assoziiert ist. Nachfolgend ist ein zweiter Emulationsbefehl vorgesehen, der eine Freigabe an einem zweiten Interaktionsbereich anzeigt oder eine Beendigung des Berührungsereignisses anzeigt. Wenn das Berührungsereignis durch einen Identifizierer identifiziert wird, kann der Identifizierer derselbe Identifizierer sein, der verwendet wird, um das erste Berührungsereignis zu identifizieren. Typischerweise umfasst eine Emulation einer Meta-Navigations-Geste mehrere Befehle, zum Beispiel den ersten Emulationsbefehl und den zweiten Emulationsbefehl. Solche Emulationsbefehle können AT-Befehle sein.
  • Eine Meta-Navigations-Geste kann auch identifiziert, erfasst, emuliert, oder berichtet werden, wenn die Meta-Navigations-Geste auf einem nicht-angrenzenden Interaktionsbereich stattfindet. Berichtete Berührungsereignisse und Berührungsbefehle für solche Meta-Navigations-Gesten umfassen zumindest einen Parameter, der den Interaktionsbereich identifiziert. Vor einem Berichten, einer Emulation oder einem Empfangen von Berührungsbefehlen wird eine Liste mit Identifizierern vorgesehen, die die Interaktionsbereiche identifizieren. In einer Implementierung können Eigenschaften für jeden Interaktionsbereich vorgesehen werden in Reaktion auf ein Empfangen eines AT-Befehls.
  • Andere Befehle und berichtete Ereignisse können auch den Interaktionsbereich angeben, den der Befehl oder ein Ereignis betrifft. Zum Beispiel bei der Anzeige eines oder mehrerer Zeichen kann der Befehl, der das Anzeigen initiiert, den Interaktionsbereich anzeigen. Ähnlich, bei einem Berichten des Druckens eines Zeichens, kann das Berichten-Ereignis den Interaktionsbereich angeben. Mit der Verbreitung von Tastaturen auf einer UE kann ein Interaktionsbereich auch in Befehlen oder Berichten von Ereignissen vorgesehen werden, zum Beispiel wenn die Tastatur eine virtuelle Tastatur ist.
  • Befehle können verwendet werden, um einen Filter zu konfigurieren derart, dass nicht alle unangeforderten Ergebniscodes durch eine TE empfangen werden. Zum Beispiel kann ein Befehl ein Senden von unangeforderten Ergebniscodes von einem TA oder einer MT aktivieren oder deaktivieren in dem Fall eines Drückens oder von Berührungen einer Taste, Änderungen der Anzeige, Berührungsereignissen, und Zustandsänderungen eines Indikators, wie ein Batterieindikator oder ein Funkstärkeindikator. Ein Beispiel eines AT-Befehls, der ein Senden aktiviert oder deaktiviert, ist Mobile Termination Event Reporting: +CMER.
  • Ein Aktivieren oder Deaktivieren eines Sendens von unangeforderten Ergebniscodes oder eines Sendens von unangeforderten Ereignissen abhängig von dem Interaktionsbereich kann von Vorteil sein. Wenn ein Befehl empfangen wird, um ein Senden von unangeforderten Ergebniscodes zu aktivieren oder ein Senden von unangeforderten Ereignissen abhängig von dem Interaktionsbereich zu aktivieren, kann der Befehl zumindest einen Identifizierer umfassen, der den Interaktionsbereich identifiziert. Wenn ein Befehl empfangen wird, um ein Senden von unangeforderten Ergebniscodes zu deaktivieren oder ein Senden von unangeforderten Ereignissen abhängig von dem Interaktionsbereich zu deaktivieren, kann der Befehl zumindest einen Identifizierer umfassen, der den Interaktionsbereich identifiziert. Vor einem Empfangen von unangeforderten Ergebniscodes oder vor einem Empfangen von unangeforderten Ereignissen, abhängig von dem Interaktionsbereich, kann ein Befehl, der ein Senden von unangeforderten Ergebniscodes aktiviert oder ein Senden von unangeforderten Ereignissen aktiviert, vorgesehen werden. Zusätzlich kann vor einem Senden von unangeforderten Ergebniscodes oder vor einem Senden von unangeforderten Ereignissen, abhängig von dem Interaktionsbereich, ein Befehl, der ein Senden von unangeforderten Ergebniscodes aktiviert oder ein Senden von unangeforderten Ereignissen aktiviert, empfangen werden. Die vorliegende Offenbarung ist nicht begrenzt auf eine Identifizierung von Meta-Navigations-Gesten unter Verwendung einer berührungsempfindlichen Überlagerung 114, die sich über den Nicht-Anzeigebereich 208 erstreckt. Meta-Navigations-Gesten können erfasst werden basierend auf zum Beispiel der ersten erfassten Berührungsposition an einem Rand der berührungsempfindlichen Überlagerung 114, was an einem Rand des anzeigbaren Bereichs sein kann, und optional basierend auf der Geschwindigkeit oder Richtung der Geste, wenn die Berührung erfasst wird, oder einem Pfad, dem die Geste folgt. Eine Identifizierung von Meta-Navigations-Gesten kann auch ausgeführt werden unter Verwendung eines heuristischen Algorithmus basierend auf Berührungsattributen und in Reaktion auf Berührungsattribute, wie eines oder mehrere aus dem Ursprungspunkt, Geschwindigkeit, Richtung, Entfernung und Pfad der Geste.
  • Optional kann die elektronische Vorrichtung einen berührungsempfindlichen Rahmen des Gehäuses oder eine berührungsempfindliche Einfassung umfassen, die die berührungsempfindliche Überlagerung 114 begrenzt. Meta-Navigations-Gesten können basierend auf einem Ursprungspunkt identifiziert werden, der auf dem berührungsempfindlichen Rahmen oder der Einfassung erfasst wird.
  • Weiter ist die Grenze, die von einer Meta-Navigations-Geste überquert wird, nicht auf die Grenze zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 der berührungsempfindlichen Anzeige 118 beschränkt. Andere geeignete Begrenzungen können verwendet werden und können einen Bereich oder ein Band entlang eines Rands der berührungsempfindlichen Überlagerung 114, eine vorgegebene Linie oder Linien auf der berührungsempfindlichen Anzeige 118, oder die Grenze umfassen, an der die Einfassung oder der Rahmen der elektronischen Vorrichtung an die berührungsempfindliche Anzeige 118 angrenzt.
  • Eine Identifizierung von Meta-Navigations-Gesten ist nicht auf elektronische Vorrichtungen mit berührungsempfindlichen Anzeigen begrenzt, die eine berührungsempfindliche Überlagerung 114 umfassen, die den Nicht-Anzeigebereich 208 der Anzeige abdeckt. Eine Identifizierung von Meta-Navigations-Gesten kann unter Verwendung von anderen elektronischen Vorrichtungen ausgeführt werden. Weiter wird die elektronische Vorrichtung, die unter Bezugnahme auf die Figuren beschrieben wird, als ein Beispiel einer elektronischen Vorrichtung vorgesehen. Andere elektronische Vorrichtungen können verwendet werden und viele der Merkmale der elektronischen Vorrichtung, die unter besonderer Bezugnahme auf 1 beschrieben werden, sind optional. Zum Beispiel ist das Kommunikationsteilsystem 104 optional. Weiter sind die Nahbereichskommunikationen und das SIM/USIM/RUIM 138 ebenfalls optional. Weiter kann die elektronische Vorrichtung zusätzliche Merkmale umfassen, die hier nicht genannt oder beschrieben werden.
  • Die Verwendung von Meta-Navigations-Gesten und die Identifizierung von solchen Gesten liefert eine zusätzliche Eingabe, die von Nicht-Meta-Navigations-Gesten oder anderen Berührungen unterschieden werden kann. Diese Meta-Navigations-Gesten erleichtern ein Eingeben einer Eingabe in Bezug auf eine Anwendung, für die Information an dem Zeitpunkt, an dem die Geste empfangen wird, nicht angezeigt wird. Somit kann eine Eingabe empfangen werden, die eine Anwendung betrifft, die nicht mit Information assoziiert ist, die auf der berührungsempfindlichen Anzeige 118 angezeigt wird, ohne die Verwendung von Symbolen oder auswählbaren Merkmalen, die auf der berührungsempfindlichen Anzeigevorrichtung angezeigt werden, und ohne die Notwendigkeit, andere Steuerungselemente auf der elektronischen Vorrichtung zu verwenden, wie physikalische Tasten oder Schalter. Ein Bereich oder Bereiche der berührungsempfindlichen Anzeige 118 wird/werden nicht beansprucht, um derartige Symbole oder auswählbare Merkmale anzuzeigen. Eine Systemebenenavigation wird daher ohne die Verwendung von zusätzlicher Anzeige von Information oder Menüs für eine derartige Navigation vorgesehen, was eine verbesserte Schnittstelle bietet.
  • Gemäß einem Aspekt umfasst ein Verfahren für eine Benutzereinrichtung (UE – User Equipment) in Reaktion zumindest zum Teil auf einen ATtention(AT)-Befehl für eine Aktion einer berührungsempfindlichen Eingabevorrichtung ein Emulieren einer Meta-Navigations-Geste für eine berührungsempfindliche Eingabevorrichtung mit einem Anzeigebereich und einem Nicht-Anzeigebereich.
  • Gemäß einem weiteren Aspekt umfasst ein Verfahren für eine Vorrichtung ein Ausgeben eines AT-Befehls, um eine Meta-Navigations-Geste zu emulieren.
  • Gemäß einem weiteren Aspekt umfasst ein Verfahren zum Testen einer UE ein Empfangen eines oder mehrerer AT-Befehl(e), um eine Meta-Navigations-Geste zu emulieren, und Vorsehen von Information in Reaktion auf zumindest einen des einen AT-Befehls oder der mehreren AT-Befehle.
  • Die vorliegende Offenbarung kann in anderen spezifischen Formen eingesetzt werden, ohne von ihrem Sinn oder wesentlichen Charakteristiken abzuweichen. Die beschriebenen Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend betrachtet werden. Der Umfang der vorliegenden Offenbarung wird daher durch die angefügten Ansprüche beschrieben und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeiten der Ansprüche fallen, sollen in ihrem Umfang aufgenommen sein.

Claims (25)

  1. Ein Verfahren für eine Benutzereinrichtung (UE – User Equipment), wobei das Verfahren aufweist: in Reaktion zumindest zum Teil auf einen ATtention(AT)-Befehl für eine Aktion einer berührungsempfindlichen Eingabevorrichtung, Emulieren einer Meta-Navigations-Geste für eine berührungsempfindliche Eingabevorrichtung mit einem Anzeigebereich und einem Nicht-Anzeigebereich.
  2. Das Verfahren gemäß Anspruch 1, das aufweist, in Reaktion zumindest zum Teil auf einen AT-Befehl für eine Nicht-Anzeige-Grenze-Information, Vorsehen der Nicht-Anzeige-Grenze-Information.
  3. Das Verfahren gemäß Anspruch 1, das aufweist, in Reaktion zumindest zum Teil auf einen AT-Befehl für eine Ausrichtungsinformation, Vorsehen der Ausrichtungsinformation.
  4. Das Verfahren gemäß Anspruch 1, das aufweist, in Reaktion zumindest zum Teil auf einen AT-Befehl für eine Befehls-Bildschirmgröße, Vorsehen der Befehls-Bildschirmgröße-Information.
  5. Das Verfahren gemäß Anspruch 3, wobei die Ausrichtungsinformation eine Identifikation von zumindest einem Merkmal der berührungsempfindlichen Eingabevorrichtung als eine Referenz aufweist.
  6. Das Verfahren gemäß Anspruch 5, wobei die Ausrichtungsinformation eine Identifikation von zumindest einer Ecke der berührungsempfindlichen Eingabevorrichtung aufweist.
  7. Das Verfahren gemäß Anspruch 6, wobei die Ausrichtungsinformation Koordinatenwerte der zumindest einen Ecke aufweist.
  8. Das Verfahren gemäß Anspruch 5, wobei die Ausrichtungsinformation eine Identifikation von zumindest einer Seite der berührungsempfindlichen Eingabevorrichtung aufweist.
  9. Das Verfahren gemäß Anspruch 3, wobei die Ausrichtungsinformation einen Skalar aufweist, der einen Rotationswinkel der UE zu einer Referenzausrichtung repräsentiert.
  10. Das Verfahren gemäß Anspruch 9, wobei die Ausrichtungsinformation einen Skalar aufweist, der einen Neigungswinkel repräsentiert.
  11. Das Verfahren gemäß Anspruch 9, wobei der zumindest eine Skalar einen aus einer festen Anzahl von Werten aufweist, die den Rotationswinkel repräsentieren.
  12. Das Verfahren gemäß Anspruch 4, wobei die Befehls-Bildschirmgröße-Information einen maximalen x-Koordinatenwert und einen maximalen y-Koordinatenwert aufweist.
  13. Das Verfahren gemäß Anspruch 2, wobei die Nicht-Anzeige-Grenze eine Grenze zwischen dem Nicht-Anzeigebereich und dem Anzeigebereich aufweist.
  14. Das Verfahren gemäß Anspruch 13, wobei die Nicht-Anzeige-Grenze-Information Koordinatenwerte der Grenze aufweist.
  15. Das Verfahren gemäß Anspruch 14, wobei die Koordinatenwerte Koordinatenwerte von gegenüberliegenden Ecken der Grenze aufweisen.
  16. Das Verfahren gemäß Anspruch 1, wobei die Meta-Navigations-Geste eine Mehrfach-Berührungsgeste aufweist.
  17. Das Verfahren gemäß Anspruch 16, wobei die Berührungen der Mehrfach-Berührungsgeste durch einen gleichen Identifizierer identifiziert werden.
  18. Das Verfahren gemäß Anspruch 1, das aufweist, in Reaktion zumindest zum Teil auf einen ATtention(AT)-Befehl für zumindest einen des Anzeigebereichs und des Nicht-Anzeigebereichs, Vorsehen einer Angabe einer Eigenschaft des zumindest einen des Anzeigebereichs und des Nicht-Anzeigebereichs.
  19. Ein computerlesbares Medium mit computerlesbarem Code, der durch zumindest einen Prozessor der UE ausführbar ist, um das Verfahren gemäß Anspruch 1 durchzuführen.
  20. Eine Benutzereinrichtung (UE – User Equipment), die aufweist: eine berührungsempfindliche Anzeige; einen Speicher; einen Prozessor, der mit der berührungsempfindlichen Anzeige und dem Speicher gekoppelt ist zum Ausführen des Verfahrens gemäß Anspruch 1.
  21. Ein Verfahren für eine Vorrichtung, wobei das Verfahren ein Ausgeben eines ATtention(AT)-Befehls aufweist, um eine Meta-Navigations-Geste zu emulieren.
  22. Das Verfahren gemäß Anspruch 21, das ein Ausgeben eines AT-Befehls für eine Nicht-Anzeige-Grenze-Information und ein Empfangen der Nicht-Anzeige-Grenze-Information von der UE aufweist.
  23. Das Verfahren gemäß Anspruch 21, das ein Ausgeben eines AT-Befehls für eine Ausrichtungsinformation und ein Empfangen der Ausrichtungsinformation von der UE aufweist.
  24. Das Verfahren gemäß Anspruch 21, das ein Ausgeben eines AT-Befehls für eine Befehls-Bildschirmgröße und ein Empfangen einer Befehls-Bildschirmgröße-Information von der UE aufweist.
  25. Ein computerlesbares Medium mit computerlesbarem Code, der durch zumindest einen Prozessor einer Vorrichtung ausführbar ist, um das Verfahren gemäß Anspruch 21 durchzuführen.
DE112011102694.3T 2011-08-12 2011-08-12 Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung Active DE112011102694B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/047677 WO2013025192A1 (en) 2011-08-12 2011-08-12 Portable electronic device and method of controlling same

Publications (2)

Publication Number Publication Date
DE112011102694T5 true DE112011102694T5 (de) 2013-05-29
DE112011102694B4 DE112011102694B4 (de) 2021-12-09

Family

ID=44534676

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011102694.3T Active DE112011102694B4 (de) 2011-08-12 2011-08-12 Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung

Country Status (9)

Country Link
EP (3) EP2596420B1 (de)
JP (1) JP5667301B2 (de)
KR (1) KR101451534B1 (de)
CN (1) CN103080890B (de)
CA (1) CA2808792C (de)
DE (1) DE112011102694B4 (de)
ES (1) ES2758130T3 (de)
GB (1) GB2496346A (de)
WO (1) WO2013025192A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014003611A1 (de) * 2014-03-13 2015-09-17 Audi Ag Verfahren zum Betreiben einer Mensch-Maschine-Schnittstelle sowie eine Mensch-Maschine-Schnittstelle zur Ausführung des Verfahrens

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5809202B2 (ja) * 2013-06-21 2015-11-10 シャープ株式会社 画面操作可能な画像表示装置及びその操作方法
KR102451122B1 (ko) * 2015-05-18 2022-10-05 애플 인크. 패킷 데이터 네트워크 접속 오프로드를 위한 주의(at) 명령
KR101687184B1 (ko) 2015-08-31 2016-12-16 린나이코리아 주식회사 스팀오븐의 열 변형저감과 모터의 과열을 방지하는 장치 및 그 방법
CN106814903B (zh) * 2015-12-01 2020-01-14 小米科技有限责任公司 功能键的触控方法和装置
US20210373758A1 (en) * 2020-05-28 2021-12-02 Microsoft Technology Licensing, Llc Active accessibility control bar

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9008A (en) * 1852-06-08 Improvement in the construction of soap-boilers
AU4495600A (en) * 1999-04-28 2000-11-21 Adobe Systems Incorporated A system and method for changing the rotational orientation of display data
US6567101B1 (en) 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
TWI337321B (en) * 2007-05-15 2011-02-11 Htc Corp Electronic device with switchable user interface and accessable touch operation
US8106881B2 (en) * 2007-11-07 2012-01-31 International Business Machines Corporation System, computer program product and method of manipulating windows on portable computing devices through motion
US8159469B2 (en) * 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
US10031549B2 (en) * 2008-07-10 2018-07-24 Apple Inc. Transitioning between modes of input
US20100107067A1 (en) 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
CN101739125A (zh) * 2008-11-12 2010-06-16 联想(北京)有限公司 一种通过操作体执行操作的方法、装置及电子设备
EP2211256A1 (de) * 2009-01-27 2010-07-28 Research In Motion Limited Tragbare elektronische Vorrichtung mit einem Berührungsbildschirm und Verfahren zur Verwendung eines Berührungsbildschirms einer tragbaren elektronischen Vorrichtung
CN101860892A (zh) 2009-04-11 2010-10-13 深圳富泰宏精密工业有限公司 模拟手机at命令测试的系统及方法
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
CN103221914B (zh) * 2010-09-24 2020-01-31 黑莓有限公司 便携式电子设备及其控制方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014003611A1 (de) * 2014-03-13 2015-09-17 Audi Ag Verfahren zum Betreiben einer Mensch-Maschine-Schnittstelle sowie eine Mensch-Maschine-Schnittstelle zur Ausführung des Verfahrens

Also Published As

Publication number Publication date
JP5667301B2 (ja) 2015-02-12
EP3401774A1 (de) 2018-11-14
EP3401774B1 (de) 2019-10-09
CN103080890A (zh) 2013-05-01
CA2808792C (en) 2016-02-16
KR20130075767A (ko) 2013-07-05
EP2596420B1 (de) 2018-07-18
EP2596420A1 (de) 2013-05-29
GB201303167D0 (en) 2013-04-10
JP2013537992A (ja) 2013-10-07
GB2496346A (en) 2013-05-08
WO2013025192A1 (en) 2013-02-21
EP3572921A1 (de) 2019-11-27
DE112011102694B4 (de) 2021-12-09
KR101451534B1 (ko) 2014-10-22
CA2808792A1 (en) 2013-02-21
ES2758130T3 (es) 2020-05-04
EP3572921B1 (de) 2021-10-06
CN103080890B (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
DE112011101206T5 (de) Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung
DE112011101380T5 (de) Berührungsempfindliche Anzeige mit variabler Wiederholungsrate
DE112011102694B4 (de) Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich
DE202016001214U1 (de) Benutzerschnittstelle für Zahlungen
DE202008000269U1 (de) Tragbare elektronische Vorrichtung
DE202012007707U1 (de) Vorrichtung zum Vorsehen einer Benutzerschnittstelle auf einer Vorrichtung, die Inhalt-Operatoren anzeigt
DE112010002760T5 (de) Benutzerschnittstelle
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE202015003860U1 (de) Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202016002906U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE212006000081U1 (de) Benutzerschnittstelle zum Entsperren einer Vorrichtung durch Ausführen von Gesten auf einem Entsperrungsbild
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
CN108694012B (zh) 在屏幕上显示对象的方法和系统
DE112011101209T5 (de) Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
DE202012102966U1 (de) Berührungssensor mit mehreren Oberflächen und Betriebsartenauswahl
DE202012101741U1 (de) Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten
DE112012000299T5 (de) Verfahren und Vorrichtung zur Textauswahl
CN105389084A (zh) 一种移动终端方便用户进行信息输入的方法及移动终端
DE112014002687T5 (de) Berührungserkennung am rahmenrand
CN111143013A (zh) 截图方法及电子设备
CN112269506B (zh) 分屏方法、装置和电子设备
CN106569674A (zh) 移动终端及其屏幕操作控制方法
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

R081 Change of applicant/patentee

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LTD., WATERLOO, ONTARIO, CA

Effective date: 20140925

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20140925

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20140925

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: MALIKIE INNOVATIONS LTD., IE

Free format text: FORMER OWNER: BLACKBERRY LIMITED, WATERLOO, ONTARIO, CA

R082 Change of representative