DE112011100087T5 - Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse - Google Patents

Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse Download PDF

Info

Publication number
DE112011100087T5
DE112011100087T5 DE112011100087T DE112011100087T DE112011100087T5 DE 112011100087 T5 DE112011100087 T5 DE 112011100087T5 DE 112011100087 T DE112011100087 T DE 112011100087T DE 112011100087 T DE112011100087 T DE 112011100087T DE 112011100087 T5 DE112011100087 T5 DE 112011100087T5
Authority
DE
Germany
Prior art keywords
gesture
force
electronic device
user interface
portable electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011100087T
Other languages
English (en)
Inventor
Jason Tyler Griffin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BlackBerry Ltd
Original Assignee
Research in Motion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research in Motion Ltd filed Critical Research in Motion Ltd
Publication of DE112011100087T5 publication Critical patent/DE112011100087T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die vorliegende Offenbarung sieht eine tragbare elektronische Vorrichtung vor, die eine Gesten-Erkennung hat, und ein Verfahren zu deren Steuerung. In Übereinstimmung mit einem beispielhaften Ausführungsbeispiel weist das Verfahren auf ein Erfassen einer Verformung der tragbaren elektronischen Vorrichtung, ein Bestimmen einer Aktion, die mit einer erfassten Verformung assoziiert ist, und somit Veranlassen, dass die bestimmte Aktion durchgeführt wird.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft tragbare elektronische Vorrichtungen und insbesondere eine tragbare elektronische Vorrichtung mit einer Gesten-Erkennung und ein Verfahren zu deren Steuerung.
  • HINTERGRUND
  • Elektronische Vorrichtungen, einschließlich tragbare elektronische Vorrichtungen, werden zunehmend für eine gestische Steuerung konfiguriert als Teil einer Bewegung hin zu ubiquitärer Computernutzung, bei der Vorrichtungen ausgebildet sind für eine natürlichere und intuitivere Benutzerinteraktion anstatt zu erfordern, dass sich der Benutzer den elektronischen Vorrichtungen anpasst. Die Mehrheit von gestischen Steuerungen sind in der Form von Berührungsgesten, die mit einer berührungsempfindlichen Anzeige erfasst werden, oder Bewegungsgesten, die mit einem Bewegungssensor erfasst werden, wie ein Beschleunigungsmesser bzw. Akzelerometer. Alternative Formen einer gestischen Steuerung sind wünschenswert, um eine natürlichere und intuitivere Benutzerinteraktion mit einer elektronischen Vorrichtung vorzusehen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein vereinfachtes Blockdiagramm von Komponenten, einschließlich interner Komponenten, eines ersten Beispiels einer tragbaren elektronischen Vorrichtung, die geeignet ist zum Ausführen der beispielhaften Ausführungsbeispiele der vorliegenden Offenbarung;
  • 2 ist eine Vorderansicht eines Beispiels einer tragbaren elektronischen Vorrichtung, die geeignet ist zur Ausführung der beispielhaften Ausführungsbeispiele der vorliegenden Offenbarung;
  • 3 ist ein vereinfachtes Blockdiagramm eines Gestenerfassungs-Teilsystems in Übereinstimmung mit der vorliegenden Offenbarung;
  • 4A ist eine sektionale Draufsicht der tragbaren elektronischen Vorrichtung von 2, die die Position der Sensoren zeigt;
  • 4B ist eine sektionale Seitenansicht der tragbaren elektronischen Vorrichtung von 2, die die Position der Sensoren zeigt;
  • 5 ist eine Schnittansicht einer beispielhaften Drucksensoranordnung für die tragbare elektronische Vorrichtung von 2 in Übereinstimmung mit der vorliegenden Offenbarung;
  • 6 ist eine Schnittansicht einer weiteren beispielhaften Drucksensoranordnung für die tragbare elektronische Vorrichtung von 2 in Übereinstimmung mit der vorliegenden Offenbarung;
  • 7 ist eine sektionale Draufsicht einer beispielhaften Magnetsensoranordnung für eine tragbare elektronische Vorrichtung mit einer flexiblen Hülle bzw. Skin, wobei das flexible Skin in einem neutralen Zustand ist;
  • 8 ist eine sektionale Draufsicht einer beispielhaften Magnetsensoranordnung für eine tragbare elektronische Vorrichtung mit einem flexiblen Skin, wobei das flexible Skin in einem betätigten Zustand ist;
  • 9 ist ein Ablaufdiagramm, das ein Verfahren zur Gesten-Erkennung in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung zeigt;
  • 10A bis 10I sind Diagrammdarstellungen von Kraftgesten, die von beispielhaften Ausführungsbeispielen der vorliegenden Offenbarung erfasst werden können;
  • 11 ist ein Ablaufdiagramm eines Verfahrens zum Zoomen einer Benutzerschnittstelle in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung;
  • 12 ist ein Ablaufdiagramm eines Verfahrens zum Navigieren eines Dokuments in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung;
  • 13 ist ein Ablaufdiagramm eines Verfahrens zum Navigieren eines Kalenders in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung;
  • 14 ist ein Ablaufdiagramm eines Verfahrens zum Navigieren von Media in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung;
  • 15 ist ein Ablaufdiagramm eines Verfahrens zur Steuerung eines Fahrzeugsimulators in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; und
  • 16 ist ein Ablaufdiagramm, das ein Verfahren zum Vorsehen von Sicherheit auf der tragbaren elektronischen Vorrichtung in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt.
  • DETAILLIERTE BESCHREIBUNG VON BEISPIELHAFTEN AUSFÜHRUNGSBEISPIELEN
  • Es wird nun Bezug genommen auf die beigefügten Zeichnungen, die auf beispielhafte Weise beispielhafte Ausführungsbeispiele der vorliegenden Offenbarung zeigen. Zur Vereinfachung und Übersichtlichkeit der Darstellung können Bezugszeichen bei den Figuren wiederholt werden, um entsprechende oder analoge Elemente anzuzeigen. Eine Vielzahl von Details wird dargelegt, um ein Verständnis der hier beschriebenen beispielhaften Ausführungsbeispiele vorzusehen. Die beispielhaften Ausführungsbeispiele können ohne diese Details praktiziert werden. In anderen Instanzen werden allgemein bekannte Verfahren, Vorgänge und Komponenten nicht im Detail beschrieben, um ein Verschleiern der beschriebenen beispielhaften Ausführungsbeispiele zu vermeiden. Die Beschreibung soll den Umfang der hier beschriebenen beispielhaften Ausführungsbeispiele nicht beschränken. Jede Referenz zu einer Richtung oder Orientierung ist als Zweckmäßigkeit gedacht und soll nicht einschränkend sein, außer es wird ausdrücklich hier angeführt.
  • Die Offenbarung betrifft im Allgemeinen eine tragbare elektronische Vorrichtung, wie eine handgehaltene elektronische Vorrichtung. Beispiele für handgehaltene elektronische Vorrichtungen umfassen drahtlose Kommunikationsvorrichtungen, wie zum Beispiel Pager, Mobiltelefone, Smartphones, Tabletcomputer-Vorrichtungen, drahtlose Organizer, persönliche digitale Assistenten (PDAs – personal digital assistants), und so weiter. Die tragbare elektronische Vorrichtung kann auch eine handgehaltene elektronische Vorrichtung mit oder ohne drahtlose Kommunikationsfähigkeiten sein, wie zum Beispiel eine elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
  • Die vorliegende Offenbarung bietet eine Lösung, die herkömmliche Eingabevorrichtungen von tragbaren elektronischen Vorrichtungen, wie Tastenfelder, Tastaturen und Berührungsbildschirme, mit Eingaben erweitert, die von Kraftgesten vorgesehen werden, die verursacht werden durch Kräfte zum Dehnen bzw. Ziehen, Komprimieren bzw. Drücken, Biegen, Verdrehen und/oder Falten bzw. Knicken, die auf die tragbare elektronische Vorrichtung angewendet werden. Sensoren werden verwendet, um die Verformung eines Gehäuses der tragbaren elektronischen Vorrichtung zu erfassen, die verursacht wird durch Kräfte zum Dehnen bzw. Ziehen, Komprimieren bzw. Drücken, Biegen, Verdrehen und/oder Falten bzw. Knicken. Die vorgeschlagene Lösung bietet eine relativ kostengünstige und einfache Lösung zum Vorsehen von Eingaben, die verwendet werden können, um Eingaben von herkömmlichen Eingabevorrichtungen zu ergänzen oder zu ersetzen.
  • In Übereinstimmung mit einem beispielhaften Ausführungsbeispiel ist ein Verfahren vorgesehen zum Steuern einer tragbaren elektronischen Vorrichtung, das aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen einer Aktion, die mit einer erfassten Verformung assoziiert ist; und Veranlassen, dass die bestimmte Aktion durchgeführt wird. In einigen Beispielen weist das Bestimmen auf: Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Bestimmen der Aktion, die mit der bestimmten Kraftgeste assoziiert ist. In einigen Beispielen wird die Aktion in Übereinstimmung mit der bestimmten Kraftgeste und zumindest einem aus einer Berührungseingabe, einer Vorrichtungsausrichtung oder einer Bewegungsgeste bestimmt. In einigen Beispielen ist die Berührungseingabe eine Berührungsstelle oder eine Berührungsgeste. in einigen Beispielen ist die erfasste Verformung eine Verformung eines im Wesentlichen starren Gehäuses der tragbaren elektronischen Vorrichtung. In einigen Beispielen weist das Erfassen ein Erfassen von Kräften auf, die auf das Gehäuse angewendet werden. In einigen Beispielen ist die erfasste Verformung eine Verformung einer flexiblen Hülle bzw. Skins, die ein im Wesentlichen starres Gehäuse der tragbaren elektronischen Vorrichtung umgibt. In einigen Beispielen weist das Erfassen ein Erfassen von Kräften auf, die auf das flexible Skin angewendet werden.
  • In Übereinstimmung mit einem anderen beispielhaften Ausführungsbeispiel ist ein Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung vorgesehen, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms; Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Veranlassen einer ersten Änderung des Inhalts des Benutzerschnittstellenbildschirms; wenn die zweite Kraftgeste erfasst wird, Veranlassen einer zweiten Änderung des Inhalts des Benutzerschnittstellenbildschirms.
  • In Übereinstimmung mit einem weiteren Ausführungsbeispiel ist eine tragbare elektronische Vorrichtung vorgesehen, die aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn eine Falten- bzw. Knicken-Geste im Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines nächsten Datenobjekts in einem Datenspeicher einer Media-Player-Anwendung; und wenn eine Falten-Geste gegen den Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines vorherigen Datenobjekts in einem Datenspeicher der Media-Player-Anwendung.
  • In Übereinstimmung mit einem weiteren beispielhaften Ausführungsbeispiel ist ein Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung vorgesehen, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms mit einem Inhaltsbereich, in dem Inhalt angezeigt wird, wobei der Inhalt ein Fahrzeug in einer Umgebung umfasst; Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Erhöhen eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene; wenn die zweite Kraftgeste erfasst wird, Verringern eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene.
  • In Übereinstimmung mit einem weiteren beispielhaften Ausführungsbeispiel ist ein Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung vorgesehen, das aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung aus einem neutralen Modus; Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Überwachen, wenn die tragbare elektronische Vorrichtung in einem sicheren Modus ist, hinsichtlich einer vorgesehenen Eingabe zum Beenden des sicheren Modus, wobei die vorgesehene Eingabe zum Beenden des sicheren Modus eine erste Kraftgeste oder eine erste Sequenz von Kraftgesten aufweist; und Beenden des sicheren Modus, wenn die erste Kraftgeste oder die erste Sequenz von Kraftgesten erfasst wird. In einigen Beispielen weist das Verfahren weiter auf: Überwachen, wenn die tragbare elektronische Vorrichtung nicht in einem sicheren Modus ist, hinsichtlich einer Auslösebedingung zum Initiieren der sicheren Modus; und Initiieren eines sicheren Modus auf der Vorrichtung in Reaktion auf ein Erfassen einer Auslösebedingung. In einigen Beispielen ist die Auslösebedingung eine zweite Kraftgeste oder eine zweite Sequenz von Kraftgesten. In einigen Beispielen weist das Verfahren weiter auf ein Deaktivieren einer Anzeige der tragbaren elektronischen Vorrichtung bei einem Initiieren des sicheren Modus. In einigen Beispielen weist das Verfahren weiter auf ein Reaktivieren einer Anzeige der tragbaren elektronischen Vorrichtung bei einem Beenden des sicheren Modus. In einigen Beispielen weist das Verfahren weiter auf: ein Reaktivieren der Anzeige in Reaktion auf die Erfassung einer Eingabe, wenn die tragbare elektronische Vorrichtung in dem sicheren Modus ist, und Anzeigen einer Aufforderung auf der Anzeige für eine vorgesehene Eingabe zum Beenden des sicheren Modus.
  • In einigen Beispielen weist das Verfahren auf ein Hinzufügen eines eindeutigen Eingabewerts, der mit jeder identifizierten Kraftgeste assoziiert ist, zu einem Eingabepuffer, um eine Serie von Eingabewerten zu bilden; Vergleichen der Serie von Eingabewerten in dem Eingabepuffer mit einer Serie von Werten, die einer vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen; und Entsperren der Vorrichtung, wenn die Serie von Eingabewerten in dem Eingabepuffer mit der Serie von Werten übereinstimmt, die der vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen. In einigen Beispielen wird die Serie von Eingabewerten in dem Eingabepuffer mit der Serie von Werten verglichen, die der vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen, in Reaktion auf jede erfasste Kraftgeste. In einigen Beispielen wird die Serie von Eingabewerte in dem Eingabepuffer mit der Serie von Werten verglichen, die einer vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen, wenn eine Anzahl der Eingabewerte in dem Eingabepuffer mit einer Anzahl der Eingabewerte in der vorgegebenen Kraftgeste-Passcode-Sequenz übereinstimmt. In einigen Beispielen weist das Verfahren auf ein Hinzufügen eines Eingabewerts, der mit nicht-identifizierten Kraftgesten assoziiert ist, zu dem Eingabepuffer für jede erfasste nicht-identifizierte Kraftgeste. In einigen Beispielen ist der Eingabewert, der mit nicht-identifizierten Kraftgesten assoziiert ist, ein eindeutiger Eingabewert, der mit allen nicht-identifizierten Kraftgesten assoziiert ist.
  • In Übereinstimmung mit einem weiteren beispielhaften Ausführungsbeispiel ist eine tragbare elektronische Vorrichtung vorgesehen, die aufweist: ein im Wesentlichen starres Gehäuse, das einen Prozessor, einen mit dem Prozessor gekoppelten Sensor enthält, wobei der Sensor eine Verformung der tragbaren elektronischen Vorrichtung erfasst; wobei der Prozessor konfiguriert ist zur Durchführung des/der hier dargelegten Verfahren(s).
  • In einigen Beispielen weist die tragbare elektronische Vorrichtung weiter auf: ein flexibles Skin, das das Gehäuse umgibt, wobei das flexible Skin einen Magnet trägt; wobei der Sensor einen Magnetsensor aufweist, der mit dem Prozessor gekoppelt ist, der ein magnetisches Feld überwacht, das von dem Magnet in dem flexible Skin erzeugt wird. In einigen Beispielen ist das flexible Skin elastisch zusammendrückbar, so dass es lokal aus einem neutralen Zustand in einen betätigten Zustand zusammengedrückt wird in Reaktion auf eine Druckkraft, und aus dem betätigten Zustand in den neutralen Zustand zurückkehrt, wenn die Druckkraft entfernt wird, wobei der Magnet in dem flexiblen Skin eingebettet ist, um sich in Reaktion auf Änderungen zwischen dem neutralen Zustand und dem betätigten Zustand zu bewegen.
  • In anderen Beispielen weist der Sensor eine erste Erfassungsschicht bzw. Sensorschicht auf, die sich in dem Gehäuse entlang einer ersten Seite davon erstreckt, wobei die erste Erfassungsschicht eine Druck-Erfassungsschicht umfasst, die eine Druckeingabe an den Prozessor liefert. In einigen Beispielen umfasst die erste Erfassungsschicht weiter eine Positions-Erfassungsschicht, die sich in Längsrichtung entlang der ersten Seite erstreckt, die eine Positionseingabe an den Prozessor liefert. Die Positionseingabe identifiziert eine Position eines Teils der ersten Erfassungsschicht, in Eingriff durch direkten oder indirekten Kontakt. Der Positionssensor kann sich zwischen der ersten Seite und der Druck-Erfassungsschicht befinden. Die Druck-Erfassungsschicht kann einen Punktdrucksensor und einen länglichen Druckverteilungsstreifen aufweisen, der zwischen dem Punktdrucksensor und der ersten Seite angeordnet ist.
  • In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist ein Computerprogrammprodukt vorgesehen, das ein computerlesbares Medium mit darauf gespeicherten Computerprogrammanweisungen zum Implementieren eines Verfahrens auf einer elektronischen Vorrichtung aufweist, wobei die computerausführbaren Anweisungen Anweisungen aufweisen zur Durchführung des/der hier dargelegten Verfahren(s).
  • Es wird Bezug genommen auf 1, die in Form eines Blockdiagramms eine tragbare elektronische Vorrichtung 100 zeigt, auf die beispielhafte Ausführungsbeispiele angewendet werden können, die in der vorliegenden Offenbarung beschrieben werden. Die tragbare elektronische Vorrichtung 100 umfasst mehrere Komponenten, wie einen Prozessor 102, der den Gesamtbetrieb der tragbaren elektronischen Vorrichtung 100 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikationen, werden durch ein Kommunikationsteilsystem 104 durchgeführt. Daten, die von der tragbaren elektronischen Vorrichtung 100 empfangen werden, werden durch einen Decodierer 106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem 104 empfängt Nachrichten von einem drahtlosen Netzwerk 150 und sendet Nachrichten an ein drahtloses Netzwerk 150. Das drahtlose Netzwerk 150 kann jeder Typ eines drahtlosen Netzwerks sein, einschließlich, aber nicht darauf beschränkt, drahtlose Datennetzwerke, drahtlose Sprachnetzwerke, und Netzwerke, die sowohl Sprach- als auch Datenkommunikationen unterstützen. Eine Stromquelle 142, wie eine oder mehrere wiederaufladbare Batterien oder ein Anschluss an eine externe Stromversorgung, versorgt die tragbare elektronische Vorrichtung 100 mit Strom.
  • Der Prozessor 102 interagiert mit anderen Komponenten, wie RAM (Random Access Memory) 108, einem Speicher 110, einer Anzeige 112 mit einer berührungsempfindlichen Überlagerung 114, die betriebsfähig mit einer elektronischen Steuervorrichtung 116 verbunden ist, die zusammen eine berührungsempfindliche Anzeige 118, ein Gestenerfassungs-Teilsystem 122, ein Hilfs-Eingabe/Ausgabe(I/O – Input/Output)-Teilsystem 124, einen Datenanschluss 126, einen Lautsprecher 128, ein Mikrophon 130, Nahbereichskommunikationen 132, andere Vorrichtungsteilsysteme 134 und einen Akzelerometer bzw. Beschleunigungsmesser 136 aufweisen.
  • Eine Benutzerinteraktion mit einer grafischen Benutzerschnittstelle (GUI – graphical user interface) wird über die berührungsempfindliche Überlagerung 114 durchgeführt. Der Prozessor 102 interagiert mit der berührungsempfindlichen Überlagerung 114 über die elektronische Steuervorrichtung 116. Information, wie Text, Zeichen, Symbole, Bilder, Icons und andere Elemente, die auf einer tragbaren elektronischen Vorrichtung angezeigt oder dargestellt werden können, wird auf der berührungsempfindlichen Anzeige 118 über den Prozessor 102 angezeigt. Der Prozessor 102 kann mit einem Orientierungssensor interagieren, wie dem Beschleunigungsmesser 136, um eine Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen, um zum Beispiel die Ausrichtung bzw. Orientierung der tragbaren elektronischen Vorrichtung 100 zu bestimmen.
  • Zur Identifizierung eines Teilnehmers für einen Netzwerkzugriff verwendet die tragbare elektronische Vorrichtung 100 eine SIM(Subscriber Identity Module)- oder eine RUIM(Removable User Identity Module)-Karte 138 zur Kommunikation mit einem Netzwerk, wie dem drahtlosen Netzwerk 150. Alternativ kann eine Benutzeridentifikationsinformation in den Speicher 110 programmiert werden.
  • Die tragbare elektronische Vorrichtung 100 umfasst ein Betriebssystem 146 und Softwareanwendungen 148, die von dem Prozessor 102 ausgeführt werden und typischerweise in einem persistenten, aktualisierbaren Speicher gespeichert sind, wie dem Speicher 110. Zusätzliche Anwendungen 148 können auf die tragbare elektronische Vorrichtung 100 über das drahtlose Netzwerk 150, das Hilfs-E/A-Teilsystem 124, den Datenanschluss 126, das Nahbereichs-Kommunikationsteilsystem 132 oder jedes andere geeignete Teilsystem 134 geladen werden.
  • Die Anwendungen 148 umfassen einen Gesten-Interpretierer 160 zum Erkennen von Kraftgesten, einen Befehls-Interpretierer 162 zum Bestimmen einer Aktion, die mit einer Kraftgeste assoziiert ist, und ein Sicherheitsmodul 164. Der Gesten-Interpretierer 160 und der Befehls-Interpretierer 162 können getrennte Komponenten sein oder können kombiniert sein. Das Sicherheitsmodul 164 Liefert Sicherheitsdienste für die tragbare elektronische Vorrichtung 100, einschließlich Sperren- und Entsperren-Prozesse, die in der Technik bekannt sind. Das Sicherheitsmodul 164 überwacht hinsichtlich Auslösebedingungen und erfasst diese zum Initiieren eines sicheren Modus auf der tragbaren elektronischen Vorrichtung 100, wenn diese nicht in einem sicheren Modus ist, und überwacht hinsichtlich einer vorgesehenen Eingabe und erfasst diese zum Beenden des sicheren Modus, wenn sie in einem sicheren Modus ist. Das Sicherheitsmodul 164 kann eine getrennte Anwendung sein oder kann ein Teil des Betriebssystems 146 sein. Die Anwendungen 148 können auch einen Web-Browser, eine Karten- oder Navigationsanwendung, einen Media-Player, einen Kalender, einen Dokumentenbetrachter, Spiele oder jede Kombination daraus umfassen. Die Spiele können zum Beispiel einen Fahrzeugsimulator, wie einen Fahrsimulator (oder Videospiel), oder einen Flug-Simulator (oder Videospiel) umfassen.
  • Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite, wird von dem Kommunikationsteilsystem 104 verarbeitet und in den Prozessor 102 eingegeben. Der Prozessor 102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige 112 und/oder das Hilfs-E/A-Teilsystem 124. Ein Teilnehmer kann Datenelemente erzeugen, zum Beispiel Email-Nachrichten, die über das drahtlose Netzwerk 150 durch das Kommunikationsteilsystem 104 übertragen werden können, zum Beispiel.
  • Die berührungsempfindliche Anzeige 118 kann jede geeignete berührungsempfindliche Anzeige sein, wie eine kapazitive, resistive, Infrarot, berührungsempfindliche SAW(surface acoustic wave)-Anzeige, Dehnungsmesser, optische Abbildung, dispersive Signaltechnologie, Akustikimpulserkennung, und so weiter, wie in der Technik bekannt ist. In dem hier beschriebenen beispielhaften Ausführungsbeispiel ist die berührungsempfindliche Anzeige 118 eine kapazitive berührungsempfindliche Anzeige, die eine kapazitive berührungsempfindliche Überlagerung 114 umfasst. Die Überlagerung 114 kann eine Baugruppe aus mehreren Schichten in einem Stapel sein, einschließlich zum Beispiel ein Substrat, eine Erdungsabschirmungsschicht, eine Sperrschicht, eine oder mehrere kapazitive Berührungssensorschichten, die durch ein Substrat oder eine andere Barriere getrennt sind, und eine Abdeckung. Die kapazitiven Berührungssensorschichten können aus jedem geeigneten Material sein, wie gemustertes Indium-Zinn-Oxid (ITO – indium tin oxide).
  • Die Anzeige 112 der berührungsempfindlichen Anzeige 118 umfasst einen Anzeigebereich, in dem Information angezeigt werden kann, und einen Nicht-Anzeigebereich, der sich um den Umfang des Anzeigebereichs erstreckt. Information wird in dem Nicht-Anzeigebereich nicht angezeigt, der verwendet wird, um zum Beispiel elektronische Spuren oder elektrische Verbindungen, Klebstoffe oder andere Dichtmittel, und/oder Schutzschichten um die Ränder des Anzeigebereichs aufzunehmen.
  • Eine oder mehrere Berührung(en), die auch als Berührungseingaben, Berührungskontakte oder Berührungsereignisse bekannt sind, kann/können durch die berührungsempfindliche Anzeige 118 erfasst werden. Der Prozessor 102 kann Attribute der Berührung bestimmen, einschließlich einer Position einer Berührung. Berührungspositionsdaten können einen Kontaktbereich oder einen einzelnen Kontaktpunkt umfassen, wie ein Punkt an oder nahe der Mitte des Kontaktbereichs, bekannt als Zentroid. Ein Signal wird an die Steuervorrichtung 116 geliefert in Reaktion auf die Erfassung einer Berührung. Eine Berührung kann von jedem geeigneten Objekt erfasst werden, wie einem Finger, Daumen, Gliedmaß, oder anderen Elementen, zum Beispiel einem Stylus, Stift oder anderem Zeiger, abhängig von dem Typ der berührungsempfindlichen Anzeige 118. Die Position der Berührung bewegt sich, wenn sich das erfasste Objekt während einer Berührung bewegt. Die Steuervorrichtung 116 und/oder der Prozessor 102 können eine Berührung durch jedes geeignete Kontaktelement auf der berührungsempfindlichen Anzeige 118 erfassen. Ähnlich werden mehrere gleichzeitige Berührungen erfasst.
  • Die berührungsempfindliche Überlagerung 114 ist konfiguriert, eine oder mehrere Berührungsgesten zu erfassen. Alternativ kann der Prozessor 102 konfiguriert sein, eine oder mehrere Berührungsgesten in Übereinstimmung mit Berührungsdaten zu erfassen, die von der berührungsempfindlichen Überlagerung 114 vorgesehen sind. Eine Berührungsgeste ist ein bestimmter Typ einer Berührung auf einer berührungsempfindlichen Anzeige 118, die an einem Ursprungspunkt beginnt und bis zu einem Endpunkt geht. Eine Berührungsgeste kann durch Attribute der Berührungsgeste identifiziert werden, einschließlich zum Beispiel dem Ursprungspunkt, dem Endpunkt, der zurückgelegten Entfernung, der Dauer, der Geschwindigkeit und der Richtung. Eine Berührungsgeste kann lang oder kurz in der Entfernung und/oder der Dauer sein. Zwei Punkte der Berührungsgeste können verwendet werden, um eine Richtung der Berührungsgeste zu bestimmen.
  • Ein Beispiel für eine Berührungsgeste ist ein „Swipe” (auch als „Flick” bekannt). Ein Swipe bzw. ein „Streichen bzw. Wischen” hat eine einzige Richtung. Die berührungsempfindliche Überlagerung 114 kann Swipes in Bezug auf den Ursprungspunkt evaluieren, an dem zuerst ein Kontakt mit der berührungsempfindlichen Überlagerung 114 gemacht wird, und den Endpunkt, an dem der Kontakt mit der berührungsempfindlichen Überlagerung 114 endet, anstatt jede einer Kontaktposition, oder Kontaktpunkt, über die Dauer der Berührungsgeste zu verwenden, um eine Richtung zu erkennen.
  • Beispiele für Swipes umfassen einen horizontalen Swipe, einen vertikalen Swipe und einen diagonalen Swipe. Ein horizontaler Swipe weist typischerweise auf einen Ursprungspunkt in der Nähe der linken oder rechten Seite der berührungsempfindlichen Überlagerung 114, um die Berührungsgeste zu initialisieren, eine horizontale Bewegung des erfassten Objekts von dem Ursprungspunkt zu einem Endpunkt in der Nähe der rechten oder linken Seite der berührungsempfindlichen Überlagerung 114 unter Beibehaltung eines kontinuierlichen Kontakts mit der berührungsempfindlichen Überlagerung 114, und ein Abbrechen des Kontakts mit der berührungsempfindlichen Überlagerung 114. Ähnlich weist ein vertikaler Swipe typischerweise auf einen Ursprungspunkt in der Nähe von oben oder unten der berührungsempfindlichen Überlagerung 114, um die Berührungsgeste zu initialisieren, eine horizontale Bewegung des erfassten Objekts von dem Ursprungspunkt zu einem Endpunkt in der Nähe von unten oder oben der berührungsempfindlichen Überlagerung 114 unter Beibehaltung eines kontinuierlichen Kontakts mit der berührungsempfindlichen Überlagerung 114, und ein Abbrechen des Kontakts mit der berührungsempfindlichen Überlagerung 114.
  • Swipes können verschiedene Längen haben, können an verschiedenen Stellen auf der berührungsempfindlichen Überlagerung 114 initiiert werden, und müssen sich nicht über die volle Dimension der berührungsempfindlichen Überlagerung 114 erstrecken. Zusätzlich kann ein Abbrechen des Kontakts eines Swipes bzw. Wischens allmählich sein, indem der Kontakt mit der berührungsempfindlichen Überlagerung 114 allmählich reduziert wird, während das Wischen noch in Gange ist.
  • Meta-Navigations-Berührungsgesten können ebenfalls von der berührungsempfindlichen Anzeige 118 erfasst werden. Eine Meta-Navigations-Berührungsgeste ist eine Berührungsgeste, die einen Ursprungspunkt hat, der sich außerhalb des Anzeigebereichs der berührungsempfindlichen Anzeige 118 befindet und der sich an eine Position auf dem Anzeigebereich der berührungsempfindlichen Anzeige 118 bewegt. Andere Attribute der Berührungsgeste können erfasst und verwendet werden, um die Meta-Navigations-Berührungsgeste zu erfassen. Meta-Navigations-Berührungsgesten können auch Mehrfachberührungs-Berührungsgesten umfassen, bei denen Berührungsgesten gleichzeitig sind oder sich zeitlich überlappen, und wobei zumindest eine der Berührungen einen Ursprungspunkt hat, der außerhalb des Anzeigebereichs ist, und sich an eine Position auf dem Anzeigebereich der berührungsempfindlichen Anzeige 118 bewegt. Somit können zwei Finger für Meta-Navigations-Berührungsgesten benutzt werden. Ferner können Mehrfachberührungs-Meta-Navigations-Berührungsgesten von Einzelberührungs-Meta-Navigations-Berührungsgesten unterschieden werden und können zusätzliche oder weitere Funktionalität bieten.
  • Der Beschleunigungsmesser bzw. Akzelerometer 136 ist mit dem Prozessor 102 gekoppelt und wird durch eine oder eine Kombination aus einer Überwachungsschaltung (nicht gezeigt) und einer Betriebssoftware gesteuert. Der Beschleunigungsmesser 136 hat ein Erfassungselement, das eine Beschleunigung aus Bewegung und/oder Gravität erfasst. Der Beschleunigungsmesser 136 erzeugt ein elektrisches Signal, das für die erfasste Beschleunigung repräsentativ ist, und gibt dieses aus. Änderungen bei der Orientierung und Bewegung der tragbaren elektronischen Vorrichtung 100 führen zu Änderungen bei der Beschleunigung, die entsprechende Änderungen bei der elektrischen Signalausgabe des Beschleunigungsmessers 136 erzeugen. Der Beschleunigungsmesser 136 kann ein Drei-Achsen-Beschleunigungsmesser mit drei zueinander orthogonalen Erfassungsachsen sein. Die tragbare elektronische Vorrichtung 100 kann in anderen Ausführungsbeispielen andere Typen von Bewegungssensoren zusätzlich zu oder anstelle des Beschleunigungsmessers 136 haben. Die anderen Bewegungssensoren können zum Beispiel einen Nähesensor und/oder ein Gyroskop aufweisen, die jeweils die Nähe und Orientierung der tragbaren elektronischen Vorrichtung 100 erfassen.
  • Änderungen bei der Beschleunigung, Nähe und Orientierung können durch die tragbare elektronische Vorrichtung 100 als Bewegung der tragbaren elektronischen Vorrichtung 100 interpretiert werden. Wenn die Änderungen bei Beschleunigung, Nähe und Orientierung innerhalb von Schwellen-Toleranz(en) von Regelmäßigkeit oder Vorhersagbarkeit liegen, wenn die Änderungen bei Beschleunigung, Nähe und Orientierung mit vorgegebenen Bewegungskriterien übereinstimmen (zum Beispiel gespeichert in dem Speicher 110), können die Änderungen durch die tragbare elektronische Vorrichtung 100 als ein Bewegungsmuster interpretiert werden. Mehrere Bewegungsmuster können durch die tragbare elektronische Vorrichtung 100 erkannt werden. Durch Konfigurieren des Prozessors 102 zum Erkennen von bestimmten Bewegungsmustern in dem Beschleunigungssignal von dem Beschleunigungsmesser 136, kann der Prozessor 102 bestimmen, ob die tragbare elektronische Vorrichtung 100 in einer vorgegebenen Bewegungssequenz bewegt wurde, hier als Bewegungsgesten bezeichnet. Durch den Benutzer durchgeführte Bewegungsgesten können eine Beschleunigung in einer oder mehreren Erfassungsachsen und in eine oder mehrere Richtungen verursachen.
  • Wie ebenfalls für Fachleute offensichtlich ist, können Beschleunigungsmesser digitale oder analoge Ausgabesignale erzeugen. Im Allgemeinen sind zwei Typen von Ausgaben verfügbar, abhängig davon, ob ein analoger oder ein digitaler Beschleunigungsmesser verwendet wird: (1) eine analoge Ausgabe, die eine Pufferung und eine Analog Digital-(A/D – analog-to-digital)-Umwandlung erfordert; und (2) eine digitale Ausgabe, die typischerweise verfügbar ist in einer Industrie-Standard-Schnittstelle, wie eine SPI (Serial Peripheral Interface) oder eine I2C(Inter-Integrated Circuit)-Schnittstelle. Wenn der Beschleunigungsmesser analog ist, umfasst der Speicher 110 maschinenlesbare Anweisungen zum Berechnen einer Beschleunigung basierend auf elektrischer Ausgabe, die von dem Beschleunigungsmesser 136 eingegeben wird. Der Prozessor 102 führt die maschinenlesbaren Anweisungen aus, um eine Beschleunigung zu berechnen, die durch das Betriebssystem 146 und/oder Anwendungen 148 verwendet werden kann.
  • Die Ausgabe des Beschleunigungsmessers 136 wird typischerweise in Bezug auf die Gravitationsbeschleunigungskonstante auf der Erdoberfläche gemessen, als g bezeichnet, die ungefähr 9,81 m/s2 (32,2 ft/s2) als Standarddurchschnitt beträgt, oder in Bezug auf Einheiten Gal (cm/s2). Der Beschleunigungsmesser 136 kann fast jeder Typ sein, einschließlich, aber nicht darauf beschränkt, ein kapazitiver, piezoelektrischer, piezoresistiver, oder Gas-basierter Beschleunigungsmesser. Der Bereich von Beschleunigungsmessern variiert bis zu Tausenden von g, jedoch können für tragbare elektronische Vorrichtungen Beschleunigungsmesser für „niedriges g” verwendet werden. Beispielhafte Beschleunigungsmesser für niedriges g, die verwendet werden können, sind MEMS-Digital-Beschleunigungsmesser von Analog Devices, Inc. (ADI), Freescale Semiconductor, Inc. (Freescale) und STMicroelectronics N. V. aus Genf, Schweiz. Beispielhafte Niedrig-g-MEMS-Beschleunigungsmesser sind Modell LIS331DL, LIS3021DL und LIS3344AL Beschleunigungsmesser von STMicroelectronics N. V.
  • Die tragbare elektronische Vorrichtung 100 kann auch eine Navigationsvorrichtung umfassen (nicht gezeigt), wie einen drückbaren (oder anklickbaren) Joystick (zum Beispiel ein drückbarer optischer Joystick), ein drückbarer Trackball, ein drückbares Scrollrad oder ein drückbares berührungsempfindliches Trackpad oder Touchpad. Die tragbare elektronische Vorrichtung 100 kann auch ein Tastenfeld oder eine Tastatur (nicht gezeigt) zusätzlich zu der berührungsempfindlichen Anzeige 118 umfassen. Die tragbare elektronische Vorrichtung 100 kann auch einen oder mehrere Knöpfe umfassen (nicht gezeigt). Die Navigationsvorrichtung, Tastenfeld oder Tastatur und Knöpfe können Teil der Hilfs-E/A-Teilsysteme 124 sein. In Ausführungsbeispielen, die keine Berührungseingaben verwenden, kann die berührungsempfindliche Anzeige 118 mit einer herkömmlichen Anzeige ersetzt werden, wie eine LCD- oder LED-Anzeige.
  • 2 zeigt eine Vorderansicht eines Beispiels einer tragbaren elektronischen Vorrichtung, die geeignet ist zur Ausführung der beispielhaften Ausführungsbeispiele der vorliegenden Offenbarung. In dem gezeigten Beispiel ist die tragbare elektronische Vorrichtung 100 eine Tablet-Computervorrichtung, kann aber in anderen Ausführungsbeispielen ein anderer Typ einer tragbaren elektronischen Vorrichtung sein. Die tragbare elektronische Vorrichtung 100 umfasst ein im Wesentlichen starres und nicht zusammendrückbares Gehäuse 202, das Komponenten umschließt, wie in 1 gezeigt. Das Gehäuse 202 kann aus geeignetem Kunststoff oder einem anderen geeigneten Material gebildet sein, das im Wesentlichen starr und nicht zusammendrückbar ist.
  • In dem gezeigten Beispiel ist das Gehäuse 202 länglich mit einer größeren Länge als Breite. Das Gehäuse 202 ist konfiguriert, von einem Benutzer mit einer Hand oder zwei Händen im Hochformat (portrait orientation) gehalten zu werden, während die tragbare elektronische Vorrichtung 100 in Betrieb ist, oder mit zwei Händen im Querformat (landscape orientation), während die tragbare elektronische Vorrichtung 100 in Betrieb ist. Das Gehäuse 202 hat eine Vorderseite 204, die die berührungsempfindliche Anzeige 118 einrahmt. Das Gehäuse 202 hat eine Rückseite 205 (gezeigt in 3B), die der Vorderseite 204 gegenüberliegt. In dem gezeigten Ausführungsbeispiel definiert die Vorderseite 204 eine Ebene, die im Wesentlichen parallel zu einer Ebene ist, die durch die Rückseite 205 definiert wird. Das Gehäuse 202 hat vier Seiten 222, 224, 226, 228, die die Rückseite 205 und die Vorderseite 204 verbinden. Die Seiten umfassen gegenüberliegende obere und untere Seiten, die durch die Bezugszeichen 222 beziehungsweise 224 bezeichnet werden, und linke und rechte Seiten, die sich quer zu den oberen und unteren Seiten 222, 224 erstrecken, bezeichnet durch die Bezugszeichen 226 beziehungsweise 228. In dem gezeigten Ausführungsbeispiel ist das Gehäuse 202 im Wesentlichen als ein rechteckiges Prisma ausgebildet, gebildet durch die Vorderseite 204, die Rückseite 205 und die Seiten 222, 224, 226, 228. Die oberen, unteren, linken und rechten Seiten sind relativ zu der Position, in der die Vorrichtung 100 gehalten wird, während die Vorderseite und die Rückseite nicht relativ zu der Position sind, in der die Vorrichtung 100 gehalten wird.
  • In dem Beispiel von 2 ist die berührungsempfindliche Anzeige 118 im Allgemeinen in dem Gehäuse 202 zentriert derart, dass der Anzeigebereich 206 der Anzeige 112 im Allgemeinen in Bezug auf die Vorderseite 204 des Gehäuses 202 zentriert ist. Der Nicht-Anzeigebereich 208 der berührungsempfindlichen Überlagerung 114 erstreckt sich um den Anzeigebereich 206 herum. In dem hier beschriebenen Ausführungsbeispiel ist die Breite des Nicht-Anzeigebereichs 4 mm.
  • Für den Zwecke des vorliegenden Beispiels erstreckt sich die berührungsempfindliche Überlagerung 114, um den Anzeigebereich 206 und den Nicht-Anzeigebereich 208 abzudecken. Berührungen auf dem Anzeigebereich 206 können erfasst werden und können zum Beispiel mit angezeigten auswählbaren Merkmalen assoziiert werden. Berührungen auf dem Nicht-Anzeigebereich 208 können erfasst werden, um zum Beispiel eine Meta-Navigations-Berührungsgeste zu erfassen. Alternativ können Meta-Navigations-Berührungsgesten von sowohl dem Nicht-Anzeigebereich 208 als auch dem Anzeigebereich 206 bestimmt werden. Die Dichte von Berührungssensoren kann sich von dem Anzeigebereich 206 zu dem Nicht-Anzeigebereich 208 unterscheiden. Zum Beispiel kann sich die Dichte von Knoten in einer gemeinsamen kapazitiven berührungsempfindlichen Anzeige oder die Dichte von Positionen, an denen Elektroden einer Schicht über Elektroden einer anderen Schicht kreuzen, zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 unterscheiden.
  • Berührungsgesten, die auf der berührungsempfindlichen Anzeige 118 empfangen werden, können basierend auf den Attributen analysiert werden, um zwischen Meta-Navigations-Berührungsgesten und anderen Berührungen oder nicht-Meta-Navigations-Berührungsgesten zu unterscheiden. Meta-Navigations-Berührungsgesten können identifiziert werden, wenn die Berührungsgeste über eine Grenze in der Nähe eines Randbereichs des Anzeigebereichs 112 geht, wie eine Grenze 210 zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208. In dem Beispiel von 2 kann der Ursprungspunkt einer Meta-Navigations-Berührungsgeste auf der berührungsempfindlichen Anzeige 118 bestimmt werden unter Verwendung des Bereichs der berührungsempfindlichen Überlagerung 114, die den Nicht-Anzeigebereich 208 abdeckt.
  • Ein Pufferbereich 212 oder Band, der/das sich um die Grenze 210 zwischen dem Anzeigebereich 206 und dem Nicht-Anzeigebereich 208 erstreckt, kann verwendet werden derart, dass eine Meta-Navigations-Berührungsgeste identifiziert wird, wenn eine Berührung einen Ursprungspunkt außerhalb der Grenze 210 und des Pufferbereichs 212 hat und durch den Pufferbereich 212 und über die Grenze 210 zu einem Punkt innerhalb der Grenze 210 geht (d. h. in dem Anzeigebereich 206). Obwohl in 2 dargestellt, muss der Pufferbereich 212 nicht sichtbar sein. Stattdessen kann der Pufferbereich 212 ein Bereich um die Grenze 210 sein, der eine Breite hat, die zum Beispiel gleich einer vorgegebenen Anzahl von Pixeln ist. Alternativ kann sich die Grenze 210 über eine vorgegebene Anzahl von Berührungssensoren erstrecken oder sich über einen vorgegebenen Abstand von dem Anzeigebereich 206 erstrecken. Die Grenze 210 kann ein berührungsempfindlicher Bereich sein oder kann ein Bereich sein, in dem keine Berührungen erfasst werden.
  • Berührungsgesten, die einen Ursprungspunkt zum Beispiel in dem Pufferbereich 212 haben, können als nicht-Meta-Navigations-Berührungsgesten identifiziert werden. Optional können Daten von derartigen Berührungsgesten durch eine Anwendung als eine nicht-Meta-Navigations-Berührungsgeste verwendet werden. Alternativ können Daten von solchen Berührungsgesten verworfen werden derart, dass Berührungen, die einen Ursprungspunkt auf dem Pufferbereich 212 haben, nicht als Eingabe an der tragbaren elektronischen Vorrichtung 100 verwendet werden.
  • Unter Bezugnahme auf 3 wird das Gestenerfassungs-Teilsystem 122 detaillierter beschrieben. Das Gestenerfassungs-Teilsystem 122 umfasst einen Sensorabschnitt 302 mit einer Anzahl von Sensoren 301, einen Daten-Akquisitions-Abschnitt 304 und eine Steuervorrichtung 306. Der Sensorabschnitt 302 kann einen oder eine Kombination aus Kraftsensoren, Biegesensoren, Drucksensoren, Rotationssensoren, magnetische Sensoren oder andere geeignete Sensoren umfassen, die eine Verformung der tragbaren elektronischen Vorrichtung 100 erfassen können, wie eine Verformung des Gehäuses 202. Eine Verformung ist eine physikalische Deformation, die durch eine physikalische Interaktion mit der tragbaren elektronischen Vorrichtung 100 verursacht wird, die durch Gesten veranlasst wird, die von einem Benutzer der tragbaren elektronischen Vorrichtung 100 durchgeführt werden. Die physikalische Deformation veranlasst eine Änderung des physikalischen Zustands der tragbaren elektronischen Vorrichtung 100 von einem vorherexistierenden Zustand, wie ein neutraler Zustand, in einen neuen und anderen Zustand. Die Änderung ist typischerweise nur vorübergehend. Die physikalische Deformation kann vollständig reversibel, nicht vollständig reversibel (d. h. teilweise reversibel) oder vollständig irreversibel sein. Vollständig reversible Deformationen sind bevorzugt, da solche Deformationen die tragbare elektronische Vorrichtung 100 nicht beschädigen. Die Verformung wird typischerweise durch Mikro-Deflexionen in dem Gehäuse 202 oder möglicherweise anderen Komponenten der tragbaren elektronischen Vorrichtung 100 verursacht, die für den Benutzer nicht sichtbar sind. Die Sensoren des Sensorabschnitts 302 sind Vorrichtungen, die eine physikalische Deformation erfassen, die von den Gesten des Benutzers verursacht wird, und derartige physikalische Deformationen als Sensordaten erfassen.
  • Die Kraftsensoren können ein kraftempfindlicher Resistor, ein Dehnungsmesser, eine piezoelektrische oder piezoresistive Vorrichtung oder eine andere geeignete Vorrichtung sein. Kraft, wie in der Spezifikation verwendet, bezieht sich auf Messungen, Schätzungen und/oder Berechnungen von Kraft, wie Druck, Deformation, Belastung, Dehnung, Kraftdichte, Kraft-Bereichs-Beziehungen, Schub, Drehkraft und andere Effekte, die Kraft oder verwandte Quantitäten umfassen.
  • Eine Kalibrierungsroutine kann für die Sensoren 301 vorgesehen werden, um den Nullpunkt anzupassen (zum Beispiel wenn keine Kraft angewendet wird), wenn dieser im Laufe der Zeit abweicht. Wenn zum Beispiel die Sensoren 301 eine relativ konsistente und kontinuierliche Drehkraft erfassen, kann die tragbare elektronische Vorrichtung 100 auf einer flachen Oberfläche platziert werden. Die Ebenheit der Oberfläche kann mit dem Beschleunigungsmesser 136 überprüft werden. Ein Wert der Sensoren 301 kann in dieser Position auf den Nullpunkt kalibriert werden.
  • Die Sensoren in dem Sensorabschnitt 302 können analoge oder digitale Sensoren oder eine Kombination daraus sein. Der Daten-Akquisitions-Abschnitt 304 akquiriert Sensordaten von dem Sensorabschnitt 302, digitalisiert analoge Sensordaten, die von dem Sensorabschnitt 302 akquiriert werden, wenn erforderlich, und liefert digitale Sensordaten an die Steuervorrichtung 306.
  • Die Steuervorrichtung 306 kann konfiguriert sein, zumindest einige der Funktionen durchzuführen, die im Folgenden unter Bezugnahme auf den Gesten-Interpretierer 160, den Befehls-Interpretierer 162 oder beide diskutiert werden. Die Steuervorrichtung 306 kann eine getrennte Steuervorrichtung sein oder kann der Hauptprozessor 102 sein. Zum Beispiel kann der Prozessor 102 ein Universal-Mikroprozessor sein, der verwendet wird zum Steuern der Gesamtvorrichtungsoperationen, während die Steuervorrichtung 306 ein aufgabenspezifischer Mikroprozessor sein kann, der verwendet wird zum Durchführen von Funktionen, die Funktion(en) des Gesten-Interpretierers 160 und/oder des Befehls-Interpretierers 162 betreffen. Die Steuervorrichtung 306 kann konfiguriert sein, eine oder alle der Prozessorfunktionen durchzuführen, die das Gestenerfassungs-Teilsystem 122 betreffen, und die Funktionen des Gesten-Interpretierers 160 und/oder Befehls-Interpretierers 162. Wenn eine getrennte Steuervorrichtung 306 vorgesehen ist, können die Funktionen des Gesten-Interpretierers 160 und/oder des Befehls-Interpretierers 162 zwischen der Steuervorrichtung 306 und dem Prozessor 102 aufgeteilt werden.
  • Unter Bezugnahme auf 4A und 4B wird die Position von Sensoren 301 des Sensorabschnitts 302 in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel beschrieben. Die Sensoren 301, einzeln angezeigt als 301a, 301b, 301c, 301d, 301e und 301f, sind an geeigneten Positionen zwischen der Vorderseite 204, der Rückseite 205 und den Seiten 222, 224, 226, 228 und internen Komponente(n) der tragbaren elektronische Vorrichtung 100 angeordnet, wie einem Rahmen 230, der eine Unterstützung für Vorrichtungskomponenten vorsieht, um Kräfte zu erfassen, die auf das Gehäuse 202 ausgeübt werden. Sechs Sensoren 301, in drei Paaren angeordnet, sind in dem Ausführungsbeispiel vorgesehen, das in den 4A und 4B gezeigt wird. Ein erstes Paar von Sensoren 301a, 301b wird verwendet, um Kräfte zu erfassen, die auf die obere Seite 222 und die untere Seite 224 des Gehäuses 202 angewendet werden. Ein zweites Paar von Sensoren 301c, 301d wird verwendet, um Kräfte zu erfassen, die auf die linke Seite 226 und die rechte Seite 228 des Gehäuses 202 angewendet werden. Ein drittes Paar von Sensoren 301e, 301f wird verwendet, um Kräfte zu erfassen, die auf die Vorderseite 204 und Rückseite 205 des Gehäuses 202 angewendet werden.
  • Das erste Sensorpaar 301a, 301b und das dritte Sensorpaar 301e, 301f kann verwendet werden, um Kraftgesten zu erfassen, die auf das Gehäuse 202 angewendet werden, wenn es von einem Benutzer mit zwei Händen im Hochformat gehalten wird, während das zweite Sensorpaar 301c, 301d und das dritte Sensorpaar 301e, 301f verwendet werden kann, um Kraftgesten zu erfassen, die auf das Gehäuse 202 angewendet werden, wenn es von einem Benutzer mit zwei Händen im Querformat gehalten wird.
  • Eine andere Anzahl und/oder Anordnung von Sensoren 301 kann in anderen Ausführungsbeispiele vorgesehen sein. Zum Beispiel können weniger Sensorpaare in anderen Ausführungsbeispielen vorgesehen sein, oder die Sensoren 301 müssen nicht als Sensorpaare konfiguriert sein. Eine geringere Anzahl von Sensoren 301, d. h. weniger als sechs, kann in anderen Ausführungsbeispielen vorgesehen sein.
  • Unter Bezugnahme nun auf 5 wird eine beispielhafte Drucksensoranordnung 500 für die tragbare elektronische Vorrichtung beschrieben. Die Drucksensoranordnung 500 umfasst eine erste Erfassungsschicht 530, die sich in dem Gehäuse 202 entlang einer ersten Seite der tragbaren elektronischen Vorrichtung 100 befindet, und eine zweite Erfassungsschicht 540, die sich in dem Gehäuse 202 entlang einer zweiten Seite der tragbaren elektronischen Vorrichtung 500 befindet, entgegengesetzt zu der ersten Seite. In dem gezeigten Ausführungsbeispiel befindet sich die erste Erfassungsschicht 530 entlang der linken Seite 226 des Gehäuses 202 und die zweite Erfassungsschicht 540 befindet sich entlang der rechten Seite 228 des Gehäuses 202.
  • Jede der ersten und zweiten Erfassungsschichten 530, 540 umfasst eine Positionserfassungsschicht 534 und eine Druckerfassungsschicht 536. Die Positionserfassungsschicht 534 kann in einigen Ausführungsbeispielen ein kapazitiver Sensor sein. Ein kapazitiver Sensor ist ein Sensor, der eine Position basierend auf kapazitiven Kopplungseffekten erfassen kann. In anderen Ausführungsbeispielen kann die Positionserfassungsschicht 534 ein resistiver bzw. Widerstandssensor sein. Ein Widerstandssensor ist ein Sensor, der eine Position basierend auf Widerstandsprinzipien bestimmt.
  • Die Positionserfassungsschicht 534 erstreckt sich in Längsrichtung entlang der Innenseite des Gehäuses 202. Die Positionserfassungsschicht 534 hat eine Erfassungsseite, die sich entlang zumindest eines Teils der Länge der Seite des Gehäuses 202 erstreckt. Die Positionserfassungsschicht 534 kann sich entlang der gesamten Länge der Seite des Gehäuses 202 erstrecken. In anderen Ausführungsbeispielen kann sich die Positionserfassungsschicht 534 nur entlang eines Teils der Seite des Gehäuses 202 erstrecken. Zum Beispiel kann sich in einigen Ausführungsbeispielen die Positionserfassungsschicht 534 entlang ungefähr der Hälfte oder ungefähr zwei Drittel der gesamten Seite erstrecken.
  • Die Positionserfassungsschichten 534 der ersten und zweiten Erfassungsschichten 530, 540 können Berührungen erfassen und eine Position bestimmen, an der eine Berührung auf der äußeren Oberfläche des Gehäuses 202 gegenüber den Positionserfassungsschichten 534 stattgefunden hat. Die Länge der Positionserfassungsschichten 534 der ersten und zweiten Erfassungsschichten 530, 540 bestimmt im Allgemeinen einen Bereich an den linken und rechten Seiten des Gehäuses 202, auf dem Berührungen erfasst werden können.
  • Die Positionserfassungsschichten 534 der ersten und zweiten Erfassungsschichten 530, 540 sind mit der Steuervorrichtung 306 gekoppelt und liefern Positionseingaben in der Form von Positionsdaten an die Steuervorrichtung 306. Jede Positionseingabe identifiziert eine Position einer Berührung entlang einer jeweiligen Seite des Gehäuses 202, d. h. die linke Seite 226 oder die rechte Seite 228.
  • Die Druckerfassungsschichten 536 sind Drucksensoren, die Druck messen, der auf die linke und rechte Seite des Gehäuses 202 gegenüber den Druckerfassungsschichten 536 angewendet wird. Die Länge der Druckerfassungsschichten 536 der ersten und zweiten Erfassungsschichten 530, 540 bestimmt im Allgemeinen einen Bereich an den linken und rechten Seiten des Gehäuses 202, auf dem Druck erfasst werden kann. Typischerweise haben die Positionserfassungsschichten 534 und die Druckerfassungsschichten 536 die gleiche Größe in dem in 5 gezeigten Beispiel. In einigen Beispielen kann die Positionserfassungsschicht 534 mit der Druckerfassungsschicht 536 verbunden sein.
  • Die ersten und zweiten Erfassungsschichten 530, 540 können eine Unterstützung 538 umfassen, um einem Druck zu widerstehen, der durch den Benutzer während Kraftgesten angewendet wird. Die Unterstützung kann eine starre Wand sein, die als hinterer Anschlag für die Druckerfassungsschicht 536 wirkt. Die Unterstützung 538 kann durch interne Komponenten der tragbaren elektronischen Vorrichtung 100 vorgesehen sein, wie dem Rahmen 230, der eine Unterstützung für Vorrichtungskomponenten vorsieht, wie die Druckerfassungsschicht 536.
  • Die Druckerfassungsschichten 536 der ersten und zweiten Erfassungsschichten 530, 540 sind mit der Steuervorrichtung 306 gekoppelt und liefern Druckeingaben an die Steuervorrichtung 306. Druckeingaben können zum Beispiel verursacht werden durch Anwenden von Druck auf die linke oder die rechte Seite des Gehäuses 202. Der Druck veranlasst, dass die jeweilige Seite aus einem neutralen Zustand in einen betätigten Zustand verformt/deformiert wird. Eine Verformung des Gehäuses 202 veranlasst, dass die jeweilige(n) Seite(n) aus der neutralen Position leicht gedehnt, zusammengedrückt, gebogen, verdreht und/oder gefaltet wird/werden. Das Gehäuse 202 ist im Wesentlichen starr und nicht zusammendrückbar, somit ist der Umfang der Verformung relativ klein und visuell für den Benutzer nicht wahrnehmbar. Die Druckerfassungsschicht 536 kann sehr nahe an der inneren Oberfläche der linken und rechten Seite des Gehäuses 202 angeordnet sein, so dass der Umfang der Verformung, die die Druckerfassungsschicht 536 erfasst, zu vernachlässigen ist.
  • In zumindest einigen Beispielen befinden sich die Positionserfassungsschichten 534 zwischen dem Gehäuse 202 und den Druckerfassungsschichten 536, um bei einem Erfassen von Berührungen durch die Positionserfassungsschichten 534 zu helfen. In einigen Beispielen befindet sich eine leitende Schicht 532 zwischen der Seite des Gehäuses 202 und der jeweiligen Positionserfassungsschicht 534. Die leitende Schicht 532 besteht aus einem leitenden Material, das eine Berührungserfassung an der Positionserfassungsschicht 534 vereinfacht. Die leitende Schicht 532 kann zum Beispiel ein Silber-dotiertes Substrat sein.
  • Unter Bezugnahme nun auf 6 wird eine weitere beispielhafte Drucksensoranordnung 600 für die tragbare elektronische Vorrichtung beschrieben. Die Drucksensoranordnung 600 ist ähnlich zu der Drucksensoranordnung 500, außer dass die Drucksensoren Punktsensoren anstatt Streifensensoren sind.
  • Die ersten und zweiten Erfassungsschichten 530, 540 der Drucksensoranordnung 600 umfassen jeweils Punktdrucksensoren 539. Die Drucksensoren 539 haben einen kleinen Erfassungsbereich relativ zu dem Erfassungsbereich der entsprechenden Streifensensoren, die in 5 gezeigt werden. Der Erfassungsbereich der Punktdrucksensoren 539 ist kleiner als der Erfassungsbereich der Positionserfassungsschicht.
  • Die ersten und zweiten Erfassungsschichten 530, 540 der Drucksensoranordnung 600 können Druckverteilungsstreifen 537 umfassen, um den Erfassungsbereich zu erweitern, den Punktdrucksensoren 539 konfiguriert sind zu erfassen. Die Druckverteilungsstreifen 537 sind längliche Streifen, die zwischen den Punktdrucksensoren 539 und der linken oder rechten Seite des Gehäuses 202 angeordnet sind. Die Länge der Druckverteilungsstreifen 537 kann der Länge der Positionserfassungsschichten 534 entsprechen oder kann der Länge des Gehäuses 202 entsprechen (die gleich oder im Wesentlichen ähnlich der Länge der Positionserfassungsschichten 534 sein kann). Die Druckverteilungsstreifen 537 können an dem Gehäuse 202 befestigt sein, zum Beispiel an den jeweiligen Enden der Druckverteilungsstreifen 537. Die Punktdrucksensoren 539 können sich an oder nahe der Mitte der entsprechenden Druckverteilungsstreifen 537 entlang ihrer Länge befinden, wie in 6 gezeigt wird.
  • Druck, der fast an jeder Stelle entlang der linken oder rechten Seite des Gehäuses 202 angewendet wird, wird durch die Punktdrucksensoren 539 erfasst. Wenn Druck an einer Stelle an der linken oder rechten Seite des Gehäuses 202, aber entfernt von den Punktdrucksensoren 539 angewendet wird, wird der Druck an den entsprechenden Druckverteilungsstreifen 537 übertragen, der wiederum Druck auf den jeweiligen Punktdrucksensor 539 anwendet. Wenn zum Beispiel Druck an der Stelle angewendet wird, die in 6 durch den Pfeil angezeigt wird, wendet der Druckverteilungsstreifen 537 Druck auf den Punktdrucksensor 539 an der linken Seite des Gehäuses 202 an.
  • In anderen Ausführungsbeispielen können die Positionserfassungsschichten 534 weggelassen werden, so dass nur Druckdaten durch die Druckerfassungsschichten 536 oder Punktdrucksensoren 539 der ersten und zweiten Erfassungsschichten 530, 540 vorgesehen werden. Positionsdaten, die von Positionserfassungsschichten 534 in den oben beschriebenen Ausführungsbeispielen vorgesehen werden, sind in solchen alternativen Ausführungsbeispielen nicht verfügbar. Jedoch können Druckdaten weiterhin mit einer entsprechenden Seite des Gehäuses 202 während einer Kraftgestenerkennung assoziiert werden, da die Position jedes einzelnen der Drucksensoren, zum Beispiel die Druckerfassungsschichten 536 oder Punktdrucksensoren 539, in Bezug auf das Gehäuse 202 der Steuerungsvorrichtung bekannt ist.
  • In dem gezeigten Ausführungsbeispiel von 5 und 6 sind die ersten und zweiten Erfassungsschichten 530, 540 ausgebildet, Kräfte zu erfassen, die auf die linke Seite und die rechte Seite der tragbaren elektronischen Vorrichtung 100 angewendet werden. In anderen Ausführungsbeispielen können zusätzliche Erfassungsschichten an dem oberen und dem unteren Ende der tragbaren elektronischen Vorrichtung 100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In weiteren Ausführungsbeispielen können zusätzliche Erfassungsschichten an der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung 100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In einigen Ausführungsbeispielen können die zusätzlichen Erfassungsschichten an dem oberen Ende, dem unteren Ende, der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung 100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen.
  • Unter Bezugnahme nun auf die 7 und 8 wird eine beispielhafte Magnetsensoranordnung 700 für die tragbare elektronische Vorrichtung 100 beschrieben. 7 ist eine sektionale Draufsicht der tragbaren elektronischen Vorrichtung 100 mit einem flexiblen Skin 710, das das Gehäuse 202 umgibt, in einem neutralen Zustand (oder Referenzzustand). 8 ist eine sektionale Draufsicht der tragbaren elektronischen Vorrichtung 100 mit dem flexiblen Skin 710 in einem betätigten Zustand (d. h. ein gedrückter Zustand in dem gezeigten Beispiel).
  • Die magnetische Sensoranordnung 700 weist eine Anzahl von Magneten 720 auf, die sich in dem flexiblen Skin 710 befinden, und eine Anzahl von Magnetsensoren 722, die sich in dem Gehäuse 202 befinden. Die Magnete 720 können jeder geeignete Typ von Permanentmagneten sein, wie zum Beispiel ein Keramik- oder Ferrit-Magnet. Die Magnete 720 befinden sich in dem flexiblen Skin 710 und erzeugen ein magnetisches Feld. Die Magnetsensoren 722 sind Magnetometer, die die Stärke und/oder Richtung des magnetisches Felds erfassen und messen, das durch die Magneten 720 verursacht wird. In den gezeigten Beispielen sind die Magnetsensoren Hall-Effekt-Sensoren 722, sie können aber magnetoresistive Halbeleiterelemente, ferromagnetische magnetoresistive Elemente oder GMR(Giant magnetoresistance)-Vorrichtungen in anderen Ausführungsbeispielen sein.
  • Jeder Hall-Effekt-Sensor 722 weist ein Sensorelement auf (nicht gezeigt), das mit einem Differentialverstärker verbunden ist (nicht gezeigt). Das Hall-Effekt-Sensorelement besteht aus Halbleitermaterial, wie Silizium, und hat eine flache rechteckige Form. Ein Hall-Effekt-Sensorelement wird durch Anwenden von Energie an seine Längsenden betätigt, so dass Strom in Längsrichtung durch das Sensorelement fließt. Die Längsenden des Hall-Effekt-Sensorelements sind jeweils mit einer geregelten Spannungsquelle (V) und mit Masse verbunden (nicht gezeigt). Wenn Strom in Längsrichtung durch das Hall-Effekt-Sensorelement fließt, wird ein Spannungsdifferential über das Element an seinen Ausgängen erzeugt, wenn ein magnetischer Fluss einer passenden Polarität senkrecht durch die Ebene des Hall-Effekt-Sensorelements geht. Die Größe der erzeugten Spannung ist proportional zu der magnetischen Flussdichte der vertikalen Komponente des Felds.
  • Der Differentialverstärker ist parallel mit der Spannungsquelle (V) und Masse verbunden. Der Differentialverstärker verstärkt die Spannungsausgabe des Hall-Effekt-Sensorelements, um eine verstärkte Ausgabe zu erzeugen, die proportional zu der magnetischen Flussdichte ist, die durch das Hall-Effekt-Sensorelement geht. Die Ausgabe des Differentialverstärkers ist ein Signal proportional zu der magnetischen Flussdichte, das von dem Hall-Effekt-Sensorelement empfangen wird.
  • Die Form, Orientierung und Polarität jedes Magnets 720 und das daraus erzeugte magnetische Feld kann von einem sehr schmalen Feld, das nur jeweils einen Hall-Effekt-Sensor 722 betätigen kann, zu einem breiten Feld variieren, das eine Anzahl von Hall-Effekt-Sensoren 722 gleichzeitig betätigen kann. Jeder Hall-Effekt-Sensor 722 kann mit einem bestimmten Magnet oder Magneten 720 ein Paar bilden durch geeignete Auswahl der Form, Orientierung und/oder Polarität des bestimmten Magnets 720. Dies ermöglicht, dass ein bestimmter Hall-Effekt-Sensor 722 die Nähe eines bestimmten Magnets 720 in der Gruppe von Magneten 720 erfassen kann. Die Position des bestimmten Magnets 720 kann bestimmt werden, zum Beispiel unter Verwendung des Prozessors 702, aus der Spannungsausgabe des paarweise zugeordneten Hall-Effekt-Sensors 722.
  • Das flexible Skin 710 liegt im Wesentlichen fest an dem Gehäuse 202 an. Das flexible Skin 710 kann aus jedem geeigneten Material konstruiert sein, einschließlich, aber nicht darauf beschränkt, ein geeignetes Urethan-, Neopren-, Silikonkautschuk- oder anderes geeignetes flexibles Material. Das flexible Skin 710 kann dauerhaft an dem Gehäuse 202 befestigt sein unter Verwendung eines geeigneten Klebstoffs oder anderer geeigneter Befestigungsmittel oder kann entfernbar sein, da die Magnete 720, die von dem flexiblen Skin 710 getragen werden, passive Elemente sind. Dies ermöglicht, dass eine Vielzahl von verschiedenen flexiblen Skins 710 verwendet werden kann. Zum Beispiel können einige flexible Skins 710 die Anzahl von Magneten 720, die Größe der Magnetgrößen und/oder die Position der Magnete variieren. Dies ermöglicht, dass verschiedene Gesten von verschiedenen Skins erkannt werden können. Wenn ein Hall-Effekt-Sensor 722 einem bestimmten Magnet 720 als Paar zugeordnet wird, deaktiviert ein Weglassen eines Magnets 720 effektiv den Hall-Effekt-Sensor 722, der dem Magnet 720 zugeordnet ist, und die Hilfs-Eingabe, die mit dem Hall-Effekt-Sensor 722 assoziiert ist. Somit kann die Funktionalität der tragbaren elektronischen Vorrichtung 700 durch Ändern des flexiblen Skins 710 gesteuert werden.
  • Das flexible Skin 710 ist nachgiebig und elastisch komprimierbar, so dass es lokal zusammengedrückt/verformt werden kann aus dem neutralen Zustand (7) in den betätigten Zustand (8) in Reaktion auf eine Druckkraft (F), die zum Beispiel dadurch veranlasst wird, dass ein Benutzer die tragbare elektronische Vorrichtung 700 drückt, und aus dem betätigten Zustand in den neutralen Zustand zurückkehrt (7), wenn die Druckkraft (F) entfernt wird. Die Magnete 720 sind in dem flexiblen Skin 710 eingebettet, um sich in Reaktion auf Wechsel zwischen dem neutralen Zustand und dem betätigten Zustand zu bewegen, wie unten beschrieben wird.
  • Acht Magnets 720, die einzeln durch die Bezugszeichen 720a, 720b ... 720h bezeichnet werden, befinden sich in dem flexiblen Skin 710 am Rand der tragbaren elektronischen Vorrichtung 700. Die Magnete 720 können freiliegen und sichtbar für den Benutzer sein oder in dem flexiblen Skin 710 eingebettet sein derart, dass die Magnete 720 für den Benutzer nicht sichtbar sind, abhängig von dem Ausführungsbeispiel. In dem gezeigten Beispiel sind die Magnete 720 in Übereinstimmung mit einem Koordinatensystem angeordnet, das durch eine x-Achse und eine y-Achse einer x-y-Ebene definiert ist. Der Ursprung (O) der x-y-Ebene befindet sich in dem gezeigten Beispiel in der Mitte des Gehäuses 202, kann sich aber in anderen Ausführungsbeispielen woanders befinden.
  • Die Magnete 720 sind symmetrisch in der Ebene in Bezug auf den Ursprung derart angeordnet, dass ein Array oder ein Gitter von Magneten 720 gebildet wird. Vier Magnete 720a, 720b, 720c und 720d befinden sich in der linken Seite des flexiblen Skins 710 an den Positionen (–x, y2), (–x, y1), (–x, –y1), (–x, –y2). Vier Magnete 720e, 720f, 720g und 720h befinden sich in der rechten Seite des flexiblen Skins 710 an den Positionen (x, y2), (x, y1), (x, –y1), (x, –y2).
  • Eine andere Anzahl von Magneten 720 und eine andere Position für die Magnete 720 kann in anderen Ausführungsbeispielen verwendet werden. Ähnlich kann eine andere Anzahl von Hall-Effekt-Sensoren 722 in anderen Ausführungsbeispielen verwendet werden, zum Beispiel kann mehr als ein Hall-Effekt-Sensor 722 für jeden Magnet 720 in anderen Ausführungsbeispielen vorgesehen werden, um die Genauigkeit zu erhöhen, mit der die Bewegung der Magnete 720 erfasst werden kann. Somit können zwei oder mehr Magnete 720 mit einem einzigen Hall-Effekt-Sensor 722 verwendet werden oder zwei oder mehrere Hall-Effekt-Sensoren 722 können mit einem einzigen Magnet 720 in anderen Ausführungsbeispielen verwendet werden. Die Genauigkeit einer Positionserfassung variiert mit der Anzahl von Magnetsensoren 722, die verwendet werden, um jeden Magnet 720 zu erfassen, und der Anzahl von Magneten, die von jedem Magnetsensor 722 erfasst werden.
  • In dem gezeigten Beispiel sind acht Hall-Effekt-Sensoren 722 vorgesehen, so dass es einen Hall-Effekt-Sensor für jeden der Magnete 720 gibt. Die Hall-Effekt-Sensoren 722 befinden sich auf der Leiterplatte (PCB – printed circuit board) 704 der tragbaren elektronischen Vorrichtung 700. In dem gezeigten Beispiel sind die acht Hall-Effekt-Sensoren 722 symmetrisch in derselben Ebene wie die Magnete 720 angeordnet. Die Hall-Effekt-Sensoren 722 sind symmetrisch in Bezug auf den Ursprung derart angeordnet, dass ein Array oder ein Gitter von Hall-Effekt-Sensoren 722 gebildet wird.
  • Vier Hall-Effekt-Sensoren 722a, 722b, 722c und 722d befinden sich auf der linken Seite des Gehäuses 202 an den Positionen (–x2, y2), (–x2, y1), (–x2, –y1), (–x2, –y2). Vier Hall-Effekt-Sensoren 722e, 722f, 722g und 722h befinden sich auf der rechten Seite des Gehäuses 202 an den Positionen (x2, y2), (x2, y1), (x2, –y1), (x2, –y2).
  • Eine andere Anzahl von Magneten 720 und eine andere Position für die Magnete 720 kann in anderen Ausführungsbeispielen verwendet werden. Zum Beispiel kann ein einzelner Magnet in den anderen Ausführungsbeispielen verwendet werden.
  • In dem gezeigten Beispiel sind der Magnet 720 und der Hall-Effekt-Sensor 722 in jedem Magnet-Sensor-Paar horizontal voneinander entlang der x-Achse versetzt, aber in Bezug auf die x-Achse ausgerichtet. Eine andere Konfiguration der Magnete 720 und der Hall-Effekt-Sensoren 722 kann in anderen Ausführungsbeispielen verwendet werden.
  • Jeder Hall-Effekt-Sensor 722 bildet mit einem bestimmten Magnet 720 ein Paar in Übereinstimmung mit der Form, Orientierung und/oder Polarität des bestimmten Magnets 720. Der Magnet 720 und der Hall-Effekt-Sensor 722 in jedem Magnet-Sensor-Paar sind nah zueinander angeordnet. In dem gezeigten Beispiel bildet der erste Magnet 720a mit dem ersten Hall-Effekt-Sensor 722a ein Paar, der zweite Magnet 720b bildet mit dem zweiten Hall-Effekt-Sensor 722b ein Paar, der dritte Magnet 720c bildet mit dem dritten Hall-Effekt-Sensor 722c ein Paar, und der vierte Magnet 720d bildet mit dem vierten Hall-Effekt-Sensor 722d ein Paar. Ähnlich bildet der fünfte Magnet 720e mit dem fünften Hall-Effekt-Sensor 722e ein Paar, der sechste Magnet 722f bildet mit dem sechsten Hall-Effekt-Sensor 722f ein Paar, der siebte Magnet 720g bildet mit dem siebten Hall-Effekt-Sensor 722g ein Paar, und der achte Magnet 720h bildet mit dem achten Hall-Effekt-Sensor 722h ein Paar.
  • Die Hall-Effekt-Sensoren 722 sind mit der Steuervorrichtung 306 gekoppelt und liefern Druck- und optional Positions-Eingaben an die Steuervorrichtung 306. Druckeingaben können zum Beispiel veranlasst werden durch Anwenden von Druck auf die linke oder rechte Seite des flexiblen Skins 710. Das flexible Skin 710 ermöglicht, dass die tragbare elektronische Vorrichtung 700 gedrückt oder zusammengedrückt wird derart, dass eine lokale Deformation in dem flexiblen Skin 710 verursacht wird. Durch den Druck wird das flexible Skin 710 von dem neutralen Zustand (7) in den betätigten Zustand (8) gedrückt. Eine Komprimierung bzw. ein Drücken des flexiblen Skins 710 veranlasst, dass sich der/die Magnet(en) 720 am nächsten zu der Druckkraft (F) relativ zu den Referenzpositionen in dem neutralen Zustand bewegen. Die Bewegung des Magnets/der Magneten 720 bewirkt eine Änderung in dem magnetischen Feld, das von den Hall-Effekt-Sensoren 722 erfasst wird. Die Änderungen in dem magnetischen Feld führen zu Veränderungen der Ausgabespannungen der Hall-Effekt-Sensoren 722. Die Ausgabespannungen repräsentieren eine magnetische Flussdichte, die durch die Hall-Effekt-Sensoren 722 erfasst wird.
  • In dem gezeigten Ausführungsbeispiel von 7 und 8 sind die Magnete 720 und die Magnetsensoren 722 ausgebildet, Kräfte zu erfassen, die auf die linke Seite und die rechte Seite der tragbaren elektronischen Vorrichtung 100 angewendet werden. In anderen Ausführungsbeispielen können zusätzliche Magnete 720 und Magnetsensoren 722 an der oberen und der unteren Seite der tragbaren elektronischen Vorrichtung 100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In weiteren Ausführungsbeispielen können zusätzliche Magnete 720 und Magnetsensoren 722 an der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung 100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In einigen Ausführungsbeispielen können die zusätzlichen Magnete 720 und Magnetsensoren 722 an der oberen Seite, der unteren Seite, der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung 100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen.
  • Gesten-Erkennung
  • Ein Ablaufdiagramm, das ein beispielhaftes Ausführungsbeispiel eines Verfahrens 900 zur Gesten-Erkennung auf der tragbaren elektronischen Vorrichtung darstellt, wird in 9 gezeigt. Das Verfahren 900 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 900 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160 und den Befehls-Interpretierer 162, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 900 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 900 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 900 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Die Sensoren 301 des Sensorabschnitts 302 des Gestenerfassungs-Teilsystems 122 erfassen eine Verformung der tragbaren elektronischen Vorrichtung 100, wie eine Verformung des Gehäuses 202 (902). Die Verformung verändert den physikalischen Zustand der tragbaren elektronischen Vorrichtung 100 von einem früheren Zustand, wie einem neutralen Zustand, in einen neuen und anderen Zustand. Die Änderung ist typischerweise nur vorübergehend. Die Sensoren 301 können eine oder jede Kombination von Kraftsensoren, Biegesensoren, Drucksensoren, Rotationssensoren, Magnetsensoren oder andere geeignete Sensoren umfassen, die eine Verformung erfassen können, wie eine Verformung des Gehäuses 202. Die Sensoren 301 des Sensorabschnitts 302 sind Vorrichtungen zur Erfassung von physikalischen Interaktionen, wie die Gesten des Benutzers, und Aufnehmen derartiger physikalischer Interaktionen als Sensordaten.
  • Die Verformung der tragbaren elektronischen Vorrichtung 100 ist in einigen Ausführungsbeispielen eine Verformung des Gehäuses 202, die an der oberen Seite 222, der unteren Seite 224, der linken Seite 226, der rechte Seite 228, der Vorderseite 204 oder der Rückseite 205 des Gehäuses 202 oder einer Kombination daraus verursacht werden kann. Die Verformung kann durch einen Benutzer verursacht werden, der die tragbare elektronische Vorrichtung 100 mit einer Hand oder zwei Händen in der Hochformat- oder Querformat-Ausrichtung hält. In anderen Ausführungsbeispielen kann die Verformung durch Komprimierung bzw. Drücken oder andere Deformation eines flexiblen Skins 710 verursacht werden, das das Gehäuse 202 umgibt, anstatt einer Verformung des Gehäuses 202.
  • Sensordaten werden mit vorgegebenen Kraftgeste-Kriterien verglichen, wie vorgegebene Kraftgeste-Muster, um zu bestimmen, ob die Sensordaten mit vorgegebenen Kraftgeste-Kriterien übereinstimmen (904). Mehrfach-Kraftgeste-Kriterien, wie Kraftgeste-Muster, können durch das Gestenerfassungs-Teilsystem 122 erkannt werden. Unter Bezugnahme nun auf die 10A bis 10I werden beispielhafte Kraftgesten beschrieben, die durch das Gestenerfassungs-Teilsystem 122 erkannt werden können. Andere Kraftgesten können durch das Gestenerfassungs-Teilsystem 122 erkannt werden zusätzlich oder anstatt der Kraftgesten in den 10A bis 10I. Die 10A bis 10I umfassen Referenzpfeile, die verwendet werden, um die Richtung der Hauptkräfte der Kraftgesten zu zeigen.
  • In den gezeigten Beispielen der 10A bis 10I wird die tragbare elektronische Vorrichtung 100 im Querformat dargestellt. Jedoch können ähnliche Kraftgesten angewendet werden, wenn die tragbare elektronische Vorrichtung 100 im Hochformat ist. Die tragbare elektronische Vorrichtung 100 hat eine Hauptachse, die durch ihre Länge definiert ist, und eine Nebenachse, die durch ihre Breite definiert ist. Die Hauptachse und die Nebenachse definieren eine Ebene der tragbaren elektronischen Vorrichtung 100. Kraftgesten können durch Kraftmomente (Drehmoment) um die Hauptachse, Nebenachse oder die Achse, die normal zu der Ebene der tragbaren elektronischen Vorrichtung 100 ist (d. h. normal zu den Haupt- und Nebenachsen) durchgeführt werden. Die Kraftgesten werden gezeigt als an gegenüberliegenden Seiten des Gehäuses 202 stattfindend, was Kraftgesten mit zwei Händen simuliert, die gemacht werden, wenn die tragbare elektronische Vorrichtung 100 von einem Benutzer mit zwei Händen gehalten wird. Kraftgesten mit einer Hand ähnlich zu den dargestellten Kraftgesten mit zwei Händen können angewendet werden zum Beispiel durch Durchführen der Komponente der linken Hand oder der Komponente der rechten Hand der Kraftgesten mit zwei Händen, die in den 10A bis 10I gezeigt werden.
  • 10A zeigt eine Dehnen- bzw. Ziehen-Geste, die stattfindet, wenn eine Kraft zum Dehnen bzw. Ziehen auf die Seiten des Gehäuses 202 angewendet wird. 10B zeigt eine Komprimieren- bzw. Drücken-Geste, die stattfindet, wenn eine Druckkraft auf die Seiten des Gehäuses 202 angewendet wird.
  • 10C zeigt eine Einwärtsbiegen-Geste, die stattfindet, wenn Kraftmomente (Drehmoment) gegen den Uhrzeigersinn um die Nebenachse (gestrichelt dargestellt) des Gehäuses 202 angewendet werden. 10D zeigt eine nach außen gerichtete Biegen-Geste, die stattfindet, wenn Kraftmomente im Uhrzeigersinn um die Nebenachse (gestrichelt dargestellt) des Gehäuses 202 angewendet werden.
  • 10E zeigt eine Falten-Geste gegen den Uhrzeigersinn, die stattfindet, wenn Kraftmomente gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) des Gehäuses 202 angewendet werden. 10F zeigt eine Falten-Geste im Uhrzeigersinn, die stattfindet, wenn Kraftmomente im Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) des Gehäuses 202 angewendet werden.
  • 10G zeigt eine Verdrehen-Geste nach links, die stattfindet, wenn ein Kraftmoment gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der linken Seite des Gehäuses 202 und ein Kraftmoment im Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der rechten Seite des Gehäuses 202 angewendet wird. 10H zeigt eine Verdrehen-Geste nach rechts, die stattfindet, wenn ein Kraftmoment gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der linken Seite des Gehäuses 202 und ein Kraftmoment gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der rechten Seite des Gehäuses 202 angewendet wird.
  • 10I zeigt eine nach oben gerichtete Lenken-Geste, die stattfindet, wenn Kraftmomente um eine Achse angewendet werden, die normal zu den Haupt- und Nebenachsen ist, in die Richtung der oberen Seite des Gehäuses 202. 10J zeigt eine nach unten gerichtete Lenken-Geste, die stattfindet, wenn Kraftmomente um die Achse angewendet werden, die normal zu den Haupt- und Nebenachsen ist, in die Richtung der unteren Seite des Gehäuses 202.
  • Wenn die Sensordaten mit vorgegebenen Kraftgeste-Kriterien übereinstimmen, wird eine Kraftgeste, die mit der erfassten Verformung des Gehäuses 202 aus dem neutralen Zustand assoziiert ist, identifiziert (906). Keine Kraftgeste wird identifiziert, wenn die Sensordaten nicht mit vorgegebenen Kraftgeste-Kriterien übereinstimmen (908).
  • Wenn die Sensordaten mit vorgegebenen Kraftgeste-Kriterien übereinstimmen und eine Kraftgeste identifiziert wird, wird eine vorgesehene Aktion, die mit der bestimmten Kraftgeste assoziiert ist, bestimmt (910). Der Prozessor 102 kann eine Benachrichtigung, dass die Kraftgeste stattgefunden hat, an das Betriebssystem 146 oder die aktive Anwendung 148 senden in Reaktion auf das Identifizieren der Kraftgeste. Das Betriebssystem 146 oder die aktive Anwendung 148 kann dann die vorgesehene Aktion in Übereinstimmung mit der identifizierten Kraftgeste bestimmen.
  • Kraftgesten können in einigen Ausführungsbeispielen mit einer anderen Eingabe kombiniert werden, um Aktionen durchzuführen. in derartigen Ausführungsbeispielen veranlasst ein Durchführen nur einer Kraftgeste keine Aktion, die durchzuführen ist; jedoch ein Durchführen einer Kraftgeste in Kombination mit der anderen Eingabe veranlasst, dass eine Aktion durchgeführt wird. Dies verringert oder verhindert ein unbeabsichtigtes Veranlassen von Aktionen, die von der tragbaren elektronischen Vorrichtung 100 durchzuführen sind, durch unbeabsichtigte Kraftgesten. Die andere Eingabe kann jede geeignete Eingabe sein, einschließlich ein Drücken eines vorgesehenen Knopfs, einer vorgesehenen Taste oder der Navigationsvorrichtung, eine Navigationseingabe von der Navigationsvorrichtung, eine Berührungseingabe von der berührungsempfindlichen Anzeige 118, eine Vorrichtungsausrichtung, die von dem Beschleunigungsmesser 136 oder einem anderen Orientierungssensor erfasst wird, eine Bewegungsgeste, die von dem Beschleunigungsmesser 136 oder einem anderen Bewegungssensor erfasst wird, oder eine Kombination daraus. Die vorgesehene Aktion kann bestimmt werden in Übereinstimmung mit der bestimmten Kraftgeste und der anderen Eingabe, oder kann durch die andere Eingabe bestimmt werden und die Kraftgeste bewirkt lediglich, dass die vorgesehene Aktion durchgeführt wird. Die andere Eingabe kann zwischen Anwendungen 148, zwischen Benutzerschnittstellenbildschirmen, die von derselben Anwendung 148 angezeigt werden, oder beiden variieren. Die andere Eingabe kann vor der Kraftgeste oder gleichzeitig mit der Kraftgeste vorgesehen werden, abhängig von dem Ausführungsbeispiel.
  • In einigen Beispielen ist die andere Eingabe eine Berührungseingabe. Die Berührungseingabe kann zum Beispiel eine Berührungseingabe auf der berührungsempfindlichen Anzeige 118, eine Auswahl (zum Beispiel Berühren) eines Elements auf dem Bildschirm, das auf der berührungsempfindlichen Anzeige 118 angezeigt wird, oder eine Berührungsgeste sein. Das Element auf dem Bildschirm kann ein Icon bzw. Symbol sein, das sich zum Beispiel an einer Stelle befindet, die für Benutzer einfach mit einem Daumen oder einem anderen Finger zu berühren ist und auch die Kraftgeste durchzuführen ist, ohne seine oder ihre Hände zu bewegen. Jeder Typ eines Elements auf dem Bildschirm kann mit einer oder mehreren vorgesehenen Aktionen assoziiert sein, oder bestimmte Elemente auf dem Bildschirm können mit einer oder mehreren vorgesehenen Aktionen assoziiert sein. Wenn ein Element auf dem Bildschirm mit einer oder mehreren vorgesehenen Aktionen assoziiert ist, kann die bestimmte Kraftgeste verwendet werden, um die durchzuführende vorgesehene Aktion zu bestimmen. In derartigen Beispielen ist jede der vorgesehenen Aktionen mit einer bestimmten Kraftgeste assoziiert. Die durchzuführende vorgesehene Aktion ist die Aktion, die mit einer Kraftgeste assoziiert ist, die mit der bestimmten Kraftgeste übereinstimmt.
  • Eine Durchführung einer Kraftgeste ohne die Berührungseingabe veranlasst nicht, dass eine Aktion durchgeführt wird. Wenn die Berührungseingabe vorgesehen wird, kann ein Durchführen einer ersten Geste veranlassen, dass eine erste Aktion durchgeführt wird, und ein Durchführen einer zweiten Geste kann veranlassen, dass eine zweite Aktion durchgeführt wird. Wenn zum Beispiel die aktive Anwendung 148 ein Web-Browser ist, der eine Webseite anzeigt, führt ein Durchführen einer Kraftgeste ohne die Berührungseingabe nicht zu einem Durchführen einer Aktion. Wenn die Berührungseingabe vor oder während der erfassten Verformung der Kraftgeste vorgesehen wird, kann ein Durchführen einer ersten Geste (z. B. eine Verdrehen-Geste) die Webseite scrollen, und ein Durchführen einer zweiten Geste (z. B. eine Biegen-Geste) kann veranlassen, dass ein Zoomen des Inhalts der Webseite durchgeführt wird.
  • Die vorgesehene Aktion wird dann durchgeführt, typischerweise durch den Prozessor 102 (912). Die vorgesehene Aktion kann aufweisen ein Eingeben eines vorgesehenen Eingabezeichens oder ein Durchführen eines Befehls. Die vorgesehene Aktion kann abhängig von der aktiven Anwendung 148 (wenn vorhanden) und optional von Kontext-sensitiver Information variieren. Die vorgesehene Aktion kann aufweisen ein Ausgeben eines Ergebnisses an die Anzeige 112, wie das Eingabezeichen oder eine visuelle Darstellung, die mit dem Befehl assoziiert ist. Die Kontext-sensitive Information kann einen Vorrichtungszustand, aktuell angezeigte Information und/oder aktuell ausgewählte Information umfassen, wenn die Geste erfasst wurde, neben anderen Faktoren, ist aber nicht darauf beschränkt.
  • Befehlserkennung
  • Zoomen einer Benutzerschnittstelle
  • Ein Ablaufdiagramm, das ein Verfahren 1100 zum Zoomen einer Benutzerschnittstelle auf einer tragbaren elektronischen Vorrichtung 100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in 11 gezeigt. Das Verfahren 1100 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 1100 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160 und den Befehls-Interpretierer 162, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 1100 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 1100 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 1100 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Ein Benutzerschnittstellenbildschirm des Betriebssystems 146 oder der aktiven Anwendung 148 wird auf der berührungsempfindlichen Anzeige 118 angezeigt (1102). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Inhalt des Benutzerschnittstellenbildschirms hat eine anpassbare Skalierung. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Benutzerschnittstellenbildschirm kann in einem Fenster in der GUI vorgesehen sein oder kann in einem vollen Bildschirmformat angezeigt werden, bei dem der Benutzerschnittstellenbildschirm die gesamte GUI einnimmt. Der Benutzerschnittstellenbildschirm wird typischerweise in Reaktion auf eine Benutzereingabe angezeigt. Der Benutzerschnittstellenbildschirm kann ein Web-Browser, ein Dokumentenbetrachter, eine Karten- oder Navigationsanwendung oder eine andere Anwendung mit einer zoomenden Benutzerschnittstelle sein.
  • Die tragbare elektronische Vorrichtung 100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung 100 und erfasst diese (1104), zum Beispiel des Gehäuses 202 oder eines flexiblen Skins 710, das das Gehäuse 202 umgibt.
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem Zoom-in- oder Zoom-out-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1106), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung 100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem Zoom-in-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in 10F gezeigt, und die Kraftgeste, die mit dem Zoom-out-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in 10E gezeigt.
  • Die tragbare elektronische Vorrichtung 100 analysiert die Sensordaten, die von dem Sensorabschnitt 302 gesammelt werden, unter Verwendung der Steuervorrichtung 306 und/oder des Prozessors 102, in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn.
  • Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag vergrößert (zoomed-in) (1108). Der Benutzerschnittstellenbildschirm kann einen vorgegebenen Bereich von Skalierungen haben, wie 50%, 100%, 150%, 200% und 400%, wobei die Größe des Inhalts des Benutzerschnittstellenbildschirms von einer ersten Skalierung (d. h. die aktuelle Skalierung) zu einer nächstgrößeren Skalierung in dem vorgegebenen Bereich von Skalierungen erhöht wird. Die erste Skalierung kann eine volle Skalierung sein, d. h. 100%-Skalierung, bei der Inhalt in der geeigneten Größe für die aktuelle Auflösung der Anzeige 112 angezeigt wird. Die erste Skalierung kann eine Standard-Skalierung des Benutzerschnittstellenbildschirms sein, wenn anfangs angezeigt, oder kann eine früher angepasste Skalierung von einer vorherigen Zoom-Operation sein. Alternativ kann die Größe des Inhalts des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag erhöht werden. Der vorgegebene Betrag kann ein Skalierungsbetrag sein, gemessen in Prozent (wie 10% oder 25%), der zu der aktuellen Skalierung hinzugefügt wird. Wenn zum Beispiel die erste Skalierung 50% ist und der vorgegebene Betrag ist 10%, wird die Skalierung des Inhalts des Benutzerschnittstellenbildschirms von 50% auf 60% verändert.
  • Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag verkleinert (zoomed-out) (1110). Der Benutzerschnittstellenbildschirm kann einen vorgegebenen Bereich von Skalierungen haben, wie 50%, 100%, 150%, 200% und 400%, wobei die Größe des Inhalts des Benutzerschnittstellenbildschirms von der ersten Skalierung (d. h. die aktuelle Skalierung) zu einer nächstkleineren Skalierung in dem vorgegebenen Bereich von Skalierungen verringert wird. Alternativ kann die Größe des Inhalts des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag verringert werden, wie 10% oder 25%. Der vorgegebene Betrag kann ein Skalierungsbetrag sein, gemessen in Prozent (wie 10% oder 25%), der zu der aktuellen Skalierung hinzugefügt wird. Wenn zum Beispiel die erste Skalierung 50% ist und der vorgegebene Betrag ist 10%, wird die Skalierung des Inhalts des Benutzerschnittstellenbildschirms von 50% auf 40% verändert.
  • Die tragbare elektronische Vorrichtung 100 überwacht auch hinsichtlich Berührungseingaben auf der berührungsempfindlichen Anzeige 118 und erfasst diese (1112). Berührungseingaben können verwendet werden zum Vorsehen anderer GUI-Navigationssteuerungen des Benutzerschnittstellenbildschirms, zum Beispiel Panning bzw. Verschieben.
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob eine erfasste Berührungseingabe eine Panning- bzw. Verschieben-Berührungsgeste ist, basierend auf vorgegebenen Berührungsgeste-Kriterien (1114), wie vorgegebene Berührungsgesten-Muster, die durch die tragbare elektronische Vorrichtung 100 erkannt werden. Die Berührungsgesten, die mit einem Panning assoziiert sind, als Panning-Berührungsgesten bekannt, können Swipe- bzw. Wischen-Gesten sein, wie ein Wischen nach links, ein Wischen nach rechts, ein Wischen nach oben und ein Wischen nach unten, in einigen Ausführungsbeispielen.
  • Wenn eine Berührungseingabe als eine Panning-Berührungsgeste bestimmt wird, wird der Inhalt des Benutzerschnittstellenbildschirms in eine Richtung der Panning-Berührungsgeste verschoben (1116). Die Richtung des Verschiebens wird basierend auf der Richtung der Panning-Berührungsgeste bestimmt. In einigen Beispielen wird der Inhalt des Benutzerschnittstellenbildschirms nach rechts verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach links erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms wird nach links verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach rechts erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms wird nach unten verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach oben erfasst wird, und der Inhalt des Benutzerschnittstellenbildschirms wird nach oben verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach unten erfasst wird.
  • Obgleich die Operationen 11121116 in Bezug auf Berührungsgesten abfolgend nach den Kraftgeste-Operationen 11021110 gezeigt werden, können in anderen Ausführungsbeispielen die Operationen 11121116 vor oder gleichzeitig zu den Kraftgeste-Operationen 11021110 sein.
  • Navigation einer Benutzerschnittstelle
  • Ein Ablaufdiagramm, das ein Verfahren 1200 zum Navigieren eines Dokuments auf einer tragbaren elektronischen Vorrichtung 100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in 12 gezeigt. Das Verfahren 1200 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 1200 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160 und den Befehls-Interpretierer 162, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 1200 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 1200 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 1200 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Ein Benutzerschnittstellenbildschirm eines Dokumentenbetrachters (document viewer) wird auf der berührungsempfindlichen Anzeige 118 angezeigt (1202). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Inhalt in dem Inhaltsbereich ist ein Teil eines Dokuments, in dem navigiert werden kann und das in der Benutzerschnittstelle angezeigt werden kann. Der Rahmen definiert für den Inhalt eine virtuelle Grenze, die den Inhalt beschränkt, der in dem Inhaltsbereich angezeigt wird.
  • Der Dokumentenbetrachter kann eine „elektronisches Buch(eBook)”-Lesevorrichtung, die eBooks anzeigt, eine Textverarbeitung, die Dokumente der Textverarbeitung anzeigt, ein Slideshow-Player, der Slideshows anzeigt, ein Web-Browser, der Web-Dokumente anzeigt, wie Auszeichnungssprache-Dokumente (zum Beispiel „hyperText Markup Language(HTML)- oder „eXtensible Markup Language(XML)”-Dokumente), ein PDF-Viewer, der PDFs anzeigt, oder eine Messaging-Anwendung sein, die elektronische Nachrichten anzeigt, ist aber nicht darauf beschränkt. Die elektronische Nachricht kann eine Email-Nachricht, eine SMS(Short Message Service)-Textnachricht, eine MMS(Multimedia Message Service)-Nachricht, eine Chat-Nachricht, eine IM-Nachricht oder eine Peer-to-Peer-Nachricht sein, ist aber nicht darauf beschränkt.
  • Die tragbare elektronische Vorrichtung 100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung 100 und erfasst diese (1204), zum Beispiel des Gehäuses 202 oder eines flexiblen Skins 710, das das Gehäuse 202 umgibt.
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem „nächste Seite”-Befehl oder „vorherige Seite”-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1206), wie vorgegebene Kraftgeste-Muster, die durch die tragbare elektronische Vorrichtung 100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem „nächste Seite”-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in 10F gezeigt, und die Kraftgeste, die mit dem „vorherige Seite”-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in 10E gezeigt.
  • Die tragbare elektronische Vorrichtung 100 analysiert die Sensordaten, die von dem Sensorabschnitt 302 gesammelt werden, unter Verwendung der Steuervorrichtung 306 und/oder des Prozessors 102, in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn.
  • Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird eine nächste Seite des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (1208), wenn eine zusätzliche Seite verfügbar ist. Die nächste Seite des Dokuments wird bestimmt relativ zu der Seite, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird. Wenn keine zusätzliche Seite verfügbar ist, kann die Falten-Geste im Uhrzeigersinn ignoriert werden.
  • Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird eine vorherige Seite des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (1210), wenn eine zusätzliche Seite verfügbar ist. Die vorherige Seite des Dokuments wird relativ zu der Seite bestimmt, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird. Wenn keine zusätzliche Seite verfügbar ist, kann die Falten-Geste gegen den Uhrzeigersinn ignoriert werden.
  • In anderen Ausführungsbeispielen wird der Inhalt des Dokuments gescrollt anstatt Seite für Seite geblättert. Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird ein nächster Teil des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt, wenn eine zusätzliche Seite verfügbar ist. Der nächste Teil des Dokuments wird relativ zu der Seite, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird, und optional einem Positionsindikator auf dem Bildschirm bestimmt, wie ein Caret-Zeichen, ein Cursor, ein Fokus zur Hervorhebung von Text oder ein anderer geeigneter Indikator. Der nächste Teil des Dokuments kann zum Beispiel der nächste Abschnitt, die nächste Textzeile oder die nächsten Textzeilen (z. B. die nächsten 5 Zeilen) des Dokuments sein.
  • Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird ein vorheriger Teil des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt, wenn eine zusätzliche Seite verfügbar ist. Der vorherige Teil des Dokuments wird relativ zu der Seite, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird, und optional einem Positionsindikator auf dem Bildschirm bestimmt. Der vorherige Teil des Dokuments kann zum Beispiel der vorherige Abschnitt, die vorherige Textzeile oder die vorherigen Textzeilen (z. B. die vorherigen 5 Zeilen) des Dokuments sein.
  • Bei der Anzeige eines neuen Teils des Textdokuments, wie einem neuen Abschnitt oder einer neue Zeile einer Seite, kann der Positionsindikator auf dem Bildschirm an einer Standard-Position in dem neuen Teil angezeigt werden. Zum Beispiel kann sich der Positionsindikator auf dem Bildschirm in dem oder in der Nähe des ersten Worts in dem neuen Teil befinden.
  • Ein Ablaufdiagramm, das ein Verfahren 1300 zum Navigieren eines Kalenders auf einer tragbaren elektronischen Vorrichtung 100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in 13 gezeigt. Das Verfahren 1300 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 1300 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160 und den Befehls-Interpretierer 162, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 1300 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 1300 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 1300 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Ein Benutzerschnittstellenbildschirm eines Kalenders wird auf der berührungsempfindlichen Anzeige 118 angezeigt (1302). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Inhalt in dem Inhaltsbereich ist eine Ansicht von mehreren möglichen Ansichten, zwischen denen navigiert werden kann und die in der Benutzerschnittstelle angezeigt werden.
  • Der Inhalt, der in dem Inhaltsbereich angezeigt wird, ist eine bestimmte Ansicht des Kalenders. Die Ansicht kann zum Beispiel eine Tagesansicht, Wochenansicht, Monatsansicht, Agenda-Ansicht (auch als Schedule-Ansicht bekannt), Arbeits-Ansicht oder eine andere Ansicht sein. Die Tagesansicht zeigt Kalenderereignisse und Zeitfenster für einen bestimmten Tag in dem Kalender an. Die Wochenansicht zeigt Kalenderereignisse und Zeitfenster für eine bestimmte Woche in dem Kalender an. Die Monatsansicht zeigt Kalenderereignisse und Zeitfenster für einen bestimmten Monat in dem Kalender an. Die Agenda-Ansicht zeigt Kalenderereignisse und Zeitfenster für einen vorgegebenen Zeitraum in dem Kalender von der aktuellen Zeit an, zum Beispiel die nächsten 12 Stunden, 24 Stunden, usw. Die Arbeits-Ansicht zeigt Kalenderereignisse und Zeitfenster für die aktuelle Arbeitswoche, z. B. Montag bis Freitag, in dem Kalender an.
  • Die tragbare elektronische Vorrichtung 100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung 100 und erfasst diese (1304), zum Beispiel des Gehäuses 202 oder eines flexiblen Skins 710, das das Gehäuse 202 umgibt.
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem „nächste Ansicht”-Befehl oder „vorherige Ansicht”-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1306), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung 100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem „nächste Ansicht”-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in 10F gezeigt, und die Kraftgeste, die mit dem „vorherige Ansicht”-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in 10E gezeigt.
  • Die tragbare elektronische Vorrichtung 100 analysiert die Sensordaten, die von dem Sensorabschnitt 302 gesammelt werden, unter Verwendung der Steuervorrichtung 306 und/oder des Prozessors 102, in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn.
  • Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird eine nächste Ansicht in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (1308). Die verfügbaren Ansichten können in einer sequenziellen Reihenfolge navigiert werden. Wenn die Anwendung zum Beispiel ein Kalender ist, können die verfügbaren Ansichten in der Reihenfolge der Tagesansicht, Wochenansicht, Monatsansicht, Agenda-Ansicht und Arbeits-Ansicht navigiert werden. Eine andere sequenzielle Reihenfolge der Ansichten ist möglich. Wenn die Falten-Geste im Uhrzeigersinn identifiziert wird, wird die nächste Ansicht in sequenzieller Reihenfolge der Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt.
  • Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird eine vorherige Ansicht in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (1310). Die verfügbaren Ansichten können in einer sequenziellen Reihenfolge navigiert werden. Wenn die Anwendung zum Beispiel ein Kalender ist, können die verfügbaren Ansichten in der Reihenfolge der Tagesansicht, Wochenansicht, Monatsansicht, Agenda-Ansicht und Arbeits-Ansicht navigiert werden. Eine andere sequenzielle Reihenfolge der Ansichten ist möglich. Wenn die Falten-Geste im Uhrzeigersinn identifiziert wird, wird die vorherige Ansicht in sequenzieller Reihenfolge der Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt.
  • Navigation von Media
  • Ein Ablaufdiagramm, das ein Verfahren 1400 zum Navigieren von Media auf einer tragbaren elektronischen Vorrichtung 100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in 14 gezeigt. Das Verfahren 1400 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 1400 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160 und den Befehls-Interpretierer 162, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 1400 Liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 1400 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 1400 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Ein Benutzerschnittstellenbildschirm eines Media-Players wird auf der berührungsempfindlichen Anzeige 118 angezeigt (1402). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Inhalt in dem Inhaltsbereich ist eine Ansicht von mehreren möglichen Ansichten, zwischen denen navigiert werden kann und die in der Benutzerschnittstelle angezeigt werden können.
  • Der Media-Player gibt digitale Bilder (zum Beispiel Fotos), graphische Objekte, Video-Objekte, Audio-Objekte (zum Beispiel Audio-Tracks oder Songs) oder eine Kombination daraus wieder. Der Inhalt, der in dem Inhaltsbereich angezeigt wird, umfasst ein Bild, Grafik oder Video, oder Information, die mit dem Audio-Objekt assoziiert ist, wie Track-Information und/oder Album, in der Form eines digitalen Bilds.
  • Die tragbare elektronische Vorrichtung 100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung 100 und erfasst diese (1404), zum Beispiel des Gehäuses 202 oder eines flexiblen Skins 710, das das Gehäuse 202 umgibt.
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem „nächstes Objekt”-Befehl oder einem „vorheriges Objekt”-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1406), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung 100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem „nächstes Objekt”-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in 10F gezeigt, und die Kraftgeste, die mit dem „vorheriges Objekt”-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in 10E gezeigt.
  • Die tragbare elektronische Vorrichtung 100 analysiert die Sensordaten, die von dem Sensorabschnitt 302 gesammelt werden, unter Verwendung der Steuervorrichtung 306 und/oder des Prozessors 102, in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn.
  • Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird ein Inhalt eines nächsten Datenobjekts desselben Datentyps in einem Datenspeicher des Media-Players, wie eine Datenbank von Datenobjekten desselben Typs, in dem Speicher 110 gespeichert, wiedergegeben (1408). Wenn das Datenobjekt ein digitales Bild oder ein graphisches Objekt ist, weist ein Wiedergeben ein Anzeigen des digitalen Bilds oder der Grafik, das/die von dem digitalen Bild oder dem graphischen Objekt definiert wird, auf der Anzeige 112 auf. Wenn das Datenobjekt ein Video-Objekt ist, weist ein Wiedergeben ein Abspielen des Videos, das durch das Video-Objekt definiert wird, auf der Anzeige 112 und einem Lautsprecher 128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss 126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher. Wenn das Datenobjekt ein Audio-Objekt ist, weist ein Wiedergeben ein Abspielen des Audios (z. B. Song oder Track), das durch das Audio-Objekt definiert wird, unter Verwendung des Lautsprechers 128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss 126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher.
  • Das nächste Datenobjekt wird relativ zu einem aktuell ausgewählten Datenobjekt bestimmt, zum Beispiel in alphabetischer Reihenfolge oder chronologischer Reihenfolge von älter zu neuer. Das aktuell ausgewählte Datenobjekt kann als ein Eintrag in einer Playliste bzw. Wiedergabeliste der Media-Player-Anwendung erscheinen. Das aktuell ausgewählte Datenobjekt kann in einer angezeigten Wiedergabeliste angezeigt werden unter Verwendung eines Hervorhebens oder Fokussierens des entsprechenden Eintrags in der angezeigten Wiedergabeliste oder eines anderen geeigneten Verfahrens einer visuellen Anzeige. Ein Hervorheben oder Fokussieren eines Eintrags in der angezeigten Wiedergabeliste veranlasst, dass das Erscheinungsbild des entsprechenden Eintrags in der angezeigten Wiedergabeliste von einem erstes visuellen Zustand in einen zweiten visuellen Zustand geändert wird, der sich von dem ersten visuellen Zustand unterscheidet. Ein Ändern des Erscheinungsbilds eines Eintrags in der angezeigten Wiedergabeliste kann zumindest in einigen Ausführungsbeispielen ein Ändern einer Farbe eines Hintergrunds oder Felds des Eintrags in der angezeigten Wiedergabeliste, des Texts des Eintrags in der angezeigten Wiedergabeliste oder beides aufweisen. Alternativ kann das aktuell ausgewählte Datenobjekt nicht gezeigt werden oder anderweitig auf der Anzeige 112 angezeigt werden.
  • Das aktuell ausgewählte Datenobjekt kann in Wiedergabe sein, wenn zum Beispiel das aktuell ausgewählte Datenobjekt ein digitales Bild oder graphisches Objekt ist, kann das aktuell ausgewählte digitale Bild oder die Grafik auf der Anzeige 112 angezeigt werden. Ähnlich kann, wenn das aktuell ausgewählte Datenobjekt ein Audio-Objekt ist (z. B. ein Song oder Track), der aktuell ausgewählte Song oder Track zum Beispiel mit dem Lautsprecher 128 abgespielt werden. Wenn das aktuell ausgewählte Datenobjekt ein Video-Objekt ist, kann das ausgewählte Video-Objekt auf der Anzeige 112 und dem Lautsprecher 128 abgespielt werden.
  • Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird ein Inhalt eines vorherigen Datenobjekts desselben Datentyps in einem Datenspeicher der Media-Player-Anwendung, wie eine Datenbank von Datenobjekten desselben Typs, in dem Speicher 110 gespeichert, wiedergegeben (1410). Wenn das Datenobjekt elf digitales Bild oder ein graphisches Objekt ist, weist ein Wiedergeben ein Anzeigen des digitalen Bilds oder der Grafik, das/die von dem digitalen Bild oder dem graphischen Objekt definiert wird, auf der Anzeige 112 auf. Wenn das Datenobjekt ein Video-Objekt ist, weist ein Wiedergeben ein Abspielen des Videos, das durch das Video-Objekt definiert ist, auf der Anzeige 112 und einem Lautsprecher 128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss 126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher. Wenn das Datenobjekt ein Audio-Objekt ist, weist ein Wiedergeben ein Abspielen des Audios (z. B. Song/Track), das durch das Audio-Objekt definiert ist, unter Verwendung des Lautsprechers 128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss 126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher.
  • Das vorherige Datenobjekt wird relativ zu einem aktuell ausgewählten Datenobjekt bestimmt, zum Beispiel in alphabetischer Reihenfolge oder chronologischer Reihenfolge von älter zu neuer.
  • Wenn kein Datenobjekt ausgewählt ist, überwacht die tragbare elektronische Vorrichtung 100 nicht hinsichtlich der Falten-Geste im Uhrzeigersinn oder der Falten-Geste gegen den Uhrzeigersinn, und jede Falten-Geste im Uhrzeigersinn oder Falten-Geste gegen den Uhrzeigersinn, die durchgeführt wird, wird nicht erfasst und wird ignoriert. Alternativ kann die tragbare elektronische Vorrichtung 100 hinsichtlich der Falten-Geste im Uhrzeigersinn oder der Falten-Geste gegen den Uhrzeigersinn überwachen und diese erfassen, ignoriert jedoch jede erfasste Geste, wenn kein Datenobjekt ausgewählt ist. Alternativ kann das nächste oder vorherige Daten-Objekt bestimmt werden basierend auf einem Standard-Datenobjekt, wie das letzte zugegriffene Datenobjekt des gegebenen Typs in einem Media-Ordner, Datenbank oder Wiedergabeliste, oder das neueste Datenobjekt des gegebenen Typs.
  • Fahrzeugsimulator
  • Ein Ablaufdiagramm, das ein Verfahren 1500 zum Steuern eines Fahrzeugsimulators auf einer tragbaren elektronischen Vorrichtung 100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in 15 gezeigt. Das Verfahren 1500 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 1500 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160 und den Befehls-Interpretierer 162, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 1500 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 1500 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 1500 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Ein Benutzerschnittstellenbildschirm eines Fahrzeugsimulators, wie ein Fahrsimulator (oder Videospiel) oder Flugsimulator (oder Videospiel), wird auf der berührungsempfindlichen Anzeige 118 angezeigt (1502). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt.
  • Der Inhalt, der in dem Inhaltsbereich angezeigt wird, umfasst ein Fahrzeug, das durch einen Benutzer in einer Umgebung gesteuert werden kann. Das Fahrzeug kann ein motorisiertes Fahrzeug sein, wie ein Auto, Motorrad, LKW, Motorschlitten, Geländefahrzeug (ATV – all terrain vehicle) oder ein anderes Landfahrzeug, Boot, Jetski oder ein anderes Wasserfahrzeug, Flugzeug oder ein anderes Luftfahrzeug, oder ein Shuttle oder ein anderes Raumfahrzeug. In zumindest einigen Ausführungsbeispielen ist der Fahrzeugsimulator ein Fahrspiel und das Fahrzeug ist ein Auto. Der Fahrzeugsimulator kann eine automatische oder manuelle Gangschaltung abhängig von dem Ausführungsbeispiel verwenden.
  • Die tragbare elektronische Vorrichtung 100 umfasst eine Spielemaschine (nicht gezeigt), zum Beispiel in dem Speicher 110, die eine Darstellungsmaschine („Renderer”) für 2D- oder 3D-Grafik umfasst. Die Spielemaschine kann auch eine Physikmaschine, Sound, Scripting, Animation und künstliche Intelligenz unter anderen Komponenten umfassen. Die Spielemaschine stellt den Fahrzeugsimulator dar unter Verwendung von Eingaben, die durch die tragbare elektronische Vorrichtung 100 empfangen werden, in Übereinstimmung mit Regeln des Fahrzeugsimulators.
  • Das Videospiel wird entsprechend einer geeigneten Computergrafik dargestellt und auf der berührungsempfindlichen Anzeige 118 angezeigt. Das Videospiel kann unter Verwendung von 2D-Computergrafik oder 3D-Computergrafik dargestellt werden. 2D-Computergrafik wird hauptsächlich aus zweidimensionalen Modellen erzeugt, wie geometrische 2D-Modelle, Text und digitale Bilder, und durch Techniken, die für zweidimensionale Modelle spezifisch sind. 3D-Computergrafik verwendet eine dreidimensionale Darstellung von geometrischen Daten zur Durchführung von Berechnungen und Darstellung von 2D-Bildern.
  • 2D-Computergrafik kann eine Form einer 3D-Projektion sein, ist jedoch nicht darauf beschränkt, die grafische Projektionen und Techniken verwendet, um eine Dreidimensionalität zu simulieren, typischerweise durch Verwendung einer formenparallelen Projektion, wobei die Sicht aus einer festen Perspektive ist, während zusätzlich mehrere Facetten von Objekten gezeigt werden. Eine 3D-Projektion wird manchmal als 2,5D, ¾-Perspektive und Pseudo-3D bezeichnet. Beispiele für grafische Projektionstechniken, die bei der 3D-Projektion verwendet werden, umfassen Schrägprojektion, orthographische Projektion, Billboarding, parallaxes Scrolling, Skyboxes und Skydomes.
  • 3D-Grafik kann festes 3D, Erste-Person-Perspektive oder Dritte-Person-Perspektive sein, ist aber nicht darauf beschränkt.
  • Die tragbare elektronische Vorrichtung 100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung 100 und erfasst diese (1504), zum Beispiel des Gehäuses 202 oder eines flexiblen Skins 710, das das Gehäuse 202 umgibt.
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem Beschleunigungsbefehl oder Verlangsamungsbefehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1506), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung 100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem Beschleunigungsbefehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in 10F gezeigt, und die Kraftgeste, die mit dem Verlangsamungsbefehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in 10E gezeigt.
  • Die tragbare elektronische Vorrichtung 100 analysiert die Sensordaten, die von dem Sensorabschnitt 302 gesammelt werden, unter Verwendung der Steuervorrichtung 306 und/oder des Prozessors 102, in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn.
  • Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird die Geschwindigkeit des Fahrzeugs erhöht (1508). Dies weist auf ein Erhöhen eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene auf der berührungsempfindlichen Anzeige 118. In einigen Ausführungsbeispielen kann die Geschwindigkeit um einen Betrag proportional zu einer Magnitude der Kraftgeste erhöht werden.
  • Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird die Geschwindigkeit des Fahrzeugs verringert (1510). Dies weist auf ein Verringern eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene auf der berührungsempfindlichen Anzeige 118. In einigen Ausführungsbeispielen kann die Geschwindigkeit um einen Betrag proportional zu einer Magnitude der Kraftgeste verringert werden.
  • Wenn eine manuelle Gangschaltung verwendet wird, kann eine Falten-Geste im Uhrzeigersinn mit einer Dauer, die geringer ist als eine Schwellendauer, verwendet werden, um das Fahrzeug hochzuschalten, während eine Falten-Geste im Uhrzeigersinn mit einer Dauer, die größer oder gleich der Schwellendauer ist, verwendet werden kann, um die Geschwindigkeit des Fahrzeugs zu erhöhen. Ähnlich kann eine Falten-Geste gegen den Uhrzeigersinn mit einer Dauer, die geringer ist als eine Schwellendauer, verwendet werden, um das Fahrzeug herunterzuschalten, während eine Falten-Geste gegen den Uhrzeigersinn mit einer Dauer, die größer oder gleich der Schwellendauer ist, verwendet werden kann, um die Geschwindigkeit des Fahrzeugs zu verringern. Ein manuelles Schalten veranlasst, dass ein Getriebeparameter des Fahrzeugsimulators verändert wird.
  • In anderen Ausführungsbeispielen kann eine eindeutige Kraftgeste für eine manuelle Schaltung verwendet werden. Zum Beispiel kann eine nach außen gerichtete Biegen-Geste, wie in 10D gezeigt, verwendet werden, um hochzuschalten, während eine nach außen gerichtete Biegen-Geste, wie in 10C gezeigt, verwendet werden, um herunterzuschalten.
  • Die tragbare elektronische Vorrichtung 100 überwacht auch hinsichtlich einer Beschleunigung der tragbaren elektronischen Vorrichtung 100 und erfasst diese (1512).
  • Die tragbare elektronische Vorrichtung 100 bestimmt, ob die erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung der tragbaren elektronischen Vorrichtung 100 übereinstimmt (1514). Eine deutliche Änderung der Orientierung kann eine Änderung der Orientierung sein, die eine Schwellenänderung der Orientierung in eine oder mehrere Richtungen übersteigt, wie eine Änderung der Neigung der tragbaren elektronischen Vorrichtung 100, die eine Schwellenänderung der Neigung übersteigt.
  • Wenn eine erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung des tragbaren elektronischen Vorrichtung übereinstimmt, wird die Orientierung des Fahrzeugs in die geeignete Richtung geändert (1516). Dies weist auf ein Ändern eines Werts von einem oder mehreren Orientierungsparametern in Übereinstimmung mit einer Richtung der deutlichen Änderung der Orientierung, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des geänderten Werts des einen oder mehrerer Orientierungsparameter, und Anzeigen der dargestellten neuen Szene auf der berührungsempfindlichen Anzeige 118.
  • Obgleich die Operationen 15121516 in Bezug auf Berührungsgesten abfolgend nach den Kraftgeste-Operationen 15021510 gezeigt werden, können in anderen Ausführungsbeispielen die Operationen 15121516 vor oder gleichzeitig mit den Kraftgeste-Operationen 15021510 stattfinden.
  • Vorrichtungssicherheit
  • Ein Ablaufdiagramm, das ein Verfahren 1600 zum Vorsehen von Sicherheit auf einer tragbaren elektronischen Vorrichtung 100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in 16 gezeigt. Das Verfahren 1600 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren 1600 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer 160, Befehls-Interpretierer 162 und ein Sicherheitsmodul 164, ausgeführt durch den Prozessor 102, die Steuervorrichtung 306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens 1600 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren 1600 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren 1600 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher 110, gespeichert werden.
  • Der Prozessor 102 überwacht eine Auslösebedingung zum Initiieren eines sicheren Modus auf der tragbaren elektronischen Vorrichtung 100 (1602). Die Auslösebedingung kann eine aus einer Anzahl von Auslösebedingungen sein. Die Auslösebedingungen können umfassen eine vorgesehene Eingabe, Inaktivität der Eingabevorrichtungen für eine Schwellendauer, Inaktivität des Kommunikationsteilsystems 104 für eine Schwellendauer, Fehlen einer drahtlosen Netzwerkabdeckung für eine Schwellendauer, Platzieren der tragbaren elektronischen Vorrichtung 100 in einer Vorrichtungstasche oder Schließen der tragbaren elektronischen Vorrichtung 100, oder eine andere geeignete Auslösebedingung, sind aber nicht darauf beschränkt. Die vorgesehene Eingabe kann jede geeignete Eingabe sein, einschließlich Drücken eines vorgesehenen Knopfs, einer vorgesehenen Taste oder der Navigationsvorrichtung, eine Navigationseingabe von der Navigationsvorrichtung, eine Berührungseingabe von der berührungsempfindlichen Anzeige 118, eine Vorrichtungsausrichtung, die von dem Beschleunigungsmesser 136 oder einem anderen Orientierungssensor erfasst wird, eine Kraftgeste, die von dem Gestenerfassungs-Teilsystem 122 erfasst wird, eine Bewegungsgeste, die von dem Beschleunigungsmesser 136 oder einem anderen Bewegungssensor erfasst wird, oder eine Kombination daraus.
  • Wenn die Auslösebedingung erfasst wird, wird ein sicherer Modus auf der tragbaren elektronischen Vorrichtung 100 initiiert (1604). Wenn keine Auslösebedingung erfasst wird, fährt der Prozessor 102 fort, hinsichtlich der Auslösebedingung zum Initiieren eines sicheren Modus zu überwachen, bis der Prozess deaktiviert wird.
  • Die tragbare elektronische Vorrichtung 100 kann mehrere sichere Modi haben, einschließlich eines Standby-Modus und eines gesperrten Modus, aber nicht darauf beschränkt. In dem Standby-Modus ist der Prozessor 102 konfiguriert, keine Berührungseingaben anzunehmen, die über die berührungsempfindliche Anzeige 118 empfangen werden. In einigen Beispielen ist die vorgesehene Eingabe, um den Standby-Modus zu initiieren, eine vorgesehene Kraftgeste oder eine Sequenz von Kraftgesten. Die Sequenz von Gesten kann eine Anzahl von Kraftgesten mit relativen Timing Elementen aufweisen. Die vorgesehene(n) Kraftgeste(n) kann/können derart gewählt sein, dass die vorgesehene(n) Kraftgeste(n) kaum versehentlich durchgeführt wird/werden. Die vorgesehene(n) Kraftgeste(n) kann/können auch derart gewählt werden, dass die relativ einfache und intuitive Kraftgeste(n) ist/sind, um unter anderem eine Benutzerakzeptanz zu erleichtern. In einigen Beispielen kann/können die vorgesehene(n) Kraftgeste(n) eine Drücken-Geste gefolgt von einer Ziehen-Geste sein. Diese Sequenz von Gesten kann für einige Benutzer intuitiv sein, was in etwa die Interaktion mit einem herkömmlichen Vorhängeschloss simuliert. In einigen Beispielen kann/können die vorgesehene(n) Kraftgeste(n) eine schnelle Drücken-Geste gefolgt von einer schnellen Ziehen-Geste innerhalb einer Schwellendauer der schnellen Drücken-Geste sein.
  • In dem gesperrten Modus werden Beschränkungen, die eine Interaktion mit der tragbaren elektronischen Vorrichtung 100 begrenzen, forciert. Die Beschränkungen auf der tragbaren elektronischen Vorrichtung 100 in dem gesperrten Modus betreffen zumindest einige ihrer Eingabevorrichtungen und optional zumindest einige ihrer Ausgabevorrichtungen. Während die Beschränkungen auf der tragbaren elektronischen Vorrichtung 100 in dem gesperrten Modus variieren können, verhindern die Beschränkungen typischerweise, dass Dateien, Nachrichten oder andere Information, die auf der tragbaren elektronischen Vorrichtung 100 gespeichert sind, betrachtet werden können, verhindern, dass Email oder andere elektronische Nachrichten erstellt oder gesendet werden, und verhindern, dass Telefonanrufe von der tragbaren elektronischen Vorrichtung 100 getätigt werden (außer in einigen Ausführungsbeispielen ausgewählte Telefonanrufe, wie 911-Notrufe, die möglich sein können, wenn die tragbare elektronische Vorrichtung 100 in dem gesperrten Modus ist). Eingehende Telefonanrufe können angenommen werden, wenn die tragbare elektronische Vorrichtung 100 in dem gesperrten Modus ist, in zumindest einigen Ausführungsbeispielen. Ein Sperren der tragbaren elektronischen Vorrichtung 100 verhindert effektiv das Hinzufügen oder Entnehmen von Information zu/von der tragbaren elektronischen Vorrichtung 100, außer einer Eingabe einer vorgesehenen Eingabe, wie ein Passwort oder eine andere Eingabe, um die tragbare elektronische Vorrichtung 100 zu entsperren, die durch das Sicherheitsmodul 164 erkannt wird. Jede Kombination der oben angeführten Beschränkungen kann in dem gesperrten Modus von verschiedenen Ausführungsbeispielen angewendet werden.
  • Der gesperrte Modus kann mit einem Sleep- bzw. Schlafen-Modus assoziiert sein, in dem Komponenten der tragbaren elektronischen Vorrichtung 100 in einen Energiesparmodus versetzt sind, um Energie zu sparen. Der Sleep-Modus kann aufweisen ein Inaktivieren/Deaktivieren der berührungsempfindlichen Anzeige 118 oder möglicherweise der Anzeige 112 der berührungsempfindlichen Anzeige 118. In solchen Ausführungsbeispielen weist ein Initiieren eines gesperrten Modus auf ein Deaktivieren der berührungsempfindlichen Anzeige 118 oder der Anzeige 112 und ein Beenden des gesperrten Modus weist auf ein Reaktivieren der berührungsempfindlichen Anzeige 118 oder der Anzeige 112.
  • Wenn die tragbare elektronische Vorrichtung 100 in dem sicheren Modus ist, überwacht der Prozessor 102 hinsichtlich einer vorgesehenen Eingabe, um den sicheren Modus zu beenden (1606). Wenn die vorgesehene Eingabe zum Beenden des sicheren Modus erfasst wird, wird der sichere Modus beendet (1608). Die vorgesehene Eingabe zum Beenden des sicheren Modus weist eine erste Kraftgeste oder eine erste Sequenz Von Kraftgesten auf. Der sichere Modus wird beendet, wenn die erste Kraftgeste oder die erste Sequenz von Kraftgesten erfasst wird.
  • Wenn der sichere Modus der Standby-Modus ist, weist ein Beenden des sicheren Modus auf ein Neukonfigurieren des Prozessors 102, um Berührungseingaben anzunehmen, die über die berührungsempfindliche Anzeige 118 empfangen werden. Die Anzeige 112 wird ebenfalls reaktiviert, wenn sie deaktiviert wurde, als der Standby-Modus in 604 initiiert wurde. Die vorgesehene Eingabe, um den Standby-Modus zu beenden, ist typischerweise viel einfacher als die vorgesehene Eingabe, um den gesperrten Modus zu beenden. In einigen Beispielen kann die vorgesehene Eingabe, um den Standby-Modus zu initiieren (d. h. die Auslösebedingung), dieselbe sein wie die vorgesehene Eingabe, um den Standby-Modus zu beenden, was eine vorgesehene Kraftgeste oder eine Sequenz von Kraftgesten sein kann, wie oben beschrieben wird.
  • Wenn der sichere Modus der gesperrte Modus ist, veranlasst jede empfangene Eingabe, dass die Anzeige 112 reaktiviert wird, wenn sie deaktiviert wurde, als der gesperrte Modus bei 1604 initiiert wurde. Eine Aufforderung für eine vorgesehene Eingabe, um den sicheren Modus (d. h. den gesperrten Modus) zu beenden, wird typischerweise dann auf der Anzeige 112 angezeigt. Wenn keine vorgesehene Eingabe zum Entsperren der tragbaren elektronischen Vorrichtung 100 empfangen wird innerhalb einer Schwellendauer der Anzeige der Aufforderung, fährt der Prozessor 102 fort, hinsichtlich einer vorgesehenen Eingabe zu überwachen, um den sicheren Modus zu beenden. Alternativ kann ein leerer Benutzerschnittstellenbildschirm anstelle einer Aufforderung angezeigt werden. Die vorgesehene Eingabe, um den gesperrten Modus zu beenden, ist typischerweise verschieden von einer vorgesehenen Eingabe zum Initiieren des gesperrten Modus, im Gegensatz zu dem weniger sicheren Standby-Modus.
  • Während eine Eingabeaufforderung angezeigt werden kann, werden keine Hinweise, Referenzen oder Richtlinien angezeigt, um eine Sicherheit zu erhöhen. Dies reduziert die Möglichkeit, dass die Kraftgeste-Passcode-Sequenz von anderen erraten werden kann, da es einen visuellen Hinweis oder eine Anleitung hinsichtlich der Eigenschaft der Kraftgesten, aus denen die Kraftgeste-Passcode-Sequenz besteht, der Anzahl der Kraftgesten in der Kraftgeste-Passcode-Sequenz oder Timing-Aspekte der Kraftgeste-Passcode-Sequenz gibt. Dies reduziert ebenfalls die Möglichkeit, dass die Kraftgeste-Passcode-Sequenz von anderen beobachtet werden kann, und dadurch der Passcode gefährdet wird.
  • In einigen Beispielen kann die vorgesehene Eingabe zum Beenden des gesperrten Modus eine komplexe Sequenz von Kraftgesten sein. Die Sequenz von Gesten kann eine Anzahl von Kraftgesten mit relativen Timing-Elementen aufweisen, die als eine Passcode-Sequenz wirken, um die tragbare elektronische Vorrichtung 100 zu entsperren. Zum Beispiel kann die Sequenz von Gesten aus zwei schnellen Drücken-Gesten, gefolgt von einer langsamen Verdrehung nach rechts, auf die ein Biegung nach innen folgt, bestehen. Diese Sequenz von Gesten kann für einige Benutzer intuitiv sein, da sie in etwa einen geheimen Handschlag simuliert. Wenn die Sequenz von Kraftgesten erfasst oder erkannt wird, werden die Beschränkungen auf der tragbaren elektronischen Vorrichtung 100, die in dem gesperrten Modus forciert wurde, entfernt und ein normaler Betrieb wird wiederaufgenommen.
  • Ein Verfahren zum Evaluieren von Kraftgeste-Passcode-Sequenzen gemäß einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung wird im Folgenden beschrieben. Der Prozessor 102 verfolgt bestimmte Kraftgesten durch Hinzufügen eines Werts entsprechend jeder identifizierten Kraftgeste zu einem Eingabepuffer (nicht gezeigt), der in RAM 108 oder gegebenenfalls dem Speicher 110 gespeichert ist, für eine nachfolgende Verwendung bei Vergleichsoperationen. Der Prozessor 102 ist konfiguriert zum Interpretieren jeder Kraftgeste als einen eindeutigen Eingabewert, der zu dem Eingabepuffer hinzugefügt wird. In einigen Ausführungsbeispielen kann ein Wert zu dem Eingabepuffer hinzugefügt werden für Kraftgesten, die erfasst, aber nicht identifiziert werden. Wenn zum Beispiel nur ein begrenzter Satz von Kraftgesten durch den Prozessor 102 erkannt und identifiziert wird, wird ein entsprechender Wert zu dem Eingabepuffer hinzugefügt für andere Kraftgesten. Der Wert kann ein eindeutiger Eingabewert, der mit allen nicht-identifizierten Kraftgesten assoziiert ist, oder ein zufälliger Wert sein. Alternativ können nicht-identifizierte Kraftgesten ignoriert werden.
  • Dann analysiert der Prozessor 102 die Werte in dem Eingabepuffer, um zu bestimmen, ob die Sequenz von erfassten Kraftgesten mit einer vorgegebenen Kraftgeste-”Passcode”-Sequenz übereinstimmt. Die Werte, die in dem Eingabepuffer gespeichert sind, werden mit Werten verglichen, die der Kraftgeste-Passcode-Sequenz entsprechen, und wenn die Werte gleich sind, gibt es eine Übereinstimmung. Wenn die Werte nicht gleich sind, gibt es keine Übereinstimmung.
  • Dies kann auftreten, wenn der Eingabepuffer mit eindeutigen Eingabewerten für identifizierte Kraftgesten gefüllt ist, aber die Serie oder Sequenz in dem Eingabepuffer nicht mit den Werten für die vorgegebene Kraftgeste-Passcode-Sequenz übereinstimmt, oder wenn ein Wert, der einer nicht-identifizierten Kraftgeste entspricht, in dem Eingabepuffer enthalten ist, abhängig von dem Ausführungsbeispiel. In beiden Fällen gibt es keine Übereinstimmung und der Entsperren-Prozess schlägt fehl.
  • In einigen Ausführungsbeispielen ist eine vorgegebene Freigabe- bzw. Abschicken-Eingabe erforderlich, damit Vergleichsoperationen durchgeführt werden können. Die vorgegebene Freigabe-Eingabe kann eine Auswahl eines vorgegebenen virtuellen Knopfs, eine Aktivierung einer bestimmten Freigabe-Taste, vorgegebenen Taste oder Tastenkombination in einer Tastatur oder Knopf, oder jede andere geeignete Eingabe sein.
  • In anderen Ausführungsbeispielen kann der Prozessor 102 automatisch den Vergleich durchführen, nachdem die Anzahl von Eingabewerten, die in dem Eingabepuffer gespeichert ist, dieselbe Anzahl („N”) wie die Eingabewerte in der Kraftgeste-Passcode-Sequenz erreicht. In anderen Ausführungsbeispielen wird ein Vergleich durchgeführt, nachdem jede Kraftgeste erfasst wird, derart, dass eine fehlerhafte Eingabe an der ersten Instanz einer Abweichung von der vorgegebenen Kraftgeste-Passcode-Sequenz erfasst wird.
  • Wenn eine Übereinstimmung existiert, wird die tragbare elektronische Vorrichtung 100 entsperrt und die Beschränkungen auf der tragbaren elektronischen Vorrichtung 100 werden entfernt und der normale Betrieb wird wieder aufgenommen. Eine erfolgreiche Eingabe einer Serie von Kraftgesten kann durch eine Nachricht oder ein Dialogfeld angezeigt werden, die/das auf der berührungsempfindlichen Anzeige 118 angezeigt wird, in einigen Ausführungsbeispielen. Alternativ kann die tragbare elektronische Vorrichtung 100 zu dem Hauptbildschirm der tragbaren elektronischen Vorrichtung 100 zurückkehren oder zu dem Benutzerschnittstellenbildschirm zurückkehren, der verwendet wurde, als die tragbare elektronische Vorrichtung 100 gesperrt wurde.
  • Wenn keine Übereinstimmung existiert, bleibt die tragbare elektronische Vorrichtung 100 gesperrt, und der Entsperren-Prozess schlägt fehl. In einigen Ausführungsbeispielen kann der Prozessor 102 konfiguriert sein zum Durchführen einer Vorrichtungslöschung und alle Benutzerdaten und/oder Dienstdaten löschen, die in dem Speicher 110 und/oder RAM 108 gespeichert sind, wenn der Benutzer eine falsche Kraftgeste-Passcode-Sequenz öfter als eine Schwellenanzahl von Malen eingibt, ohne die korrekte Kraftgeste-Passcode-Sequenz einzugeben. Zum Beispiel führen in einem möglichen Ausführungsbeispiel fünf fehlgeschlagene Versuche, eine Kraftgeste-Passcode-Sequenz korrekt einzugeben ohne eine stattfindende erfolgreiche Benutzerauthentifizierung, zu einem Löschen der Vorrichtung.
  • Es gibt zahlreiche mögliche Permutationen von Kraftgesten- und Befehls-Kombinationen; jedoch sind nicht alle Kraftgesten- und Befehls-Kombinationen prozedural effizient zu implementieren oder intuitiv für einen Benutzer. Die vorliegende Offenbarung beschreibt eine Anzahl von Kraftgesten- und Befehls-Kombinationen, die auf relativ einfache Weise in einer GUI implementiert werden können, ohne umständlich zu werden in Bezug auf Verarbeitung oder Benutzererfahrung, und ohne in Konflikt zu treten mit anderen gestischen Befehlseingaben, Berührungsbefehlseingaben oder anderen Befehlseingaben. Die Kraftgesten- und Befehls-Kombinationen, die hier beschrieben werden, bieten eine intuitivere Benutzerschnittstelle zum Vorsehen der beschriebenen Funktionalität mit weniger Verarbeitungskomplexität als Alternativen, wie Menü-betriebene oder Knopf/Taste-betriebene Alternativen.
  • Der Begriff „computerlesbares Medium”, wie hier verwendet, bedeutet jedes Medium, das Anweisungen zur Verwendung oder Ausführung durch einen Computer oder eine andere Computervorrichtung speichern kann, einschließlich, aber nicht darauf beschränkt, eine tragbare Computerdiskette, ein Festplattenlaufwerk (HDD – hard disk drive), ein RAM, ein ROM, ein EPROM (erasable programmable-read-only memory) oder Flash-Speicher, eine optische Disk, wie CD (Compact Disc), DVD (Digital Versatile Disc) oder Blu-rayTM-Disk, und eine Festspeichervorrichtung (z. B. NAND Flash oder SDRAM (synchronous dynamic RAM)).
  • Während die vorliegende Offenbarung zumindest teilweise in Bezug auf Verfahren beschrieben wird, ist für Fachleute offensichtlich, dass die vorliegende Offenbarung auch auf die verschiedenen Komponenten bezogen ist zur Durchführung zumindest einiger der Aspekte und Merkmale der beschriebenen Verfahren, entweder durch Hardware-Komponenten, Software oder einer Kombination aus den beiden oder auf andere Weise. Weiter betrifft die vorliegende Offenbarung auch eine vorgespeicherte Speichervorrichtung oder ein anderes ähnliches computerlesbares Medium, einschließlich Programmanweisungen, die darauf gespeichert sind, zur Durchführung des hier beschriebenen Verfahrens.
  • Die vorliegende Offenbarung kann in anderen spezifischen Formen eingesetzt werden, ohne von ihrem Sinn oder wesentlichen Charakteristiken abzuweichen. Die beschriebenen beispielhaften Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend betrachtet werden. Die vorliegende Offenbarung soll alle geeigneten Änderungen der Technologie abdecken und umfassen. Der Umfang der vorliegenden Offenbarung wird daher durch die angefügten Ansprüche beschrieben und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeiten der Ansprüche fallen, sollen in ihrem Umfang aufgenommen sein.

Claims (28)

  1. Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung, das aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen einer Aktion, die mit einer erfassten Verformung assoziiert ist; und Veranlassen, dass die bestimmte Aktion durchgeführt wird.
  2. Verfahren gemäß Anspruch 1, wobei das Bestimmen aufweist: Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Bestimmen der Aktion, die mit der bestimmten Kraftgeste assoziiert ist.
  3. Verfahren gemäß Anspruch 1 oder Anspruch 2, wobei die bestimmte Aktion nur durchgeführt wird, wenn eine vorgesehene Eingabe vor der erfassten Verformung erfasst wird.
  4. Verfahren gemäß Anspruch 1 oder Anspruch 2, wobei die bestimmte Aktion nur durchgeführt wird, wenn eine vorgesehene Eingabe während der erfassten Verformung erfasst wird.
  5. Verfahren gemäß Anspruch 3 oder Anspruch 4, wobei die bestimmte Aktion in Übereinstimmung mit der bestimmten Kraftgeste und der vorgesehenen Eingabe bestimmt wird, die vor oder während der erfassten Verformung erfasst wird.
  6. Verfahren gemäß einem der Ansprüche 3 bis 5, wobei die vorgesehene Eingabe eine Berührungseingabe auf einer berührungsempfindlichen Anzeige der tragbaren elektronischen Vorrichtung ist.
  7. Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms, der einen Inhaltsbereich umfasst, in dem Inhalt angezeigt wird; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Veranlassen einer ersten Änderung des Inhalts des Benutzerschnittstellenbildschirms; wenn die zweite Kraftgeste erfasst wird, Veranlassen einer zweiten Änderung des Inhalts des Benutzerschnittstellenbildschirms.
  8. Verfahren gemäß Anspruch 7, wobei die erste Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag vergrößert (zoomed-in) wird, und wobei die zweite Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag verkleinert (zoomed-out) wird.
  9. Verfahren gemäß Anspruch 8, wobei die erste Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms in der Größe vergrößert wird von einer aktuellen Skalierung zu einer nächstgrößeren Skalierung in einem vorgegebenen Bereich von Skalierungen, und die zweite Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms in der Größe verringert wird von der aktuellen Skalierung zu einer nächstkleineren Skalierung in dem vorgegebenen Bereich von Skalierungen.
  10. Verfahren gemäß Anspruch 8 oder Anspruch 9, wobei die erste Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag in der Größe vergrößert wird, und die zweite Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag in der Größe verringert wird.
  11. Verfahren gemäß einem der Ansprüche 8 bis 10, wobei die erste Kraftgeste eine Falten-Geste im Uhrzeigersinn ist und die zweite Kraftgeste eine Falten-Geste gegen den Uhrzeigersinn ist.
  12. Verfahren gemäß einem der Ansprüche 8 bis 11, das weiter aufweist: Erfassen von Berührungseingaben auf einer berührungsempfindlichen Anzeige der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Berührungseingabe eine Panning- bzw. Verschieben-Berührungsgeste ist, basierend auf vorgegebenen Berührungsgeste-Kriterien; wenn die Berührungseingabe eine Verschieben-Berührungsgeste ist, Verschieben des Inhalts des Benutzerschnittstellenbildschirms in eine Richtung der Verschieben-Berührungsgeste.
  13. Verfahren gemäß Anspruch 12, wobei ein Swipe bzw. Wischen nach links, ein Wischen nach rechts, ein Wischen nach oben und ein Wischen nach unten jeweils Verschieben-Berührungsgesten sind, wobei der Inhalt des Benutzerschnittstellenbildschirms nach rechts verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach links erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms nach links verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach rechts erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms nach unten verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach oben erfasst wird, und der Inhalt des Benutzerschnittstellenbildschirms nach oben verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach unten erfasst wird.
  14. Verfahren gemäß Anspruch 7, wobei der Benutzerschnittstellenbildschirm ein Dokumentenbetrachter-Benutzerschnittstellenbildschirm ist, wobei die erste Kraftgeste veranlasst, dass eine nächste Seite des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, und wobei die zweite Kraftgeste veranlasst, dass eine vorherige Seite des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird.
  15. Verfahren gemäß Anspruch 7, wobei der Benutzerschnittstellenbildschirm ein Dokumentenbetrachter-Benutzerschnittstellenbildschirm ist, wobei die erste Kraftgeste veranlasst, dass ein nächster Teil des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, und wobei die zweite Kraftgeste veranlasst, dass ein vorheriger Teil des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird.
  16. Verfahren gemäß Anspruch 7, wobei der Benutzerschnittstellenbildschirm ein Kalender-Benutzerschnittstellenbildschirm ist, wobei die erste Kraftgeste veranlasst, dass eine nächste Ansicht des Kalenders in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, und wobei die zweite Kraftgeste veranlasst, dass eine vorherige Ansicht des Kalenders in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird.
  17. Verfahren gemäß Anspruch 16, wobei die nächste Ansicht in einer sequenziellen Reihenfolge von Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, wenn die erste Kraftgeste erfasst wird, und die vorherige Ansicht in der sequenziellen Reihenfolge von Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, wenn die zweite Kraftgeste erfasst wird.
  18. Verfahren gemäß einem der Ansprüche 14 bis 17, wobei die erste Kraftgeste eine Falten-Geste im Uhrzeigersinn ist und die zweite Kraftgeste eine Falten-Geste gegen den Uhrzeigersinn ist.
  19. Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn eine Falten-Geste im Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines nächsten Datenobjekts in einem Datenspeicher einer Media-Player-Anwendung; wenn eine Falten-Geste gegen den Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines vorherigen Datenobjekts in einem Datenspeicher der Media-Player-Anwendung.
  20. Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms, der einen Inhaltsbereich umfasst, in dem Inhalt angezeigt wird, wobei der Inhalt ein Fahrzeug in einer Umgebung umfasst; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Erhöhen eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene, einschließlich des Fahrzeugs und der Umgebung, unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene; wenn die zweite Kraftgeste erfasst wird, Verringern eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene, einschließlich des Fahrzeugs und der Umgebung, unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene.
  21. Verfahren gemäß Anspruch 20, das weiter aufweist: Erfassen einer Beschleunigung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung der tragbaren elektronischen Vorrichtung übereinstimmt; wenn eine erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung der tragbaren elektronischen Vorrichtung übereinstimmt, Ändern eines Werts von einem oder mehreren Orientierungsparametern in Übereinstimmung mit einer Richtung der deutlichen Änderung der Orientierung, Darstellen einer neuen Szene, einschließlich des Fahrzeugs und der Umgebung, unter Verwendung des geänderten Werts des einen oder mehrerer Orientierungsparameter, und Anzeigen der dargestellten neuen Szene.
  22. Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Überwachen, wenn die tragbare elektronische Vorrichtung in einem sicheren Modus ist, hinsichtlich einer vorgesehenen Eingabe zum Beenden des scheren Modus, wobei die vorgesehene Eingabe zum Beenden des sicheren Modus eine erste Kraftgeste oder eine erste Sequenz von Kraftgesten aufweist; und Beenden des sicheren Modus, wenn die erste Kraftgeste oder erste Sequenz von Kraftgesten erfasst wird.
  23. Verfahren gemäß einem der Ansprüche 1 bis 22, wobei die erfasste Verformung eine Verformung eines im Wesentlichen starren Gehäuses der tragbaren elektronischen Vorrichtung ist.
  24. Verfahren gemäß einem der Ansprüche 1 bis 22, wobei die erfasste Verformung eine Verformung einer flexiblen Hülle bzw. Skins ist, die ein im Wesentlichen starres Gehäuse der tragbaren elektronischen Vorrichtung umgibt.
  25. Tragbare elektronische Vorrichtung, die aufweist: ein im Wesentlichen starres Gehäuse, das einen Prozessor, einen mit dem Prozessor gekoppelten Sensor, wobei der Sensor eine Verformung der tragbaren elektronischen Vorrichtung erfasst, und eine mit dem Prozessor gekoppelte Anzeige enthält; wobei der Prozessor konfiguriert ist zur Durchführung des Verfahrens gemäß einem der Ansprüche 1 bis 22.
  26. Tragbare elektronische Vorrichtung gemäß Anspruch 25, die weiter aufweist: ein flexibles Skin, das das Gehäuse umgibt, wobei das flexible Skin einen Magnet trägt; wobei der Sensor einen Magnetsensor aufweist, der mit dem Prozessor gekoppelt ist, der ein magnetisches Feld überwacht, das von dem Magnet in dem flexiblen Skin erzeugt wird.
  27. Tragbare elektronische Vorrichtung gemäß Anspruch 26, wobei das flexible Skin elastisch zusammendrückbar ist, so dass es lokal aus einem neutralen Zustand in einen betätigten Zustand gedrückt wird in Reaktion auf eine Druckkraft, und aus dem betätigten Zustand in den neutralen Zustand zurückkehrt, wenn die Druckkraft entfernt wird, wobei der Magnet in dem flexiblen Skin eingebettet ist, um sich in Reaktion auf Änderungen zwischen dem neutralen Zustand und dem betätigten Zustand zu bewegen.
  28. Tragbare elektronische Vorrichtung gemäß Anspruch 26, wobei der Sensor eine erste Erfassungsschicht aufweist, die sich in dem Gehäuses entlang einer ersten Seite davon erstreckt, wobei die erste Erfassungsschicht eine Druck-Erfassungsschicht umfasst, die eine Druckeingabe an den Prozessor liefert.
DE112011100087T 2011-04-06 2011-04-06 Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse Withdrawn DE112011100087T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CA2011/050186 WO2012135935A2 (en) 2011-04-06 2011-04-06 Portable electronic device having gesture recognition and a method for controlling the same

Publications (1)

Publication Number Publication Date
DE112011100087T5 true DE112011100087T5 (de) 2013-01-31

Family

ID=45656623

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011100087T Withdrawn DE112011100087T5 (de) 2011-04-06 2011-04-06 Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse

Country Status (5)

Country Link
EP (1) EP2508960A3 (de)
CA (1) CA2770784A1 (de)
DE (1) DE112011100087T5 (de)
GB (1) GB2494482A (de)
WO (1) WO2012135935A2 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102870067B (zh) 2010-03-25 2016-05-11 诺基亚技术有限公司 电子装置的扭曲
WO2011144972A1 (en) 2010-05-21 2011-11-24 Nokia Corporation A method, an apparatus and a computer program for controlling an output from a display of an apparatus
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9823707B2 (en) 2012-01-25 2017-11-21 Nokia Technologies Oy Contortion of an electronic apparatus
US9823696B2 (en) 2012-04-27 2017-11-21 Nokia Technologies Oy Limiting movement
US9158334B2 (en) 2012-10-22 2015-10-13 Nokia Technologies Oy Electronic device controlled by flexing
US9158332B2 (en) 2012-10-22 2015-10-13 Nokia Technologies Oy Limiting movement
US10817096B2 (en) 2014-02-06 2020-10-27 Apple Inc. Force sensor incorporated into display
CN104969158A (zh) 2012-12-14 2015-10-07 苹果公司 通过电容变化进行力感测
KR102090711B1 (ko) 2013-02-01 2020-03-19 삼성디스플레이 주식회사 신축성 디스플레이 장치 및 이의 제어 방법.
KR20170103026A (ko) 2013-02-08 2017-09-12 애플 인크. 용량성 감지에 기초한 힘 결정
US9851828B2 (en) 2013-03-15 2017-12-26 Apple Inc. Touch force deflection sensor
KR102118403B1 (ko) * 2013-05-08 2020-06-03 삼성전자주식회사 연성 기기, 연성 기기의 형상 감지 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102145504B1 (ko) * 2013-05-23 2020-08-19 삼성디스플레이 주식회사 전자 장치, 전자 장치의 잠금 해제 방법, 및 전자 장치의 주밍 및 토글링 제어 방법
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
US9915572B2 (en) 2013-09-29 2018-03-13 Apple Inc. Force sensing compliant enclosure
KR102209332B1 (ko) * 2014-01-06 2021-02-01 삼성디스플레이 주식회사 스트레쳐블 표시장치 및 이의 제어방법
AU2015217268B2 (en) 2014-02-12 2018-03-01 Apple Inc. Force determination employing sheet sensor and capacitive array
WO2015163843A1 (en) 2014-04-21 2015-10-29 Rinand Solutions Llc Mitigating noise in capacitive sensor
US10365721B2 (en) 2014-05-06 2019-07-30 Symbol Technologies, Llc Apparatus and method for performing a variable data capture process
KR20170086538A (ko) * 2014-10-30 2017-07-26 티모시 징 인 스제토 터치 감지, 압력 감지 및 디스플레이 가능 측면을 갖는 전자 장치
KR102223680B1 (ko) 2014-11-03 2021-03-08 삼성디스플레이 주식회사 신축성 디스플레이 장치 및 이의 표시 제어 방법 및 장치
US10006937B2 (en) 2015-03-06 2018-06-26 Apple Inc. Capacitive sensors for electronic devices and methods of forming the same
US9715301B2 (en) 2015-08-04 2017-07-25 Apple Inc. Proximity edge sensing
US10007343B2 (en) 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
US10372121B2 (en) * 2016-04-26 2019-08-06 Ford Global Technologies, Llc Determination of continuous user interaction and intent through measurement of force variability
US11210912B2 (en) 2016-06-24 2021-12-28 Nanoport Technology Inc. Tactile feedback actuator, electronic device using same, and method of operating same
US9916073B1 (en) 2017-01-17 2018-03-13 Nanoport Technology Inc. Electronic device having force-based modifiable graphical elements and method of operating same
US10719129B2 (en) 2017-06-21 2020-07-21 Nanoport Technology Inc. Compound haptic effects using multimodal tactile feedback actuator
US11209927B2 (en) * 2017-12-11 2021-12-28 Google Llc Apparatus for sensing user input
CN108227985B (zh) * 2017-12-28 2022-04-05 业成科技(成都)有限公司 具有无实体按键边框的行动装置
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
CN114616532A (zh) * 2020-02-14 2022-06-10 华为技术有限公司 卷曲设备上的卷曲手势和防误触措施
KR20220044591A (ko) * 2020-02-14 2022-04-08 후아웨이 테크놀러지 컴퍼니 리미티드 롤링 디바이스들의 자체-적응형 디스플레이 종횡비 조정기 및 제스처

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7456823B2 (en) * 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
EP1538536A1 (de) * 2003-12-05 2005-06-08 Sony International (Europe) GmbH Techniken für Visualisierung und Kontrolle für digitale Multimediainhalte
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US9519857B2 (en) * 2008-06-30 2016-12-13 Nokia Technologies Oy Apparatus and method for sensing characterizing features of a deformable structure
US20100011291A1 (en) * 2008-07-10 2010-01-14 Nokia Corporation User interface, device and method for a physically flexible device
US8613394B2 (en) * 2008-08-29 2013-12-24 The Invention Science Fund I, Llc Bendable electronic interface external control system and method
KR20100065418A (ko) * 2008-12-08 2010-06-17 삼성전자주식회사 가요성 표시부를 가지는 단말기 및 그의 데이터 표시 방법
EP2376999A1 (de) * 2008-12-15 2011-10-19 Koninklijke Philips Electronics N.V. Benutzeroberflächeneinrichtung und verfahren

Also Published As

Publication number Publication date
EP2508960A3 (de) 2013-07-31
EP2508960A2 (de) 2012-10-10
GB2494482A (en) 2013-03-13
WO2012135935A3 (en) 2012-11-29
GB201203259D0 (en) 2012-04-11
WO2012135935A2 (en) 2012-10-11
CA2770784A1 (en) 2012-10-06
EP2508960A9 (de) 2013-08-21

Similar Documents

Publication Publication Date Title
DE112011100087T5 (de) Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse
US20120260220A1 (en) Portable electronic device having gesture recognition and a method for controlling the same
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
US8468460B2 (en) System and method for displaying, navigating and selecting electronically stored content on a multifunction handheld device
EP2369460B1 (de) Endgerät und Steuerprogramm dafür
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich
DE112011101209T5 (de) Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung
DE112011101380T5 (de) Berührungsempfindliche Anzeige mit variabler Wiederholungsrate
DE212009000073U1 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE112016000085T5 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
DE112011101203T5 (de) Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung
DE102013007250A1 (de) Verfahren zur Gestensteuerung
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE102010028983A1 (de) Zweidimensionale Berührungssensoren
DE102011117012A1 (de) Erfassung von gleitbewegungen von mehreren fingern unter verwendung von fingerabdrücken zur erzeugung verschiedener ereignisse
DE202007013923U1 (de) Mehrfachereignis-Eingabesystem
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE212006000028U1 (de) Multifunktionale Handgehaltene Vorrichtung
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE202012101741U1 (de) Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten
DE202007014957U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE102012219165A1 (de) Aktiver Stylus-Stift mit konfigurierbarem Berührungssensor

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

R081 Change of applicant/patentee

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA

Effective date: 20140925

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20140925

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20140925

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee