DE112011100087T5 - Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse - Google Patents
Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse Download PDFInfo
- Publication number
- DE112011100087T5 DE112011100087T5 DE112011100087T DE112011100087T DE112011100087T5 DE 112011100087 T5 DE112011100087 T5 DE 112011100087T5 DE 112011100087 T DE112011100087 T DE 112011100087T DE 112011100087 T DE112011100087 T DE 112011100087T DE 112011100087 T5 DE112011100087 T5 DE 112011100087T5
- Authority
- DE
- Germany
- Prior art keywords
- gesture
- force
- electronic device
- user interface
- portable electronic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims abstract description 111
- 230000009471 action Effects 0.000 claims abstract description 36
- 230000005291 magnetic effect Effects 0.000 claims description 29
- 230000007935 neutral effect Effects 0.000 claims description 19
- 230000037303 wrinkles Effects 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 12
- 238000003825 pressing Methods 0.000 claims description 9
- 238000004091 panning Methods 0.000 claims description 8
- 230000002829 reductive effect Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000010008 shearing Methods 0.000 claims 1
- 239000010410 layer Substances 0.000 description 72
- 230000005355 Hall effect Effects 0.000 description 46
- 238000001514 detection method Methods 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 210000004247 hand Anatomy 0.000 description 7
- 230000000977 initiatory effect Effects 0.000 description 7
- 238000005452 bending Methods 0.000 description 6
- 238000009432 framing Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000004907 flux Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 230000010399 physical interaction Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000001808 coupling effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000000415 inactivating effect Effects 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 229920001084 poly(chloroprene) Polymers 0.000 description 1
- 239000011241 protective layer Substances 0.000 description 1
- 230000007420 reactivation Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000000565 sealant Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000004945 silicone rubber Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 229910000859 α-Fe Inorganic materials 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1652—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04102—Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/026—Details of the structure or mounting of specific components
- H04M1/0266—Details of the structure or mounting of specific components for a display module assembly
- H04M1/0268—Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Die vorliegende Offenbarung sieht eine tragbare elektronische Vorrichtung vor, die eine Gesten-Erkennung hat, und ein Verfahren zu deren Steuerung. In Übereinstimmung mit einem beispielhaften Ausführungsbeispiel weist das Verfahren auf ein Erfassen einer Verformung der tragbaren elektronischen Vorrichtung, ein Bestimmen einer Aktion, die mit einer erfassten Verformung assoziiert ist, und somit Veranlassen, dass die bestimmte Aktion durchgeführt wird.
Description
- TECHNISCHES GEBIET
- Die vorliegende Offenbarung betrifft tragbare elektronische Vorrichtungen und insbesondere eine tragbare elektronische Vorrichtung mit einer Gesten-Erkennung und ein Verfahren zu deren Steuerung.
- HINTERGRUND
- Elektronische Vorrichtungen, einschließlich tragbare elektronische Vorrichtungen, werden zunehmend für eine gestische Steuerung konfiguriert als Teil einer Bewegung hin zu ubiquitärer Computernutzung, bei der Vorrichtungen ausgebildet sind für eine natürlichere und intuitivere Benutzerinteraktion anstatt zu erfordern, dass sich der Benutzer den elektronischen Vorrichtungen anpasst. Die Mehrheit von gestischen Steuerungen sind in der Form von Berührungsgesten, die mit einer berührungsempfindlichen Anzeige erfasst werden, oder Bewegungsgesten, die mit einem Bewegungssensor erfasst werden, wie ein Beschleunigungsmesser bzw. Akzelerometer. Alternative Formen einer gestischen Steuerung sind wünschenswert, um eine natürlichere und intuitivere Benutzerinteraktion mit einer elektronischen Vorrichtung vorzusehen.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist ein vereinfachtes Blockdiagramm von Komponenten, einschließlich interner Komponenten, eines ersten Beispiels einer tragbaren elektronischen Vorrichtung, die geeignet ist zum Ausführen der beispielhaften Ausführungsbeispiele der vorliegenden Offenbarung; -
2 ist eine Vorderansicht eines Beispiels einer tragbaren elektronischen Vorrichtung, die geeignet ist zur Ausführung der beispielhaften Ausführungsbeispiele der vorliegenden Offenbarung; -
3 ist ein vereinfachtes Blockdiagramm eines Gestenerfassungs-Teilsystems in Übereinstimmung mit der vorliegenden Offenbarung; -
4A ist eine sektionale Draufsicht der tragbaren elektronischen Vorrichtung von2 , die die Position der Sensoren zeigt; -
4B ist eine sektionale Seitenansicht der tragbaren elektronischen Vorrichtung von2 , die die Position der Sensoren zeigt; -
5 ist eine Schnittansicht einer beispielhaften Drucksensoranordnung für die tragbare elektronische Vorrichtung von2 in Übereinstimmung mit der vorliegenden Offenbarung; -
6 ist eine Schnittansicht einer weiteren beispielhaften Drucksensoranordnung für die tragbare elektronische Vorrichtung von2 in Übereinstimmung mit der vorliegenden Offenbarung; -
7 ist eine sektionale Draufsicht einer beispielhaften Magnetsensoranordnung für eine tragbare elektronische Vorrichtung mit einer flexiblen Hülle bzw. Skin, wobei das flexible Skin in einem neutralen Zustand ist; -
8 ist eine sektionale Draufsicht einer beispielhaften Magnetsensoranordnung für eine tragbare elektronische Vorrichtung mit einem flexiblen Skin, wobei das flexible Skin in einem betätigten Zustand ist; -
9 ist ein Ablaufdiagramm, das ein Verfahren zur Gesten-Erkennung in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung zeigt; -
10A bis10I sind Diagrammdarstellungen von Kraftgesten, die von beispielhaften Ausführungsbeispielen der vorliegenden Offenbarung erfasst werden können; -
11 ist ein Ablaufdiagramm eines Verfahrens zum Zoomen einer Benutzerschnittstelle in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; -
12 ist ein Ablaufdiagramm eines Verfahrens zum Navigieren eines Dokuments in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; -
13 ist ein Ablaufdiagramm eines Verfahrens zum Navigieren eines Kalenders in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; -
14 ist ein Ablaufdiagramm eines Verfahrens zum Navigieren von Media in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; -
15 ist ein Ablaufdiagramm eines Verfahrens zur Steuerung eines Fahrzeugsimulators in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung; und -
16 ist ein Ablaufdiagramm, das ein Verfahren zum Vorsehen von Sicherheit auf der tragbaren elektronischen Vorrichtung in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt. - DETAILLIERTE BESCHREIBUNG VON BEISPIELHAFTEN AUSFÜHRUNGSBEISPIELEN
- Es wird nun Bezug genommen auf die beigefügten Zeichnungen, die auf beispielhafte Weise beispielhafte Ausführungsbeispiele der vorliegenden Offenbarung zeigen. Zur Vereinfachung und Übersichtlichkeit der Darstellung können Bezugszeichen bei den Figuren wiederholt werden, um entsprechende oder analoge Elemente anzuzeigen. Eine Vielzahl von Details wird dargelegt, um ein Verständnis der hier beschriebenen beispielhaften Ausführungsbeispiele vorzusehen. Die beispielhaften Ausführungsbeispiele können ohne diese Details praktiziert werden. In anderen Instanzen werden allgemein bekannte Verfahren, Vorgänge und Komponenten nicht im Detail beschrieben, um ein Verschleiern der beschriebenen beispielhaften Ausführungsbeispiele zu vermeiden. Die Beschreibung soll den Umfang der hier beschriebenen beispielhaften Ausführungsbeispiele nicht beschränken. Jede Referenz zu einer Richtung oder Orientierung ist als Zweckmäßigkeit gedacht und soll nicht einschränkend sein, außer es wird ausdrücklich hier angeführt.
- Die Offenbarung betrifft im Allgemeinen eine tragbare elektronische Vorrichtung, wie eine handgehaltene elektronische Vorrichtung. Beispiele für handgehaltene elektronische Vorrichtungen umfassen drahtlose Kommunikationsvorrichtungen, wie zum Beispiel Pager, Mobiltelefone, Smartphones, Tabletcomputer-Vorrichtungen, drahtlose Organizer, persönliche digitale Assistenten (PDAs – personal digital assistants), und so weiter. Die tragbare elektronische Vorrichtung kann auch eine handgehaltene elektronische Vorrichtung mit oder ohne drahtlose Kommunikationsfähigkeiten sein, wie zum Beispiel eine elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
- Die vorliegende Offenbarung bietet eine Lösung, die herkömmliche Eingabevorrichtungen von tragbaren elektronischen Vorrichtungen, wie Tastenfelder, Tastaturen und Berührungsbildschirme, mit Eingaben erweitert, die von Kraftgesten vorgesehen werden, die verursacht werden durch Kräfte zum Dehnen bzw. Ziehen, Komprimieren bzw. Drücken, Biegen, Verdrehen und/oder Falten bzw. Knicken, die auf die tragbare elektronische Vorrichtung angewendet werden. Sensoren werden verwendet, um die Verformung eines Gehäuses der tragbaren elektronischen Vorrichtung zu erfassen, die verursacht wird durch Kräfte zum Dehnen bzw. Ziehen, Komprimieren bzw. Drücken, Biegen, Verdrehen und/oder Falten bzw. Knicken. Die vorgeschlagene Lösung bietet eine relativ kostengünstige und einfache Lösung zum Vorsehen von Eingaben, die verwendet werden können, um Eingaben von herkömmlichen Eingabevorrichtungen zu ergänzen oder zu ersetzen.
- In Übereinstimmung mit einem beispielhaften Ausführungsbeispiel ist ein Verfahren vorgesehen zum Steuern einer tragbaren elektronischen Vorrichtung, das aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen einer Aktion, die mit einer erfassten Verformung assoziiert ist; und Veranlassen, dass die bestimmte Aktion durchgeführt wird. In einigen Beispielen weist das Bestimmen auf: Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Bestimmen der Aktion, die mit der bestimmten Kraftgeste assoziiert ist. In einigen Beispielen wird die Aktion in Übereinstimmung mit der bestimmten Kraftgeste und zumindest einem aus einer Berührungseingabe, einer Vorrichtungsausrichtung oder einer Bewegungsgeste bestimmt. In einigen Beispielen ist die Berührungseingabe eine Berührungsstelle oder eine Berührungsgeste. in einigen Beispielen ist die erfasste Verformung eine Verformung eines im Wesentlichen starren Gehäuses der tragbaren elektronischen Vorrichtung. In einigen Beispielen weist das Erfassen ein Erfassen von Kräften auf, die auf das Gehäuse angewendet werden. In einigen Beispielen ist die erfasste Verformung eine Verformung einer flexiblen Hülle bzw. Skins, die ein im Wesentlichen starres Gehäuse der tragbaren elektronischen Vorrichtung umgibt. In einigen Beispielen weist das Erfassen ein Erfassen von Kräften auf, die auf das flexible Skin angewendet werden.
- In Übereinstimmung mit einem anderen beispielhaften Ausführungsbeispiel ist ein Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung vorgesehen, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms; Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Veranlassen einer ersten Änderung des Inhalts des Benutzerschnittstellenbildschirms; wenn die zweite Kraftgeste erfasst wird, Veranlassen einer zweiten Änderung des Inhalts des Benutzerschnittstellenbildschirms.
- In Übereinstimmung mit einem weiteren Ausführungsbeispiel ist eine tragbare elektronische Vorrichtung vorgesehen, die aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn eine Falten- bzw. Knicken-Geste im Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines nächsten Datenobjekts in einem Datenspeicher einer Media-Player-Anwendung; und wenn eine Falten-Geste gegen den Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines vorherigen Datenobjekts in einem Datenspeicher der Media-Player-Anwendung.
- In Übereinstimmung mit einem weiteren beispielhaften Ausführungsbeispiel ist ein Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung vorgesehen, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms mit einem Inhaltsbereich, in dem Inhalt angezeigt wird, wobei der Inhalt ein Fahrzeug in einer Umgebung umfasst; Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Erhöhen eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene; wenn die zweite Kraftgeste erfasst wird, Verringern eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene.
- In Übereinstimmung mit einem weiteren beispielhaften Ausführungsbeispiel ist ein Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung vorgesehen, das aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung aus einem neutralen Modus; Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Überwachen, wenn die tragbare elektronische Vorrichtung in einem sicheren Modus ist, hinsichtlich einer vorgesehenen Eingabe zum Beenden des sicheren Modus, wobei die vorgesehene Eingabe zum Beenden des sicheren Modus eine erste Kraftgeste oder eine erste Sequenz von Kraftgesten aufweist; und Beenden des sicheren Modus, wenn die erste Kraftgeste oder die erste Sequenz von Kraftgesten erfasst wird. In einigen Beispielen weist das Verfahren weiter auf: Überwachen, wenn die tragbare elektronische Vorrichtung nicht in einem sicheren Modus ist, hinsichtlich einer Auslösebedingung zum Initiieren der sicheren Modus; und Initiieren eines sicheren Modus auf der Vorrichtung in Reaktion auf ein Erfassen einer Auslösebedingung. In einigen Beispielen ist die Auslösebedingung eine zweite Kraftgeste oder eine zweite Sequenz von Kraftgesten. In einigen Beispielen weist das Verfahren weiter auf ein Deaktivieren einer Anzeige der tragbaren elektronischen Vorrichtung bei einem Initiieren des sicheren Modus. In einigen Beispielen weist das Verfahren weiter auf ein Reaktivieren einer Anzeige der tragbaren elektronischen Vorrichtung bei einem Beenden des sicheren Modus. In einigen Beispielen weist das Verfahren weiter auf: ein Reaktivieren der Anzeige in Reaktion auf die Erfassung einer Eingabe, wenn die tragbare elektronische Vorrichtung in dem sicheren Modus ist, und Anzeigen einer Aufforderung auf der Anzeige für eine vorgesehene Eingabe zum Beenden des sicheren Modus.
- In einigen Beispielen weist das Verfahren auf ein Hinzufügen eines eindeutigen Eingabewerts, der mit jeder identifizierten Kraftgeste assoziiert ist, zu einem Eingabepuffer, um eine Serie von Eingabewerten zu bilden; Vergleichen der Serie von Eingabewerten in dem Eingabepuffer mit einer Serie von Werten, die einer vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen; und Entsperren der Vorrichtung, wenn die Serie von Eingabewerten in dem Eingabepuffer mit der Serie von Werten übereinstimmt, die der vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen. In einigen Beispielen wird die Serie von Eingabewerten in dem Eingabepuffer mit der Serie von Werten verglichen, die der vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen, in Reaktion auf jede erfasste Kraftgeste. In einigen Beispielen wird die Serie von Eingabewerte in dem Eingabepuffer mit der Serie von Werten verglichen, die einer vorgegebenen Kraftgeste-Passcode-Sequenz entsprechen, wenn eine Anzahl der Eingabewerte in dem Eingabepuffer mit einer Anzahl der Eingabewerte in der vorgegebenen Kraftgeste-Passcode-Sequenz übereinstimmt. In einigen Beispielen weist das Verfahren auf ein Hinzufügen eines Eingabewerts, der mit nicht-identifizierten Kraftgesten assoziiert ist, zu dem Eingabepuffer für jede erfasste nicht-identifizierte Kraftgeste. In einigen Beispielen ist der Eingabewert, der mit nicht-identifizierten Kraftgesten assoziiert ist, ein eindeutiger Eingabewert, der mit allen nicht-identifizierten Kraftgesten assoziiert ist.
- In Übereinstimmung mit einem weiteren beispielhaften Ausführungsbeispiel ist eine tragbare elektronische Vorrichtung vorgesehen, die aufweist: ein im Wesentlichen starres Gehäuse, das einen Prozessor, einen mit dem Prozessor gekoppelten Sensor enthält, wobei der Sensor eine Verformung der tragbaren elektronischen Vorrichtung erfasst; wobei der Prozessor konfiguriert ist zur Durchführung des/der hier dargelegten Verfahren(s).
- In einigen Beispielen weist die tragbare elektronische Vorrichtung weiter auf: ein flexibles Skin, das das Gehäuse umgibt, wobei das flexible Skin einen Magnet trägt; wobei der Sensor einen Magnetsensor aufweist, der mit dem Prozessor gekoppelt ist, der ein magnetisches Feld überwacht, das von dem Magnet in dem flexible Skin erzeugt wird. In einigen Beispielen ist das flexible Skin elastisch zusammendrückbar, so dass es lokal aus einem neutralen Zustand in einen betätigten Zustand zusammengedrückt wird in Reaktion auf eine Druckkraft, und aus dem betätigten Zustand in den neutralen Zustand zurückkehrt, wenn die Druckkraft entfernt wird, wobei der Magnet in dem flexiblen Skin eingebettet ist, um sich in Reaktion auf Änderungen zwischen dem neutralen Zustand und dem betätigten Zustand zu bewegen.
- In anderen Beispielen weist der Sensor eine erste Erfassungsschicht bzw. Sensorschicht auf, die sich in dem Gehäuse entlang einer ersten Seite davon erstreckt, wobei die erste Erfassungsschicht eine Druck-Erfassungsschicht umfasst, die eine Druckeingabe an den Prozessor liefert. In einigen Beispielen umfasst die erste Erfassungsschicht weiter eine Positions-Erfassungsschicht, die sich in Längsrichtung entlang der ersten Seite erstreckt, die eine Positionseingabe an den Prozessor liefert. Die Positionseingabe identifiziert eine Position eines Teils der ersten Erfassungsschicht, in Eingriff durch direkten oder indirekten Kontakt. Der Positionssensor kann sich zwischen der ersten Seite und der Druck-Erfassungsschicht befinden. Die Druck-Erfassungsschicht kann einen Punktdrucksensor und einen länglichen Druckverteilungsstreifen aufweisen, der zwischen dem Punktdrucksensor und der ersten Seite angeordnet ist.
- In Übereinstimmung mit einem weiteren Ausführungsbeispiel der vorliegenden Offenbarung ist ein Computerprogrammprodukt vorgesehen, das ein computerlesbares Medium mit darauf gespeicherten Computerprogrammanweisungen zum Implementieren eines Verfahrens auf einer elektronischen Vorrichtung aufweist, wobei die computerausführbaren Anweisungen Anweisungen aufweisen zur Durchführung des/der hier dargelegten Verfahren(s).
- Es wird Bezug genommen auf
1 , die in Form eines Blockdiagramms eine tragbare elektronische Vorrichtung100 zeigt, auf die beispielhafte Ausführungsbeispiele angewendet werden können, die in der vorliegenden Offenbarung beschrieben werden. Die tragbare elektronische Vorrichtung100 umfasst mehrere Komponenten, wie einen Prozessor102 , der den Gesamtbetrieb der tragbaren elektronischen Vorrichtung100 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikationen, werden durch ein Kommunikationsteilsystem104 durchgeführt. Daten, die von der tragbaren elektronischen Vorrichtung100 empfangen werden, werden durch einen Decodierer106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem104 empfängt Nachrichten von einem drahtlosen Netzwerk150 und sendet Nachrichten an ein drahtloses Netzwerk150 . Das drahtlose Netzwerk150 kann jeder Typ eines drahtlosen Netzwerks sein, einschließlich, aber nicht darauf beschränkt, drahtlose Datennetzwerke, drahtlose Sprachnetzwerke, und Netzwerke, die sowohl Sprach- als auch Datenkommunikationen unterstützen. Eine Stromquelle142 , wie eine oder mehrere wiederaufladbare Batterien oder ein Anschluss an eine externe Stromversorgung, versorgt die tragbare elektronische Vorrichtung100 mit Strom. - Der Prozessor
102 interagiert mit anderen Komponenten, wie RAM (Random Access Memory)108 , einem Speicher110 , einer Anzeige112 mit einer berührungsempfindlichen Überlagerung114 , die betriebsfähig mit einer elektronischen Steuervorrichtung116 verbunden ist, die zusammen eine berührungsempfindliche Anzeige118 , ein Gestenerfassungs-Teilsystem122 , ein Hilfs-Eingabe/Ausgabe(I/O – Input/Output)-Teilsystem124 , einen Datenanschluss126 , einen Lautsprecher128 , ein Mikrophon130 , Nahbereichskommunikationen132 , andere Vorrichtungsteilsysteme134 und einen Akzelerometer bzw. Beschleunigungsmesser136 aufweisen. - Eine Benutzerinteraktion mit einer grafischen Benutzerschnittstelle (GUI – graphical user interface) wird über die berührungsempfindliche Überlagerung
114 durchgeführt. Der Prozessor102 interagiert mit der berührungsempfindlichen Überlagerung114 über die elektronische Steuervorrichtung116 . Information, wie Text, Zeichen, Symbole, Bilder, Icons und andere Elemente, die auf einer tragbaren elektronischen Vorrichtung angezeigt oder dargestellt werden können, wird auf der berührungsempfindlichen Anzeige118 über den Prozessor102 angezeigt. Der Prozessor102 kann mit einem Orientierungssensor interagieren, wie dem Beschleunigungsmesser136 , um eine Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen, um zum Beispiel die Ausrichtung bzw. Orientierung der tragbaren elektronischen Vorrichtung100 zu bestimmen. - Zur Identifizierung eines Teilnehmers für einen Netzwerkzugriff verwendet die tragbare elektronische Vorrichtung
100 eine SIM(Subscriber Identity Module)- oder eine RUIM(Removable User Identity Module)-Karte138 zur Kommunikation mit einem Netzwerk, wie dem drahtlosen Netzwerk150 . Alternativ kann eine Benutzeridentifikationsinformation in den Speicher110 programmiert werden. - Die tragbare elektronische Vorrichtung
100 umfasst ein Betriebssystem146 und Softwareanwendungen148 , die von dem Prozessor102 ausgeführt werden und typischerweise in einem persistenten, aktualisierbaren Speicher gespeichert sind, wie dem Speicher110 . Zusätzliche Anwendungen148 können auf die tragbare elektronische Vorrichtung100 über das drahtlose Netzwerk150 , das Hilfs-E/A-Teilsystem124 , den Datenanschluss126 , das Nahbereichs-Kommunikationsteilsystem132 oder jedes andere geeignete Teilsystem134 geladen werden. - Die Anwendungen
148 umfassen einen Gesten-Interpretierer160 zum Erkennen von Kraftgesten, einen Befehls-Interpretierer162 zum Bestimmen einer Aktion, die mit einer Kraftgeste assoziiert ist, und ein Sicherheitsmodul164 . Der Gesten-Interpretierer160 und der Befehls-Interpretierer162 können getrennte Komponenten sein oder können kombiniert sein. Das Sicherheitsmodul164 Liefert Sicherheitsdienste für die tragbare elektronische Vorrichtung100 , einschließlich Sperren- und Entsperren-Prozesse, die in der Technik bekannt sind. Das Sicherheitsmodul164 überwacht hinsichtlich Auslösebedingungen und erfasst diese zum Initiieren eines sicheren Modus auf der tragbaren elektronischen Vorrichtung100 , wenn diese nicht in einem sicheren Modus ist, und überwacht hinsichtlich einer vorgesehenen Eingabe und erfasst diese zum Beenden des sicheren Modus, wenn sie in einem sicheren Modus ist. Das Sicherheitsmodul164 kann eine getrennte Anwendung sein oder kann ein Teil des Betriebssystems146 sein. Die Anwendungen148 können auch einen Web-Browser, eine Karten- oder Navigationsanwendung, einen Media-Player, einen Kalender, einen Dokumentenbetrachter, Spiele oder jede Kombination daraus umfassen. Die Spiele können zum Beispiel einen Fahrzeugsimulator, wie einen Fahrsimulator (oder Videospiel), oder einen Flug-Simulator (oder Videospiel) umfassen. - Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite, wird von dem Kommunikationsteilsystem
104 verarbeitet und in den Prozessor102 eingegeben. Der Prozessor102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige112 und/oder das Hilfs-E/A-Teilsystem124 . Ein Teilnehmer kann Datenelemente erzeugen, zum Beispiel Email-Nachrichten, die über das drahtlose Netzwerk150 durch das Kommunikationsteilsystem104 übertragen werden können, zum Beispiel. - Die berührungsempfindliche Anzeige
118 kann jede geeignete berührungsempfindliche Anzeige sein, wie eine kapazitive, resistive, Infrarot, berührungsempfindliche SAW(surface acoustic wave)-Anzeige, Dehnungsmesser, optische Abbildung, dispersive Signaltechnologie, Akustikimpulserkennung, und so weiter, wie in der Technik bekannt ist. In dem hier beschriebenen beispielhaften Ausführungsbeispiel ist die berührungsempfindliche Anzeige118 eine kapazitive berührungsempfindliche Anzeige, die eine kapazitive berührungsempfindliche Überlagerung114 umfasst. Die Überlagerung114 kann eine Baugruppe aus mehreren Schichten in einem Stapel sein, einschließlich zum Beispiel ein Substrat, eine Erdungsabschirmungsschicht, eine Sperrschicht, eine oder mehrere kapazitive Berührungssensorschichten, die durch ein Substrat oder eine andere Barriere getrennt sind, und eine Abdeckung. Die kapazitiven Berührungssensorschichten können aus jedem geeigneten Material sein, wie gemustertes Indium-Zinn-Oxid (ITO – indium tin oxide). - Die Anzeige
112 der berührungsempfindlichen Anzeige118 umfasst einen Anzeigebereich, in dem Information angezeigt werden kann, und einen Nicht-Anzeigebereich, der sich um den Umfang des Anzeigebereichs erstreckt. Information wird in dem Nicht-Anzeigebereich nicht angezeigt, der verwendet wird, um zum Beispiel elektronische Spuren oder elektrische Verbindungen, Klebstoffe oder andere Dichtmittel, und/oder Schutzschichten um die Ränder des Anzeigebereichs aufzunehmen. - Eine oder mehrere Berührung(en), die auch als Berührungseingaben, Berührungskontakte oder Berührungsereignisse bekannt sind, kann/können durch die berührungsempfindliche Anzeige
118 erfasst werden. Der Prozessor102 kann Attribute der Berührung bestimmen, einschließlich einer Position einer Berührung. Berührungspositionsdaten können einen Kontaktbereich oder einen einzelnen Kontaktpunkt umfassen, wie ein Punkt an oder nahe der Mitte des Kontaktbereichs, bekannt als Zentroid. Ein Signal wird an die Steuervorrichtung116 geliefert in Reaktion auf die Erfassung einer Berührung. Eine Berührung kann von jedem geeigneten Objekt erfasst werden, wie einem Finger, Daumen, Gliedmaß, oder anderen Elementen, zum Beispiel einem Stylus, Stift oder anderem Zeiger, abhängig von dem Typ der berührungsempfindlichen Anzeige118 . Die Position der Berührung bewegt sich, wenn sich das erfasste Objekt während einer Berührung bewegt. Die Steuervorrichtung116 und/oder der Prozessor102 können eine Berührung durch jedes geeignete Kontaktelement auf der berührungsempfindlichen Anzeige118 erfassen. Ähnlich werden mehrere gleichzeitige Berührungen erfasst. - Die berührungsempfindliche Überlagerung
114 ist konfiguriert, eine oder mehrere Berührungsgesten zu erfassen. Alternativ kann der Prozessor102 konfiguriert sein, eine oder mehrere Berührungsgesten in Übereinstimmung mit Berührungsdaten zu erfassen, die von der berührungsempfindlichen Überlagerung114 vorgesehen sind. Eine Berührungsgeste ist ein bestimmter Typ einer Berührung auf einer berührungsempfindlichen Anzeige118 , die an einem Ursprungspunkt beginnt und bis zu einem Endpunkt geht. Eine Berührungsgeste kann durch Attribute der Berührungsgeste identifiziert werden, einschließlich zum Beispiel dem Ursprungspunkt, dem Endpunkt, der zurückgelegten Entfernung, der Dauer, der Geschwindigkeit und der Richtung. Eine Berührungsgeste kann lang oder kurz in der Entfernung und/oder der Dauer sein. Zwei Punkte der Berührungsgeste können verwendet werden, um eine Richtung der Berührungsgeste zu bestimmen. - Ein Beispiel für eine Berührungsgeste ist ein „Swipe” (auch als „Flick” bekannt). Ein Swipe bzw. ein „Streichen bzw. Wischen” hat eine einzige Richtung. Die berührungsempfindliche Überlagerung
114 kann Swipes in Bezug auf den Ursprungspunkt evaluieren, an dem zuerst ein Kontakt mit der berührungsempfindlichen Überlagerung114 gemacht wird, und den Endpunkt, an dem der Kontakt mit der berührungsempfindlichen Überlagerung114 endet, anstatt jede einer Kontaktposition, oder Kontaktpunkt, über die Dauer der Berührungsgeste zu verwenden, um eine Richtung zu erkennen. - Beispiele für Swipes umfassen einen horizontalen Swipe, einen vertikalen Swipe und einen diagonalen Swipe. Ein horizontaler Swipe weist typischerweise auf einen Ursprungspunkt in der Nähe der linken oder rechten Seite der berührungsempfindlichen Überlagerung
114 , um die Berührungsgeste zu initialisieren, eine horizontale Bewegung des erfassten Objekts von dem Ursprungspunkt zu einem Endpunkt in der Nähe der rechten oder linken Seite der berührungsempfindlichen Überlagerung114 unter Beibehaltung eines kontinuierlichen Kontakts mit der berührungsempfindlichen Überlagerung114 , und ein Abbrechen des Kontakts mit der berührungsempfindlichen Überlagerung114 . Ähnlich weist ein vertikaler Swipe typischerweise auf einen Ursprungspunkt in der Nähe von oben oder unten der berührungsempfindlichen Überlagerung114 , um die Berührungsgeste zu initialisieren, eine horizontale Bewegung des erfassten Objekts von dem Ursprungspunkt zu einem Endpunkt in der Nähe von unten oder oben der berührungsempfindlichen Überlagerung114 unter Beibehaltung eines kontinuierlichen Kontakts mit der berührungsempfindlichen Überlagerung114 , und ein Abbrechen des Kontakts mit der berührungsempfindlichen Überlagerung114 . - Swipes können verschiedene Längen haben, können an verschiedenen Stellen auf der berührungsempfindlichen Überlagerung
114 initiiert werden, und müssen sich nicht über die volle Dimension der berührungsempfindlichen Überlagerung114 erstrecken. Zusätzlich kann ein Abbrechen des Kontakts eines Swipes bzw. Wischens allmählich sein, indem der Kontakt mit der berührungsempfindlichen Überlagerung114 allmählich reduziert wird, während das Wischen noch in Gange ist. - Meta-Navigations-Berührungsgesten können ebenfalls von der berührungsempfindlichen Anzeige
118 erfasst werden. Eine Meta-Navigations-Berührungsgeste ist eine Berührungsgeste, die einen Ursprungspunkt hat, der sich außerhalb des Anzeigebereichs der berührungsempfindlichen Anzeige118 befindet und der sich an eine Position auf dem Anzeigebereich der berührungsempfindlichen Anzeige118 bewegt. Andere Attribute der Berührungsgeste können erfasst und verwendet werden, um die Meta-Navigations-Berührungsgeste zu erfassen. Meta-Navigations-Berührungsgesten können auch Mehrfachberührungs-Berührungsgesten umfassen, bei denen Berührungsgesten gleichzeitig sind oder sich zeitlich überlappen, und wobei zumindest eine der Berührungen einen Ursprungspunkt hat, der außerhalb des Anzeigebereichs ist, und sich an eine Position auf dem Anzeigebereich der berührungsempfindlichen Anzeige118 bewegt. Somit können zwei Finger für Meta-Navigations-Berührungsgesten benutzt werden. Ferner können Mehrfachberührungs-Meta-Navigations-Berührungsgesten von Einzelberührungs-Meta-Navigations-Berührungsgesten unterschieden werden und können zusätzliche oder weitere Funktionalität bieten. - Der Beschleunigungsmesser bzw. Akzelerometer
136 ist mit dem Prozessor102 gekoppelt und wird durch eine oder eine Kombination aus einer Überwachungsschaltung (nicht gezeigt) und einer Betriebssoftware gesteuert. Der Beschleunigungsmesser136 hat ein Erfassungselement, das eine Beschleunigung aus Bewegung und/oder Gravität erfasst. Der Beschleunigungsmesser136 erzeugt ein elektrisches Signal, das für die erfasste Beschleunigung repräsentativ ist, und gibt dieses aus. Änderungen bei der Orientierung und Bewegung der tragbaren elektronischen Vorrichtung100 führen zu Änderungen bei der Beschleunigung, die entsprechende Änderungen bei der elektrischen Signalausgabe des Beschleunigungsmessers136 erzeugen. Der Beschleunigungsmesser136 kann ein Drei-Achsen-Beschleunigungsmesser mit drei zueinander orthogonalen Erfassungsachsen sein. Die tragbare elektronische Vorrichtung100 kann in anderen Ausführungsbeispielen andere Typen von Bewegungssensoren zusätzlich zu oder anstelle des Beschleunigungsmessers136 haben. Die anderen Bewegungssensoren können zum Beispiel einen Nähesensor und/oder ein Gyroskop aufweisen, die jeweils die Nähe und Orientierung der tragbaren elektronischen Vorrichtung100 erfassen. - Änderungen bei der Beschleunigung, Nähe und Orientierung können durch die tragbare elektronische Vorrichtung
100 als Bewegung der tragbaren elektronischen Vorrichtung100 interpretiert werden. Wenn die Änderungen bei Beschleunigung, Nähe und Orientierung innerhalb von Schwellen-Toleranz(en) von Regelmäßigkeit oder Vorhersagbarkeit liegen, wenn die Änderungen bei Beschleunigung, Nähe und Orientierung mit vorgegebenen Bewegungskriterien übereinstimmen (zum Beispiel gespeichert in dem Speicher110 ), können die Änderungen durch die tragbare elektronische Vorrichtung100 als ein Bewegungsmuster interpretiert werden. Mehrere Bewegungsmuster können durch die tragbare elektronische Vorrichtung100 erkannt werden. Durch Konfigurieren des Prozessors102 zum Erkennen von bestimmten Bewegungsmustern in dem Beschleunigungssignal von dem Beschleunigungsmesser136 , kann der Prozessor102 bestimmen, ob die tragbare elektronische Vorrichtung100 in einer vorgegebenen Bewegungssequenz bewegt wurde, hier als Bewegungsgesten bezeichnet. Durch den Benutzer durchgeführte Bewegungsgesten können eine Beschleunigung in einer oder mehreren Erfassungsachsen und in eine oder mehrere Richtungen verursachen. - Wie ebenfalls für Fachleute offensichtlich ist, können Beschleunigungsmesser digitale oder analoge Ausgabesignale erzeugen. Im Allgemeinen sind zwei Typen von Ausgaben verfügbar, abhängig davon, ob ein analoger oder ein digitaler Beschleunigungsmesser verwendet wird: (1) eine analoge Ausgabe, die eine Pufferung und eine Analog Digital-(A/D – analog-to-digital)-Umwandlung erfordert; und (2) eine digitale Ausgabe, die typischerweise verfügbar ist in einer Industrie-Standard-Schnittstelle, wie eine SPI (Serial Peripheral Interface) oder eine I2C(Inter-Integrated Circuit)-Schnittstelle. Wenn der Beschleunigungsmesser analog ist, umfasst der Speicher
110 maschinenlesbare Anweisungen zum Berechnen einer Beschleunigung basierend auf elektrischer Ausgabe, die von dem Beschleunigungsmesser136 eingegeben wird. Der Prozessor102 führt die maschinenlesbaren Anweisungen aus, um eine Beschleunigung zu berechnen, die durch das Betriebssystem146 und/oder Anwendungen148 verwendet werden kann. - Die Ausgabe des Beschleunigungsmessers
136 wird typischerweise in Bezug auf die Gravitationsbeschleunigungskonstante auf der Erdoberfläche gemessen, als g bezeichnet, die ungefähr 9,81 m/s2 (32,2 ft/s2) als Standarddurchschnitt beträgt, oder in Bezug auf Einheiten Gal (cm/s2). Der Beschleunigungsmesser136 kann fast jeder Typ sein, einschließlich, aber nicht darauf beschränkt, ein kapazitiver, piezoelektrischer, piezoresistiver, oder Gas-basierter Beschleunigungsmesser. Der Bereich von Beschleunigungsmessern variiert bis zu Tausenden von g, jedoch können für tragbare elektronische Vorrichtungen Beschleunigungsmesser für „niedriges g” verwendet werden. Beispielhafte Beschleunigungsmesser für niedriges g, die verwendet werden können, sind MEMS-Digital-Beschleunigungsmesser von Analog Devices, Inc. (ADI), Freescale Semiconductor, Inc. (Freescale) und STMicroelectronics N. V. aus Genf, Schweiz. Beispielhafte Niedrig-g-MEMS-Beschleunigungsmesser sind Modell LIS331DL, LIS3021DL und LIS3344AL Beschleunigungsmesser von STMicroelectronics N. V. - Die tragbare elektronische Vorrichtung
100 kann auch eine Navigationsvorrichtung umfassen (nicht gezeigt), wie einen drückbaren (oder anklickbaren) Joystick (zum Beispiel ein drückbarer optischer Joystick), ein drückbarer Trackball, ein drückbares Scrollrad oder ein drückbares berührungsempfindliches Trackpad oder Touchpad. Die tragbare elektronische Vorrichtung100 kann auch ein Tastenfeld oder eine Tastatur (nicht gezeigt) zusätzlich zu der berührungsempfindlichen Anzeige118 umfassen. Die tragbare elektronische Vorrichtung100 kann auch einen oder mehrere Knöpfe umfassen (nicht gezeigt). Die Navigationsvorrichtung, Tastenfeld oder Tastatur und Knöpfe können Teil der Hilfs-E/A-Teilsysteme124 sein. In Ausführungsbeispielen, die keine Berührungseingaben verwenden, kann die berührungsempfindliche Anzeige118 mit einer herkömmlichen Anzeige ersetzt werden, wie eine LCD- oder LED-Anzeige. -
2 zeigt eine Vorderansicht eines Beispiels einer tragbaren elektronischen Vorrichtung, die geeignet ist zur Ausführung der beispielhaften Ausführungsbeispiele der vorliegenden Offenbarung. In dem gezeigten Beispiel ist die tragbare elektronische Vorrichtung100 eine Tablet-Computervorrichtung, kann aber in anderen Ausführungsbeispielen ein anderer Typ einer tragbaren elektronischen Vorrichtung sein. Die tragbare elektronische Vorrichtung100 umfasst ein im Wesentlichen starres und nicht zusammendrückbares Gehäuse202 , das Komponenten umschließt, wie in1 gezeigt. Das Gehäuse202 kann aus geeignetem Kunststoff oder einem anderen geeigneten Material gebildet sein, das im Wesentlichen starr und nicht zusammendrückbar ist. - In dem gezeigten Beispiel ist das Gehäuse
202 länglich mit einer größeren Länge als Breite. Das Gehäuse202 ist konfiguriert, von einem Benutzer mit einer Hand oder zwei Händen im Hochformat (portrait orientation) gehalten zu werden, während die tragbare elektronische Vorrichtung100 in Betrieb ist, oder mit zwei Händen im Querformat (landscape orientation), während die tragbare elektronische Vorrichtung100 in Betrieb ist. Das Gehäuse202 hat eine Vorderseite204 , die die berührungsempfindliche Anzeige118 einrahmt. Das Gehäuse202 hat eine Rückseite205 (gezeigt in3B ), die der Vorderseite204 gegenüberliegt. In dem gezeigten Ausführungsbeispiel definiert die Vorderseite204 eine Ebene, die im Wesentlichen parallel zu einer Ebene ist, die durch die Rückseite205 definiert wird. Das Gehäuse202 hat vier Seiten222 ,224 ,226 ,228 , die die Rückseite205 und die Vorderseite204 verbinden. Die Seiten umfassen gegenüberliegende obere und untere Seiten, die durch die Bezugszeichen222 beziehungsweise224 bezeichnet werden, und linke und rechte Seiten, die sich quer zu den oberen und unteren Seiten222 ,224 erstrecken, bezeichnet durch die Bezugszeichen226 beziehungsweise228 . In dem gezeigten Ausführungsbeispiel ist das Gehäuse202 im Wesentlichen als ein rechteckiges Prisma ausgebildet, gebildet durch die Vorderseite204 , die Rückseite205 und die Seiten222 ,224 ,226 ,228 . Die oberen, unteren, linken und rechten Seiten sind relativ zu der Position, in der die Vorrichtung100 gehalten wird, während die Vorderseite und die Rückseite nicht relativ zu der Position sind, in der die Vorrichtung100 gehalten wird. - In dem Beispiel von
2 ist die berührungsempfindliche Anzeige118 im Allgemeinen in dem Gehäuse202 zentriert derart, dass der Anzeigebereich206 der Anzeige112 im Allgemeinen in Bezug auf die Vorderseite204 des Gehäuses202 zentriert ist. Der Nicht-Anzeigebereich208 der berührungsempfindlichen Überlagerung114 erstreckt sich um den Anzeigebereich206 herum. In dem hier beschriebenen Ausführungsbeispiel ist die Breite des Nicht-Anzeigebereichs 4 mm. - Für den Zwecke des vorliegenden Beispiels erstreckt sich die berührungsempfindliche Überlagerung
114 , um den Anzeigebereich206 und den Nicht-Anzeigebereich208 abzudecken. Berührungen auf dem Anzeigebereich206 können erfasst werden und können zum Beispiel mit angezeigten auswählbaren Merkmalen assoziiert werden. Berührungen auf dem Nicht-Anzeigebereich208 können erfasst werden, um zum Beispiel eine Meta-Navigations-Berührungsgeste zu erfassen. Alternativ können Meta-Navigations-Berührungsgesten von sowohl dem Nicht-Anzeigebereich208 als auch dem Anzeigebereich206 bestimmt werden. Die Dichte von Berührungssensoren kann sich von dem Anzeigebereich206 zu dem Nicht-Anzeigebereich208 unterscheiden. Zum Beispiel kann sich die Dichte von Knoten in einer gemeinsamen kapazitiven berührungsempfindlichen Anzeige oder die Dichte von Positionen, an denen Elektroden einer Schicht über Elektroden einer anderen Schicht kreuzen, zwischen dem Anzeigebereich206 und dem Nicht-Anzeigebereich208 unterscheiden. - Berührungsgesten, die auf der berührungsempfindlichen Anzeige
118 empfangen werden, können basierend auf den Attributen analysiert werden, um zwischen Meta-Navigations-Berührungsgesten und anderen Berührungen oder nicht-Meta-Navigations-Berührungsgesten zu unterscheiden. Meta-Navigations-Berührungsgesten können identifiziert werden, wenn die Berührungsgeste über eine Grenze in der Nähe eines Randbereichs des Anzeigebereichs112 geht, wie eine Grenze210 zwischen dem Anzeigebereich206 und dem Nicht-Anzeigebereich208 . In dem Beispiel von2 kann der Ursprungspunkt einer Meta-Navigations-Berührungsgeste auf der berührungsempfindlichen Anzeige118 bestimmt werden unter Verwendung des Bereichs der berührungsempfindlichen Überlagerung114 , die den Nicht-Anzeigebereich208 abdeckt. - Ein Pufferbereich
212 oder Band, der/das sich um die Grenze210 zwischen dem Anzeigebereich206 und dem Nicht-Anzeigebereich208 erstreckt, kann verwendet werden derart, dass eine Meta-Navigations-Berührungsgeste identifiziert wird, wenn eine Berührung einen Ursprungspunkt außerhalb der Grenze210 und des Pufferbereichs212 hat und durch den Pufferbereich212 und über die Grenze210 zu einem Punkt innerhalb der Grenze210 geht (d. h. in dem Anzeigebereich206 ). Obwohl in2 dargestellt, muss der Pufferbereich212 nicht sichtbar sein. Stattdessen kann der Pufferbereich212 ein Bereich um die Grenze210 sein, der eine Breite hat, die zum Beispiel gleich einer vorgegebenen Anzahl von Pixeln ist. Alternativ kann sich die Grenze210 über eine vorgegebene Anzahl von Berührungssensoren erstrecken oder sich über einen vorgegebenen Abstand von dem Anzeigebereich206 erstrecken. Die Grenze210 kann ein berührungsempfindlicher Bereich sein oder kann ein Bereich sein, in dem keine Berührungen erfasst werden. - Berührungsgesten, die einen Ursprungspunkt zum Beispiel in dem Pufferbereich
212 haben, können als nicht-Meta-Navigations-Berührungsgesten identifiziert werden. Optional können Daten von derartigen Berührungsgesten durch eine Anwendung als eine nicht-Meta-Navigations-Berührungsgeste verwendet werden. Alternativ können Daten von solchen Berührungsgesten verworfen werden derart, dass Berührungen, die einen Ursprungspunkt auf dem Pufferbereich212 haben, nicht als Eingabe an der tragbaren elektronischen Vorrichtung100 verwendet werden. - Unter Bezugnahme auf
3 wird das Gestenerfassungs-Teilsystem122 detaillierter beschrieben. Das Gestenerfassungs-Teilsystem122 umfasst einen Sensorabschnitt302 mit einer Anzahl von Sensoren301 , einen Daten-Akquisitions-Abschnitt304 und eine Steuervorrichtung306 . Der Sensorabschnitt302 kann einen oder eine Kombination aus Kraftsensoren, Biegesensoren, Drucksensoren, Rotationssensoren, magnetische Sensoren oder andere geeignete Sensoren umfassen, die eine Verformung der tragbaren elektronischen Vorrichtung100 erfassen können, wie eine Verformung des Gehäuses202 . Eine Verformung ist eine physikalische Deformation, die durch eine physikalische Interaktion mit der tragbaren elektronischen Vorrichtung100 verursacht wird, die durch Gesten veranlasst wird, die von einem Benutzer der tragbaren elektronischen Vorrichtung100 durchgeführt werden. Die physikalische Deformation veranlasst eine Änderung des physikalischen Zustands der tragbaren elektronischen Vorrichtung100 von einem vorherexistierenden Zustand, wie ein neutraler Zustand, in einen neuen und anderen Zustand. Die Änderung ist typischerweise nur vorübergehend. Die physikalische Deformation kann vollständig reversibel, nicht vollständig reversibel (d. h. teilweise reversibel) oder vollständig irreversibel sein. Vollständig reversible Deformationen sind bevorzugt, da solche Deformationen die tragbare elektronische Vorrichtung100 nicht beschädigen. Die Verformung wird typischerweise durch Mikro-Deflexionen in dem Gehäuse202 oder möglicherweise anderen Komponenten der tragbaren elektronischen Vorrichtung100 verursacht, die für den Benutzer nicht sichtbar sind. Die Sensoren des Sensorabschnitts302 sind Vorrichtungen, die eine physikalische Deformation erfassen, die von den Gesten des Benutzers verursacht wird, und derartige physikalische Deformationen als Sensordaten erfassen. - Die Kraftsensoren können ein kraftempfindlicher Resistor, ein Dehnungsmesser, eine piezoelektrische oder piezoresistive Vorrichtung oder eine andere geeignete Vorrichtung sein. Kraft, wie in der Spezifikation verwendet, bezieht sich auf Messungen, Schätzungen und/oder Berechnungen von Kraft, wie Druck, Deformation, Belastung, Dehnung, Kraftdichte, Kraft-Bereichs-Beziehungen, Schub, Drehkraft und andere Effekte, die Kraft oder verwandte Quantitäten umfassen.
- Eine Kalibrierungsroutine kann für die Sensoren
301 vorgesehen werden, um den Nullpunkt anzupassen (zum Beispiel wenn keine Kraft angewendet wird), wenn dieser im Laufe der Zeit abweicht. Wenn zum Beispiel die Sensoren301 eine relativ konsistente und kontinuierliche Drehkraft erfassen, kann die tragbare elektronische Vorrichtung100 auf einer flachen Oberfläche platziert werden. Die Ebenheit der Oberfläche kann mit dem Beschleunigungsmesser136 überprüft werden. Ein Wert der Sensoren301 kann in dieser Position auf den Nullpunkt kalibriert werden. - Die Sensoren in dem Sensorabschnitt
302 können analoge oder digitale Sensoren oder eine Kombination daraus sein. Der Daten-Akquisitions-Abschnitt304 akquiriert Sensordaten von dem Sensorabschnitt302 , digitalisiert analoge Sensordaten, die von dem Sensorabschnitt302 akquiriert werden, wenn erforderlich, und liefert digitale Sensordaten an die Steuervorrichtung306 . - Die Steuervorrichtung
306 kann konfiguriert sein, zumindest einige der Funktionen durchzuführen, die im Folgenden unter Bezugnahme auf den Gesten-Interpretierer160 , den Befehls-Interpretierer162 oder beide diskutiert werden. Die Steuervorrichtung306 kann eine getrennte Steuervorrichtung sein oder kann der Hauptprozessor102 sein. Zum Beispiel kann der Prozessor102 ein Universal-Mikroprozessor sein, der verwendet wird zum Steuern der Gesamtvorrichtungsoperationen, während die Steuervorrichtung306 ein aufgabenspezifischer Mikroprozessor sein kann, der verwendet wird zum Durchführen von Funktionen, die Funktion(en) des Gesten-Interpretierers160 und/oder des Befehls-Interpretierers162 betreffen. Die Steuervorrichtung306 kann konfiguriert sein, eine oder alle der Prozessorfunktionen durchzuführen, die das Gestenerfassungs-Teilsystem122 betreffen, und die Funktionen des Gesten-Interpretierers160 und/oder Befehls-Interpretierers162 . Wenn eine getrennte Steuervorrichtung306 vorgesehen ist, können die Funktionen des Gesten-Interpretierers160 und/oder des Befehls-Interpretierers162 zwischen der Steuervorrichtung306 und dem Prozessor102 aufgeteilt werden. - Unter Bezugnahme auf
4A und4B wird die Position von Sensoren301 des Sensorabschnitts302 in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel beschrieben. Die Sensoren301 , einzeln angezeigt als301a ,301b ,301c ,301d ,301e und301f , sind an geeigneten Positionen zwischen der Vorderseite204 , der Rückseite205 und den Seiten222 ,224 ,226 ,228 und internen Komponente(n) der tragbaren elektronische Vorrichtung100 angeordnet, wie einem Rahmen230 , der eine Unterstützung für Vorrichtungskomponenten vorsieht, um Kräfte zu erfassen, die auf das Gehäuse202 ausgeübt werden. Sechs Sensoren301 , in drei Paaren angeordnet, sind in dem Ausführungsbeispiel vorgesehen, das in den4A und4B gezeigt wird. Ein erstes Paar von Sensoren301a ,301b wird verwendet, um Kräfte zu erfassen, die auf die obere Seite222 und die untere Seite224 des Gehäuses202 angewendet werden. Ein zweites Paar von Sensoren301c ,301d wird verwendet, um Kräfte zu erfassen, die auf die linke Seite226 und die rechte Seite228 des Gehäuses202 angewendet werden. Ein drittes Paar von Sensoren301e ,301f wird verwendet, um Kräfte zu erfassen, die auf die Vorderseite204 und Rückseite205 des Gehäuses202 angewendet werden. - Das erste Sensorpaar
301a ,301b und das dritte Sensorpaar301e ,301f kann verwendet werden, um Kraftgesten zu erfassen, die auf das Gehäuse202 angewendet werden, wenn es von einem Benutzer mit zwei Händen im Hochformat gehalten wird, während das zweite Sensorpaar301c ,301d und das dritte Sensorpaar301e ,301f verwendet werden kann, um Kraftgesten zu erfassen, die auf das Gehäuse202 angewendet werden, wenn es von einem Benutzer mit zwei Händen im Querformat gehalten wird. - Eine andere Anzahl und/oder Anordnung von Sensoren
301 kann in anderen Ausführungsbeispiele vorgesehen sein. Zum Beispiel können weniger Sensorpaare in anderen Ausführungsbeispielen vorgesehen sein, oder die Sensoren301 müssen nicht als Sensorpaare konfiguriert sein. Eine geringere Anzahl von Sensoren301 , d. h. weniger als sechs, kann in anderen Ausführungsbeispielen vorgesehen sein. - Unter Bezugnahme nun auf
5 wird eine beispielhafte Drucksensoranordnung500 für die tragbare elektronische Vorrichtung beschrieben. Die Drucksensoranordnung500 umfasst eine erste Erfassungsschicht530 , die sich in dem Gehäuse202 entlang einer ersten Seite der tragbaren elektronischen Vorrichtung100 befindet, und eine zweite Erfassungsschicht540 , die sich in dem Gehäuse202 entlang einer zweiten Seite der tragbaren elektronischen Vorrichtung500 befindet, entgegengesetzt zu der ersten Seite. In dem gezeigten Ausführungsbeispiel befindet sich die erste Erfassungsschicht530 entlang der linken Seite226 des Gehäuses202 und die zweite Erfassungsschicht540 befindet sich entlang der rechten Seite228 des Gehäuses202 . - Jede der ersten und zweiten Erfassungsschichten
530 ,540 umfasst eine Positionserfassungsschicht534 und eine Druckerfassungsschicht536 . Die Positionserfassungsschicht534 kann in einigen Ausführungsbeispielen ein kapazitiver Sensor sein. Ein kapazitiver Sensor ist ein Sensor, der eine Position basierend auf kapazitiven Kopplungseffekten erfassen kann. In anderen Ausführungsbeispielen kann die Positionserfassungsschicht534 ein resistiver bzw. Widerstandssensor sein. Ein Widerstandssensor ist ein Sensor, der eine Position basierend auf Widerstandsprinzipien bestimmt. - Die Positionserfassungsschicht
534 erstreckt sich in Längsrichtung entlang der Innenseite des Gehäuses202 . Die Positionserfassungsschicht534 hat eine Erfassungsseite, die sich entlang zumindest eines Teils der Länge der Seite des Gehäuses202 erstreckt. Die Positionserfassungsschicht534 kann sich entlang der gesamten Länge der Seite des Gehäuses202 erstrecken. In anderen Ausführungsbeispielen kann sich die Positionserfassungsschicht534 nur entlang eines Teils der Seite des Gehäuses202 erstrecken. Zum Beispiel kann sich in einigen Ausführungsbeispielen die Positionserfassungsschicht534 entlang ungefähr der Hälfte oder ungefähr zwei Drittel der gesamten Seite erstrecken. - Die Positionserfassungsschichten
534 der ersten und zweiten Erfassungsschichten530 ,540 können Berührungen erfassen und eine Position bestimmen, an der eine Berührung auf der äußeren Oberfläche des Gehäuses202 gegenüber den Positionserfassungsschichten534 stattgefunden hat. Die Länge der Positionserfassungsschichten534 der ersten und zweiten Erfassungsschichten530 ,540 bestimmt im Allgemeinen einen Bereich an den linken und rechten Seiten des Gehäuses202 , auf dem Berührungen erfasst werden können. - Die Positionserfassungsschichten
534 der ersten und zweiten Erfassungsschichten530 ,540 sind mit der Steuervorrichtung306 gekoppelt und liefern Positionseingaben in der Form von Positionsdaten an die Steuervorrichtung306 . Jede Positionseingabe identifiziert eine Position einer Berührung entlang einer jeweiligen Seite des Gehäuses202 , d. h. die linke Seite226 oder die rechte Seite228 . - Die Druckerfassungsschichten
536 sind Drucksensoren, die Druck messen, der auf die linke und rechte Seite des Gehäuses202 gegenüber den Druckerfassungsschichten536 angewendet wird. Die Länge der Druckerfassungsschichten536 der ersten und zweiten Erfassungsschichten530 ,540 bestimmt im Allgemeinen einen Bereich an den linken und rechten Seiten des Gehäuses202 , auf dem Druck erfasst werden kann. Typischerweise haben die Positionserfassungsschichten534 und die Druckerfassungsschichten536 die gleiche Größe in dem in5 gezeigten Beispiel. In einigen Beispielen kann die Positionserfassungsschicht534 mit der Druckerfassungsschicht536 verbunden sein. - Die ersten und zweiten Erfassungsschichten
530 ,540 können eine Unterstützung538 umfassen, um einem Druck zu widerstehen, der durch den Benutzer während Kraftgesten angewendet wird. Die Unterstützung kann eine starre Wand sein, die als hinterer Anschlag für die Druckerfassungsschicht536 wirkt. Die Unterstützung538 kann durch interne Komponenten der tragbaren elektronischen Vorrichtung100 vorgesehen sein, wie dem Rahmen230 , der eine Unterstützung für Vorrichtungskomponenten vorsieht, wie die Druckerfassungsschicht536 . - Die Druckerfassungsschichten
536 der ersten und zweiten Erfassungsschichten530 ,540 sind mit der Steuervorrichtung306 gekoppelt und liefern Druckeingaben an die Steuervorrichtung306 . Druckeingaben können zum Beispiel verursacht werden durch Anwenden von Druck auf die linke oder die rechte Seite des Gehäuses202 . Der Druck veranlasst, dass die jeweilige Seite aus einem neutralen Zustand in einen betätigten Zustand verformt/deformiert wird. Eine Verformung des Gehäuses202 veranlasst, dass die jeweilige(n) Seite(n) aus der neutralen Position leicht gedehnt, zusammengedrückt, gebogen, verdreht und/oder gefaltet wird/werden. Das Gehäuse202 ist im Wesentlichen starr und nicht zusammendrückbar, somit ist der Umfang der Verformung relativ klein und visuell für den Benutzer nicht wahrnehmbar. Die Druckerfassungsschicht536 kann sehr nahe an der inneren Oberfläche der linken und rechten Seite des Gehäuses202 angeordnet sein, so dass der Umfang der Verformung, die die Druckerfassungsschicht536 erfasst, zu vernachlässigen ist. - In zumindest einigen Beispielen befinden sich die Positionserfassungsschichten
534 zwischen dem Gehäuse202 und den Druckerfassungsschichten536 , um bei einem Erfassen von Berührungen durch die Positionserfassungsschichten534 zu helfen. In einigen Beispielen befindet sich eine leitende Schicht532 zwischen der Seite des Gehäuses202 und der jeweiligen Positionserfassungsschicht534 . Die leitende Schicht532 besteht aus einem leitenden Material, das eine Berührungserfassung an der Positionserfassungsschicht534 vereinfacht. Die leitende Schicht532 kann zum Beispiel ein Silber-dotiertes Substrat sein. - Unter Bezugnahme nun auf
6 wird eine weitere beispielhafte Drucksensoranordnung600 für die tragbare elektronische Vorrichtung beschrieben. Die Drucksensoranordnung600 ist ähnlich zu der Drucksensoranordnung500 , außer dass die Drucksensoren Punktsensoren anstatt Streifensensoren sind. - Die ersten und zweiten Erfassungsschichten
530 ,540 der Drucksensoranordnung600 umfassen jeweils Punktdrucksensoren539 . Die Drucksensoren539 haben einen kleinen Erfassungsbereich relativ zu dem Erfassungsbereich der entsprechenden Streifensensoren, die in5 gezeigt werden. Der Erfassungsbereich der Punktdrucksensoren539 ist kleiner als der Erfassungsbereich der Positionserfassungsschicht. - Die ersten und zweiten Erfassungsschichten
530 ,540 der Drucksensoranordnung600 können Druckverteilungsstreifen537 umfassen, um den Erfassungsbereich zu erweitern, den Punktdrucksensoren539 konfiguriert sind zu erfassen. Die Druckverteilungsstreifen537 sind längliche Streifen, die zwischen den Punktdrucksensoren539 und der linken oder rechten Seite des Gehäuses202 angeordnet sind. Die Länge der Druckverteilungsstreifen537 kann der Länge der Positionserfassungsschichten534 entsprechen oder kann der Länge des Gehäuses202 entsprechen (die gleich oder im Wesentlichen ähnlich der Länge der Positionserfassungsschichten534 sein kann). Die Druckverteilungsstreifen537 können an dem Gehäuse202 befestigt sein, zum Beispiel an den jeweiligen Enden der Druckverteilungsstreifen537 . Die Punktdrucksensoren539 können sich an oder nahe der Mitte der entsprechenden Druckverteilungsstreifen537 entlang ihrer Länge befinden, wie in6 gezeigt wird. - Druck, der fast an jeder Stelle entlang der linken oder rechten Seite des Gehäuses
202 angewendet wird, wird durch die Punktdrucksensoren539 erfasst. Wenn Druck an einer Stelle an der linken oder rechten Seite des Gehäuses202 , aber entfernt von den Punktdrucksensoren539 angewendet wird, wird der Druck an den entsprechenden Druckverteilungsstreifen537 übertragen, der wiederum Druck auf den jeweiligen Punktdrucksensor539 anwendet. Wenn zum Beispiel Druck an der Stelle angewendet wird, die in6 durch den Pfeil angezeigt wird, wendet der Druckverteilungsstreifen537 Druck auf den Punktdrucksensor539 an der linken Seite des Gehäuses202 an. - In anderen Ausführungsbeispielen können die Positionserfassungsschichten
534 weggelassen werden, so dass nur Druckdaten durch die Druckerfassungsschichten536 oder Punktdrucksensoren539 der ersten und zweiten Erfassungsschichten530 ,540 vorgesehen werden. Positionsdaten, die von Positionserfassungsschichten534 in den oben beschriebenen Ausführungsbeispielen vorgesehen werden, sind in solchen alternativen Ausführungsbeispielen nicht verfügbar. Jedoch können Druckdaten weiterhin mit einer entsprechenden Seite des Gehäuses202 während einer Kraftgestenerkennung assoziiert werden, da die Position jedes einzelnen der Drucksensoren, zum Beispiel die Druckerfassungsschichten536 oder Punktdrucksensoren539 , in Bezug auf das Gehäuse202 der Steuerungsvorrichtung bekannt ist. - In dem gezeigten Ausführungsbeispiel von
5 und6 sind die ersten und zweiten Erfassungsschichten530 ,540 ausgebildet, Kräfte zu erfassen, die auf die linke Seite und die rechte Seite der tragbaren elektronischen Vorrichtung100 angewendet werden. In anderen Ausführungsbeispielen können zusätzliche Erfassungsschichten an dem oberen und dem unteren Ende der tragbaren elektronischen Vorrichtung100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In weiteren Ausführungsbeispielen können zusätzliche Erfassungsschichten an der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In einigen Ausführungsbeispielen können die zusätzlichen Erfassungsschichten an dem oberen Ende, dem unteren Ende, der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. - Unter Bezugnahme nun auf die
7 und8 wird eine beispielhafte Magnetsensoranordnung700 für die tragbare elektronische Vorrichtung100 beschrieben.7 ist eine sektionale Draufsicht der tragbaren elektronischen Vorrichtung100 mit einem flexiblen Skin710 , das das Gehäuse202 umgibt, in einem neutralen Zustand (oder Referenzzustand).8 ist eine sektionale Draufsicht der tragbaren elektronischen Vorrichtung100 mit dem flexiblen Skin710 in einem betätigten Zustand (d. h. ein gedrückter Zustand in dem gezeigten Beispiel). - Die magnetische Sensoranordnung
700 weist eine Anzahl von Magneten720 auf, die sich in dem flexiblen Skin710 befinden, und eine Anzahl von Magnetsensoren722 , die sich in dem Gehäuse202 befinden. Die Magnete720 können jeder geeignete Typ von Permanentmagneten sein, wie zum Beispiel ein Keramik- oder Ferrit-Magnet. Die Magnete720 befinden sich in dem flexiblen Skin710 und erzeugen ein magnetisches Feld. Die Magnetsensoren722 sind Magnetometer, die die Stärke und/oder Richtung des magnetisches Felds erfassen und messen, das durch die Magneten720 verursacht wird. In den gezeigten Beispielen sind die Magnetsensoren Hall-Effekt-Sensoren722 , sie können aber magnetoresistive Halbeleiterelemente, ferromagnetische magnetoresistive Elemente oder GMR(Giant magnetoresistance)-Vorrichtungen in anderen Ausführungsbeispielen sein. - Jeder Hall-Effekt-Sensor
722 weist ein Sensorelement auf (nicht gezeigt), das mit einem Differentialverstärker verbunden ist (nicht gezeigt). Das Hall-Effekt-Sensorelement besteht aus Halbleitermaterial, wie Silizium, und hat eine flache rechteckige Form. Ein Hall-Effekt-Sensorelement wird durch Anwenden von Energie an seine Längsenden betätigt, so dass Strom in Längsrichtung durch das Sensorelement fließt. Die Längsenden des Hall-Effekt-Sensorelements sind jeweils mit einer geregelten Spannungsquelle (V) und mit Masse verbunden (nicht gezeigt). Wenn Strom in Längsrichtung durch das Hall-Effekt-Sensorelement fließt, wird ein Spannungsdifferential über das Element an seinen Ausgängen erzeugt, wenn ein magnetischer Fluss einer passenden Polarität senkrecht durch die Ebene des Hall-Effekt-Sensorelements geht. Die Größe der erzeugten Spannung ist proportional zu der magnetischen Flussdichte der vertikalen Komponente des Felds. - Der Differentialverstärker ist parallel mit der Spannungsquelle (V) und Masse verbunden. Der Differentialverstärker verstärkt die Spannungsausgabe des Hall-Effekt-Sensorelements, um eine verstärkte Ausgabe zu erzeugen, die proportional zu der magnetischen Flussdichte ist, die durch das Hall-Effekt-Sensorelement geht. Die Ausgabe des Differentialverstärkers ist ein Signal proportional zu der magnetischen Flussdichte, das von dem Hall-Effekt-Sensorelement empfangen wird.
- Die Form, Orientierung und Polarität jedes Magnets
720 und das daraus erzeugte magnetische Feld kann von einem sehr schmalen Feld, das nur jeweils einen Hall-Effekt-Sensor722 betätigen kann, zu einem breiten Feld variieren, das eine Anzahl von Hall-Effekt-Sensoren722 gleichzeitig betätigen kann. Jeder Hall-Effekt-Sensor722 kann mit einem bestimmten Magnet oder Magneten720 ein Paar bilden durch geeignete Auswahl der Form, Orientierung und/oder Polarität des bestimmten Magnets720 . Dies ermöglicht, dass ein bestimmter Hall-Effekt-Sensor722 die Nähe eines bestimmten Magnets720 in der Gruppe von Magneten720 erfassen kann. Die Position des bestimmten Magnets720 kann bestimmt werden, zum Beispiel unter Verwendung des Prozessors702 , aus der Spannungsausgabe des paarweise zugeordneten Hall-Effekt-Sensors722 . - Das flexible Skin
710 liegt im Wesentlichen fest an dem Gehäuse202 an. Das flexible Skin710 kann aus jedem geeigneten Material konstruiert sein, einschließlich, aber nicht darauf beschränkt, ein geeignetes Urethan-, Neopren-, Silikonkautschuk- oder anderes geeignetes flexibles Material. Das flexible Skin710 kann dauerhaft an dem Gehäuse202 befestigt sein unter Verwendung eines geeigneten Klebstoffs oder anderer geeigneter Befestigungsmittel oder kann entfernbar sein, da die Magnete720 , die von dem flexiblen Skin710 getragen werden, passive Elemente sind. Dies ermöglicht, dass eine Vielzahl von verschiedenen flexiblen Skins710 verwendet werden kann. Zum Beispiel können einige flexible Skins710 die Anzahl von Magneten720 , die Größe der Magnetgrößen und/oder die Position der Magnete variieren. Dies ermöglicht, dass verschiedene Gesten von verschiedenen Skins erkannt werden können. Wenn ein Hall-Effekt-Sensor722 einem bestimmten Magnet720 als Paar zugeordnet wird, deaktiviert ein Weglassen eines Magnets720 effektiv den Hall-Effekt-Sensor722 , der dem Magnet720 zugeordnet ist, und die Hilfs-Eingabe, die mit dem Hall-Effekt-Sensor722 assoziiert ist. Somit kann die Funktionalität der tragbaren elektronischen Vorrichtung700 durch Ändern des flexiblen Skins710 gesteuert werden. - Das flexible Skin
710 ist nachgiebig und elastisch komprimierbar, so dass es lokal zusammengedrückt/verformt werden kann aus dem neutralen Zustand (7 ) in den betätigten Zustand (8 ) in Reaktion auf eine Druckkraft (F), die zum Beispiel dadurch veranlasst wird, dass ein Benutzer die tragbare elektronische Vorrichtung700 drückt, und aus dem betätigten Zustand in den neutralen Zustand zurückkehrt (7 ), wenn die Druckkraft (F) entfernt wird. Die Magnete720 sind in dem flexiblen Skin710 eingebettet, um sich in Reaktion auf Wechsel zwischen dem neutralen Zustand und dem betätigten Zustand zu bewegen, wie unten beschrieben wird. - Acht Magnets
720 , die einzeln durch die Bezugszeichen720a ,720b ...720h bezeichnet werden, befinden sich in dem flexiblen Skin710 am Rand der tragbaren elektronischen Vorrichtung700 . Die Magnete720 können freiliegen und sichtbar für den Benutzer sein oder in dem flexiblen Skin710 eingebettet sein derart, dass die Magnete720 für den Benutzer nicht sichtbar sind, abhängig von dem Ausführungsbeispiel. In dem gezeigten Beispiel sind die Magnete720 in Übereinstimmung mit einem Koordinatensystem angeordnet, das durch eine x-Achse und eine y-Achse einer x-y-Ebene definiert ist. Der Ursprung (O) der x-y-Ebene befindet sich in dem gezeigten Beispiel in der Mitte des Gehäuses202 , kann sich aber in anderen Ausführungsbeispielen woanders befinden. - Die Magnete
720 sind symmetrisch in der Ebene in Bezug auf den Ursprung derart angeordnet, dass ein Array oder ein Gitter von Magneten720 gebildet wird. Vier Magnete720a ,720b ,720c und720d befinden sich in der linken Seite des flexiblen Skins710 an den Positionen (–x, y2), (–x, y1), (–x, –y1), (–x, –y2). Vier Magnete720e ,720f ,720g und720h befinden sich in der rechten Seite des flexiblen Skins710 an den Positionen (x, y2), (x, y1), (x, –y1), (x, –y2). - Eine andere Anzahl von Magneten
720 und eine andere Position für die Magnete720 kann in anderen Ausführungsbeispielen verwendet werden. Ähnlich kann eine andere Anzahl von Hall-Effekt-Sensoren722 in anderen Ausführungsbeispielen verwendet werden, zum Beispiel kann mehr als ein Hall-Effekt-Sensor722 für jeden Magnet720 in anderen Ausführungsbeispielen vorgesehen werden, um die Genauigkeit zu erhöhen, mit der die Bewegung der Magnete720 erfasst werden kann. Somit können zwei oder mehr Magnete720 mit einem einzigen Hall-Effekt-Sensor722 verwendet werden oder zwei oder mehrere Hall-Effekt-Sensoren722 können mit einem einzigen Magnet720 in anderen Ausführungsbeispielen verwendet werden. Die Genauigkeit einer Positionserfassung variiert mit der Anzahl von Magnetsensoren722 , die verwendet werden, um jeden Magnet720 zu erfassen, und der Anzahl von Magneten, die von jedem Magnetsensor722 erfasst werden. - In dem gezeigten Beispiel sind acht Hall-Effekt-Sensoren
722 vorgesehen, so dass es einen Hall-Effekt-Sensor für jeden der Magnete720 gibt. Die Hall-Effekt-Sensoren722 befinden sich auf der Leiterplatte (PCB – printed circuit board)704 der tragbaren elektronischen Vorrichtung700 . In dem gezeigten Beispiel sind die acht Hall-Effekt-Sensoren722 symmetrisch in derselben Ebene wie die Magnete720 angeordnet. Die Hall-Effekt-Sensoren722 sind symmetrisch in Bezug auf den Ursprung derart angeordnet, dass ein Array oder ein Gitter von Hall-Effekt-Sensoren722 gebildet wird. - Vier Hall-Effekt-Sensoren
722a ,722b ,722c und722d befinden sich auf der linken Seite des Gehäuses202 an den Positionen (–x2, y2), (–x2, y1), (–x2, –y1), (–x2, –y2). Vier Hall-Effekt-Sensoren722e ,722f ,722g und722h befinden sich auf der rechten Seite des Gehäuses202 an den Positionen (x2, y2), (x2, y1), (x2, –y1), (x2, –y2). - Eine andere Anzahl von Magneten
720 und eine andere Position für die Magnete720 kann in anderen Ausführungsbeispielen verwendet werden. Zum Beispiel kann ein einzelner Magnet in den anderen Ausführungsbeispielen verwendet werden. - In dem gezeigten Beispiel sind der Magnet
720 und der Hall-Effekt-Sensor722 in jedem Magnet-Sensor-Paar horizontal voneinander entlang der x-Achse versetzt, aber in Bezug auf die x-Achse ausgerichtet. Eine andere Konfiguration der Magnete720 und der Hall-Effekt-Sensoren722 kann in anderen Ausführungsbeispielen verwendet werden. - Jeder Hall-Effekt-Sensor
722 bildet mit einem bestimmten Magnet720 ein Paar in Übereinstimmung mit der Form, Orientierung und/oder Polarität des bestimmten Magnets720 . Der Magnet720 und der Hall-Effekt-Sensor722 in jedem Magnet-Sensor-Paar sind nah zueinander angeordnet. In dem gezeigten Beispiel bildet der erste Magnet720a mit dem ersten Hall-Effekt-Sensor722a ein Paar, der zweite Magnet720b bildet mit dem zweiten Hall-Effekt-Sensor722b ein Paar, der dritte Magnet720c bildet mit dem dritten Hall-Effekt-Sensor722c ein Paar, und der vierte Magnet720d bildet mit dem vierten Hall-Effekt-Sensor722d ein Paar. Ähnlich bildet der fünfte Magnet720e mit dem fünften Hall-Effekt-Sensor722e ein Paar, der sechste Magnet722f bildet mit dem sechsten Hall-Effekt-Sensor722f ein Paar, der siebte Magnet720g bildet mit dem siebten Hall-Effekt-Sensor722g ein Paar, und der achte Magnet720h bildet mit dem achten Hall-Effekt-Sensor722h ein Paar. - Die Hall-Effekt-Sensoren
722 sind mit der Steuervorrichtung306 gekoppelt und liefern Druck- und optional Positions-Eingaben an die Steuervorrichtung306 . Druckeingaben können zum Beispiel veranlasst werden durch Anwenden von Druck auf die linke oder rechte Seite des flexiblen Skins710 . Das flexible Skin710 ermöglicht, dass die tragbare elektronische Vorrichtung700 gedrückt oder zusammengedrückt wird derart, dass eine lokale Deformation in dem flexiblen Skin710 verursacht wird. Durch den Druck wird das flexible Skin710 von dem neutralen Zustand (7 ) in den betätigten Zustand (8 ) gedrückt. Eine Komprimierung bzw. ein Drücken des flexiblen Skins710 veranlasst, dass sich der/die Magnet(en)720 am nächsten zu der Druckkraft (F) relativ zu den Referenzpositionen in dem neutralen Zustand bewegen. Die Bewegung des Magnets/der Magneten720 bewirkt eine Änderung in dem magnetischen Feld, das von den Hall-Effekt-Sensoren722 erfasst wird. Die Änderungen in dem magnetischen Feld führen zu Veränderungen der Ausgabespannungen der Hall-Effekt-Sensoren722 . Die Ausgabespannungen repräsentieren eine magnetische Flussdichte, die durch die Hall-Effekt-Sensoren722 erfasst wird. - In dem gezeigten Ausführungsbeispiel von
7 und8 sind die Magnete720 und die Magnetsensoren722 ausgebildet, Kräfte zu erfassen, die auf die linke Seite und die rechte Seite der tragbaren elektronischen Vorrichtung100 angewendet werden. In anderen Ausführungsbeispielen können zusätzliche Magnete720 und Magnetsensoren722 an der oberen und der unteren Seite der tragbaren elektronischen Vorrichtung100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In weiteren Ausführungsbeispielen können zusätzliche Magnete720 und Magnetsensoren722 an der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. In einigen Ausführungsbeispielen können die zusätzlichen Magnete720 und Magnetsensoren722 an der oberen Seite, der unteren Seite, der Vorderseite und der Rückseite der tragbaren elektronischen Vorrichtung100 vorgesehen werden, um darauf angewendete Kräfte zu erfassen. - Gesten-Erkennung
- Ein Ablaufdiagramm, das ein beispielhaftes Ausführungsbeispiel eines Verfahrens
900 zur Gesten-Erkennung auf der tragbaren elektronischen Vorrichtung darstellt, wird in9 gezeigt. Das Verfahren900 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren900 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 und den Befehls-Interpretierer162 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens900 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren900 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren900 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Die Sensoren
301 des Sensorabschnitts302 des Gestenerfassungs-Teilsystems122 erfassen eine Verformung der tragbaren elektronischen Vorrichtung100 , wie eine Verformung des Gehäuses202 (902 ). Die Verformung verändert den physikalischen Zustand der tragbaren elektronischen Vorrichtung100 von einem früheren Zustand, wie einem neutralen Zustand, in einen neuen und anderen Zustand. Die Änderung ist typischerweise nur vorübergehend. Die Sensoren301 können eine oder jede Kombination von Kraftsensoren, Biegesensoren, Drucksensoren, Rotationssensoren, Magnetsensoren oder andere geeignete Sensoren umfassen, die eine Verformung erfassen können, wie eine Verformung des Gehäuses202 . Die Sensoren301 des Sensorabschnitts302 sind Vorrichtungen zur Erfassung von physikalischen Interaktionen, wie die Gesten des Benutzers, und Aufnehmen derartiger physikalischer Interaktionen als Sensordaten. - Die Verformung der tragbaren elektronischen Vorrichtung
100 ist in einigen Ausführungsbeispielen eine Verformung des Gehäuses202 , die an der oberen Seite222 , der unteren Seite224 , der linken Seite226 , der rechte Seite228 , der Vorderseite204 oder der Rückseite205 des Gehäuses202 oder einer Kombination daraus verursacht werden kann. Die Verformung kann durch einen Benutzer verursacht werden, der die tragbare elektronische Vorrichtung100 mit einer Hand oder zwei Händen in der Hochformat- oder Querformat-Ausrichtung hält. In anderen Ausführungsbeispielen kann die Verformung durch Komprimierung bzw. Drücken oder andere Deformation eines flexiblen Skins710 verursacht werden, das das Gehäuse202 umgibt, anstatt einer Verformung des Gehäuses202 . - Sensordaten werden mit vorgegebenen Kraftgeste-Kriterien verglichen, wie vorgegebene Kraftgeste-Muster, um zu bestimmen, ob die Sensordaten mit vorgegebenen Kraftgeste-Kriterien übereinstimmen (
904 ). Mehrfach-Kraftgeste-Kriterien, wie Kraftgeste-Muster, können durch das Gestenerfassungs-Teilsystem122 erkannt werden. Unter Bezugnahme nun auf die10A bis10I werden beispielhafte Kraftgesten beschrieben, die durch das Gestenerfassungs-Teilsystem122 erkannt werden können. Andere Kraftgesten können durch das Gestenerfassungs-Teilsystem122 erkannt werden zusätzlich oder anstatt der Kraftgesten in den10A bis10I . Die10A bis10I umfassen Referenzpfeile, die verwendet werden, um die Richtung der Hauptkräfte der Kraftgesten zu zeigen. - In den gezeigten Beispielen der
10A bis10I wird die tragbare elektronische Vorrichtung100 im Querformat dargestellt. Jedoch können ähnliche Kraftgesten angewendet werden, wenn die tragbare elektronische Vorrichtung100 im Hochformat ist. Die tragbare elektronische Vorrichtung100 hat eine Hauptachse, die durch ihre Länge definiert ist, und eine Nebenachse, die durch ihre Breite definiert ist. Die Hauptachse und die Nebenachse definieren eine Ebene der tragbaren elektronischen Vorrichtung100 . Kraftgesten können durch Kraftmomente (Drehmoment) um die Hauptachse, Nebenachse oder die Achse, die normal zu der Ebene der tragbaren elektronischen Vorrichtung100 ist (d. h. normal zu den Haupt- und Nebenachsen) durchgeführt werden. Die Kraftgesten werden gezeigt als an gegenüberliegenden Seiten des Gehäuses202 stattfindend, was Kraftgesten mit zwei Händen simuliert, die gemacht werden, wenn die tragbare elektronische Vorrichtung100 von einem Benutzer mit zwei Händen gehalten wird. Kraftgesten mit einer Hand ähnlich zu den dargestellten Kraftgesten mit zwei Händen können angewendet werden zum Beispiel durch Durchführen der Komponente der linken Hand oder der Komponente der rechten Hand der Kraftgesten mit zwei Händen, die in den10A bis10I gezeigt werden. -
10A zeigt eine Dehnen- bzw. Ziehen-Geste, die stattfindet, wenn eine Kraft zum Dehnen bzw. Ziehen auf die Seiten des Gehäuses202 angewendet wird.10B zeigt eine Komprimieren- bzw. Drücken-Geste, die stattfindet, wenn eine Druckkraft auf die Seiten des Gehäuses202 angewendet wird. -
10C zeigt eine Einwärtsbiegen-Geste, die stattfindet, wenn Kraftmomente (Drehmoment) gegen den Uhrzeigersinn um die Nebenachse (gestrichelt dargestellt) des Gehäuses202 angewendet werden.10D zeigt eine nach außen gerichtete Biegen-Geste, die stattfindet, wenn Kraftmomente im Uhrzeigersinn um die Nebenachse (gestrichelt dargestellt) des Gehäuses202 angewendet werden. -
10E zeigt eine Falten-Geste gegen den Uhrzeigersinn, die stattfindet, wenn Kraftmomente gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) des Gehäuses202 angewendet werden.10F zeigt eine Falten-Geste im Uhrzeigersinn, die stattfindet, wenn Kraftmomente im Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) des Gehäuses202 angewendet werden. -
10G zeigt eine Verdrehen-Geste nach links, die stattfindet, wenn ein Kraftmoment gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der linken Seite des Gehäuses202 und ein Kraftmoment im Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der rechten Seite des Gehäuses202 angewendet wird.10H zeigt eine Verdrehen-Geste nach rechts, die stattfindet, wenn ein Kraftmoment gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der linken Seite des Gehäuses202 und ein Kraftmoment gegen den Uhrzeigersinn um die Hauptachse (gestrichelt dargestellt) auf der rechten Seite des Gehäuses202 angewendet wird. -
10I zeigt eine nach oben gerichtete Lenken-Geste, die stattfindet, wenn Kraftmomente um eine Achse angewendet werden, die normal zu den Haupt- und Nebenachsen ist, in die Richtung der oberen Seite des Gehäuses202 .10J zeigt eine nach unten gerichtete Lenken-Geste, die stattfindet, wenn Kraftmomente um die Achse angewendet werden, die normal zu den Haupt- und Nebenachsen ist, in die Richtung der unteren Seite des Gehäuses202 . - Wenn die Sensordaten mit vorgegebenen Kraftgeste-Kriterien übereinstimmen, wird eine Kraftgeste, die mit der erfassten Verformung des Gehäuses
202 aus dem neutralen Zustand assoziiert ist, identifiziert (906 ). Keine Kraftgeste wird identifiziert, wenn die Sensordaten nicht mit vorgegebenen Kraftgeste-Kriterien übereinstimmen (908 ). - Wenn die Sensordaten mit vorgegebenen Kraftgeste-Kriterien übereinstimmen und eine Kraftgeste identifiziert wird, wird eine vorgesehene Aktion, die mit der bestimmten Kraftgeste assoziiert ist, bestimmt (
910 ). Der Prozessor102 kann eine Benachrichtigung, dass die Kraftgeste stattgefunden hat, an das Betriebssystem146 oder die aktive Anwendung148 senden in Reaktion auf das Identifizieren der Kraftgeste. Das Betriebssystem146 oder die aktive Anwendung148 kann dann die vorgesehene Aktion in Übereinstimmung mit der identifizierten Kraftgeste bestimmen. - Kraftgesten können in einigen Ausführungsbeispielen mit einer anderen Eingabe kombiniert werden, um Aktionen durchzuführen. in derartigen Ausführungsbeispielen veranlasst ein Durchführen nur einer Kraftgeste keine Aktion, die durchzuführen ist; jedoch ein Durchführen einer Kraftgeste in Kombination mit der anderen Eingabe veranlasst, dass eine Aktion durchgeführt wird. Dies verringert oder verhindert ein unbeabsichtigtes Veranlassen von Aktionen, die von der tragbaren elektronischen Vorrichtung
100 durchzuführen sind, durch unbeabsichtigte Kraftgesten. Die andere Eingabe kann jede geeignete Eingabe sein, einschließlich ein Drücken eines vorgesehenen Knopfs, einer vorgesehenen Taste oder der Navigationsvorrichtung, eine Navigationseingabe von der Navigationsvorrichtung, eine Berührungseingabe von der berührungsempfindlichen Anzeige118 , eine Vorrichtungsausrichtung, die von dem Beschleunigungsmesser136 oder einem anderen Orientierungssensor erfasst wird, eine Bewegungsgeste, die von dem Beschleunigungsmesser136 oder einem anderen Bewegungssensor erfasst wird, oder eine Kombination daraus. Die vorgesehene Aktion kann bestimmt werden in Übereinstimmung mit der bestimmten Kraftgeste und der anderen Eingabe, oder kann durch die andere Eingabe bestimmt werden und die Kraftgeste bewirkt lediglich, dass die vorgesehene Aktion durchgeführt wird. Die andere Eingabe kann zwischen Anwendungen148 , zwischen Benutzerschnittstellenbildschirmen, die von derselben Anwendung148 angezeigt werden, oder beiden variieren. Die andere Eingabe kann vor der Kraftgeste oder gleichzeitig mit der Kraftgeste vorgesehen werden, abhängig von dem Ausführungsbeispiel. - In einigen Beispielen ist die andere Eingabe eine Berührungseingabe. Die Berührungseingabe kann zum Beispiel eine Berührungseingabe auf der berührungsempfindlichen Anzeige
118 , eine Auswahl (zum Beispiel Berühren) eines Elements auf dem Bildschirm, das auf der berührungsempfindlichen Anzeige118 angezeigt wird, oder eine Berührungsgeste sein. Das Element auf dem Bildschirm kann ein Icon bzw. Symbol sein, das sich zum Beispiel an einer Stelle befindet, die für Benutzer einfach mit einem Daumen oder einem anderen Finger zu berühren ist und auch die Kraftgeste durchzuführen ist, ohne seine oder ihre Hände zu bewegen. Jeder Typ eines Elements auf dem Bildschirm kann mit einer oder mehreren vorgesehenen Aktionen assoziiert sein, oder bestimmte Elemente auf dem Bildschirm können mit einer oder mehreren vorgesehenen Aktionen assoziiert sein. Wenn ein Element auf dem Bildschirm mit einer oder mehreren vorgesehenen Aktionen assoziiert ist, kann die bestimmte Kraftgeste verwendet werden, um die durchzuführende vorgesehene Aktion zu bestimmen. In derartigen Beispielen ist jede der vorgesehenen Aktionen mit einer bestimmten Kraftgeste assoziiert. Die durchzuführende vorgesehene Aktion ist die Aktion, die mit einer Kraftgeste assoziiert ist, die mit der bestimmten Kraftgeste übereinstimmt. - Eine Durchführung einer Kraftgeste ohne die Berührungseingabe veranlasst nicht, dass eine Aktion durchgeführt wird. Wenn die Berührungseingabe vorgesehen wird, kann ein Durchführen einer ersten Geste veranlassen, dass eine erste Aktion durchgeführt wird, und ein Durchführen einer zweiten Geste kann veranlassen, dass eine zweite Aktion durchgeführt wird. Wenn zum Beispiel die aktive Anwendung
148 ein Web-Browser ist, der eine Webseite anzeigt, führt ein Durchführen einer Kraftgeste ohne die Berührungseingabe nicht zu einem Durchführen einer Aktion. Wenn die Berührungseingabe vor oder während der erfassten Verformung der Kraftgeste vorgesehen wird, kann ein Durchführen einer ersten Geste (z. B. eine Verdrehen-Geste) die Webseite scrollen, und ein Durchführen einer zweiten Geste (z. B. eine Biegen-Geste) kann veranlassen, dass ein Zoomen des Inhalts der Webseite durchgeführt wird. - Die vorgesehene Aktion wird dann durchgeführt, typischerweise durch den Prozessor
102 (912 ). Die vorgesehene Aktion kann aufweisen ein Eingeben eines vorgesehenen Eingabezeichens oder ein Durchführen eines Befehls. Die vorgesehene Aktion kann abhängig von der aktiven Anwendung148 (wenn vorhanden) und optional von Kontext-sensitiver Information variieren. Die vorgesehene Aktion kann aufweisen ein Ausgeben eines Ergebnisses an die Anzeige112 , wie das Eingabezeichen oder eine visuelle Darstellung, die mit dem Befehl assoziiert ist. Die Kontext-sensitive Information kann einen Vorrichtungszustand, aktuell angezeigte Information und/oder aktuell ausgewählte Information umfassen, wenn die Geste erfasst wurde, neben anderen Faktoren, ist aber nicht darauf beschränkt. - Befehlserkennung
- Zoomen einer Benutzerschnittstelle
- Ein Ablaufdiagramm, das ein Verfahren
1100 zum Zoomen einer Benutzerschnittstelle auf einer tragbaren elektronischen Vorrichtung100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in11 gezeigt. Das Verfahren1100 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren1100 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 und den Befehls-Interpretierer162 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens1100 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren1100 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor102 der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren1100 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Ein Benutzerschnittstellenbildschirm des Betriebssystems
146 oder der aktiven Anwendung148 wird auf der berührungsempfindlichen Anzeige118 angezeigt (1102 ). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Inhalt des Benutzerschnittstellenbildschirms hat eine anpassbare Skalierung. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Benutzerschnittstellenbildschirm kann in einem Fenster in der GUI vorgesehen sein oder kann in einem vollen Bildschirmformat angezeigt werden, bei dem der Benutzerschnittstellenbildschirm die gesamte GUI einnimmt. Der Benutzerschnittstellenbildschirm wird typischerweise in Reaktion auf eine Benutzereingabe angezeigt. Der Benutzerschnittstellenbildschirm kann ein Web-Browser, ein Dokumentenbetrachter, eine Karten- oder Navigationsanwendung oder eine andere Anwendung mit einer zoomenden Benutzerschnittstelle sein. - Die tragbare elektronische Vorrichtung
100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung100 und erfasst diese (1104 ), zum Beispiel des Gehäuses202 oder eines flexiblen Skins710 , das das Gehäuse202 umgibt. - Die tragbare elektronische Vorrichtung
100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem Zoom-in- oder Zoom-out-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1106 ), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem Zoom-in-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in10F gezeigt, und die Kraftgeste, die mit dem Zoom-out-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in10E gezeigt. - Die tragbare elektronische Vorrichtung
100 analysiert die Sensordaten, die von dem Sensorabschnitt302 gesammelt werden, unter Verwendung der Steuervorrichtung306 und/oder des Prozessors102 , in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn. - Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag vergrößert (zoomed-in) (
1108 ). Der Benutzerschnittstellenbildschirm kann einen vorgegebenen Bereich von Skalierungen haben, wie 50%, 100%, 150%, 200% und 400%, wobei die Größe des Inhalts des Benutzerschnittstellenbildschirms von einer ersten Skalierung (d. h. die aktuelle Skalierung) zu einer nächstgrößeren Skalierung in dem vorgegebenen Bereich von Skalierungen erhöht wird. Die erste Skalierung kann eine volle Skalierung sein, d. h. 100%-Skalierung, bei der Inhalt in der geeigneten Größe für die aktuelle Auflösung der Anzeige112 angezeigt wird. Die erste Skalierung kann eine Standard-Skalierung des Benutzerschnittstellenbildschirms sein, wenn anfangs angezeigt, oder kann eine früher angepasste Skalierung von einer vorherigen Zoom-Operation sein. Alternativ kann die Größe des Inhalts des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag erhöht werden. Der vorgegebene Betrag kann ein Skalierungsbetrag sein, gemessen in Prozent (wie 10% oder 25%), der zu der aktuellen Skalierung hinzugefügt wird. Wenn zum Beispiel die erste Skalierung 50% ist und der vorgegebene Betrag ist 10%, wird die Skalierung des Inhalts des Benutzerschnittstellenbildschirms von 50% auf 60% verändert. - Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag verkleinert (zoomed-out) (
1110 ). Der Benutzerschnittstellenbildschirm kann einen vorgegebenen Bereich von Skalierungen haben, wie 50%, 100%, 150%, 200% und 400%, wobei die Größe des Inhalts des Benutzerschnittstellenbildschirms von der ersten Skalierung (d. h. die aktuelle Skalierung) zu einer nächstkleineren Skalierung in dem vorgegebenen Bereich von Skalierungen verringert wird. Alternativ kann die Größe des Inhalts des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag verringert werden, wie 10% oder 25%. Der vorgegebene Betrag kann ein Skalierungsbetrag sein, gemessen in Prozent (wie 10% oder 25%), der zu der aktuellen Skalierung hinzugefügt wird. Wenn zum Beispiel die erste Skalierung 50% ist und der vorgegebene Betrag ist 10%, wird die Skalierung des Inhalts des Benutzerschnittstellenbildschirms von 50% auf 40% verändert. - Die tragbare elektronische Vorrichtung
100 überwacht auch hinsichtlich Berührungseingaben auf der berührungsempfindlichen Anzeige118 und erfasst diese (1112 ). Berührungseingaben können verwendet werden zum Vorsehen anderer GUI-Navigationssteuerungen des Benutzerschnittstellenbildschirms, zum Beispiel Panning bzw. Verschieben. - Die tragbare elektronische Vorrichtung
100 bestimmt, ob eine erfasste Berührungseingabe eine Panning- bzw. Verschieben-Berührungsgeste ist, basierend auf vorgegebenen Berührungsgeste-Kriterien (1114 ), wie vorgegebene Berührungsgesten-Muster, die durch die tragbare elektronische Vorrichtung100 erkannt werden. Die Berührungsgesten, die mit einem Panning assoziiert sind, als Panning-Berührungsgesten bekannt, können Swipe- bzw. Wischen-Gesten sein, wie ein Wischen nach links, ein Wischen nach rechts, ein Wischen nach oben und ein Wischen nach unten, in einigen Ausführungsbeispielen. - Wenn eine Berührungseingabe als eine Panning-Berührungsgeste bestimmt wird, wird der Inhalt des Benutzerschnittstellenbildschirms in eine Richtung der Panning-Berührungsgeste verschoben (
1116 ). Die Richtung des Verschiebens wird basierend auf der Richtung der Panning-Berührungsgeste bestimmt. In einigen Beispielen wird der Inhalt des Benutzerschnittstellenbildschirms nach rechts verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach links erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms wird nach links verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach rechts erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms wird nach unten verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach oben erfasst wird, und der Inhalt des Benutzerschnittstellenbildschirms wird nach oben verschoben, wenn die erfasste Berührungseingabe als ein Wischen nach unten erfasst wird. - Obgleich die Operationen
1112 –1116 in Bezug auf Berührungsgesten abfolgend nach den Kraftgeste-Operationen1102 –1110 gezeigt werden, können in anderen Ausführungsbeispielen die Operationen1112 –1116 vor oder gleichzeitig zu den Kraftgeste-Operationen1102 –1110 sein. - Navigation einer Benutzerschnittstelle
- Ein Ablaufdiagramm, das ein Verfahren
1200 zum Navigieren eines Dokuments auf einer tragbaren elektronischen Vorrichtung100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in12 gezeigt. Das Verfahren1200 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren1200 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 und den Befehls-Interpretierer162 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens1200 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren1200 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor102 der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren1200 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Ein Benutzerschnittstellenbildschirm eines Dokumentenbetrachters (document viewer) wird auf der berührungsempfindlichen Anzeige
118 angezeigt (1202 ). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Inhalt in dem Inhaltsbereich ist ein Teil eines Dokuments, in dem navigiert werden kann und das in der Benutzerschnittstelle angezeigt werden kann. Der Rahmen definiert für den Inhalt eine virtuelle Grenze, die den Inhalt beschränkt, der in dem Inhaltsbereich angezeigt wird. - Der Dokumentenbetrachter kann eine „elektronisches Buch(eBook)”-Lesevorrichtung, die eBooks anzeigt, eine Textverarbeitung, die Dokumente der Textverarbeitung anzeigt, ein Slideshow-Player, der Slideshows anzeigt, ein Web-Browser, der Web-Dokumente anzeigt, wie Auszeichnungssprache-Dokumente (zum Beispiel „hyperText Markup Language(HTML)- oder „eXtensible Markup Language(XML)”-Dokumente), ein PDF-Viewer, der PDFs anzeigt, oder eine Messaging-Anwendung sein, die elektronische Nachrichten anzeigt, ist aber nicht darauf beschränkt. Die elektronische Nachricht kann eine Email-Nachricht, eine SMS(Short Message Service)-Textnachricht, eine MMS(Multimedia Message Service)-Nachricht, eine Chat-Nachricht, eine IM-Nachricht oder eine Peer-to-Peer-Nachricht sein, ist aber nicht darauf beschränkt.
- Die tragbare elektronische Vorrichtung
100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung100 und erfasst diese (1204 ), zum Beispiel des Gehäuses202 oder eines flexiblen Skins710 , das das Gehäuse202 umgibt. - Die tragbare elektronische Vorrichtung
100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem „nächste Seite”-Befehl oder „vorherige Seite”-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1206 ), wie vorgegebene Kraftgeste-Muster, die durch die tragbare elektronische Vorrichtung100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem „nächste Seite”-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in10F gezeigt, und die Kraftgeste, die mit dem „vorherige Seite”-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in10E gezeigt. - Die tragbare elektronische Vorrichtung
100 analysiert die Sensordaten, die von dem Sensorabschnitt302 gesammelt werden, unter Verwendung der Steuervorrichtung306 und/oder des Prozessors102 , in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn. - Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird eine nächste Seite des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (
1208 ), wenn eine zusätzliche Seite verfügbar ist. Die nächste Seite des Dokuments wird bestimmt relativ zu der Seite, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird. Wenn keine zusätzliche Seite verfügbar ist, kann die Falten-Geste im Uhrzeigersinn ignoriert werden. - Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird eine vorherige Seite des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (
1210 ), wenn eine zusätzliche Seite verfügbar ist. Die vorherige Seite des Dokuments wird relativ zu der Seite bestimmt, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird. Wenn keine zusätzliche Seite verfügbar ist, kann die Falten-Geste gegen den Uhrzeigersinn ignoriert werden. - In anderen Ausführungsbeispielen wird der Inhalt des Dokuments gescrollt anstatt Seite für Seite geblättert. Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird ein nächster Teil des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt, wenn eine zusätzliche Seite verfügbar ist. Der nächste Teil des Dokuments wird relativ zu der Seite, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird, und optional einem Positionsindikator auf dem Bildschirm bestimmt, wie ein Caret-Zeichen, ein Cursor, ein Fokus zur Hervorhebung von Text oder ein anderer geeigneter Indikator. Der nächste Teil des Dokuments kann zum Beispiel der nächste Abschnitt, die nächste Textzeile oder die nächsten Textzeilen (z. B. die nächsten 5 Zeilen) des Dokuments sein.
- Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird ein vorheriger Teil des Dokuments in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt, wenn eine zusätzliche Seite verfügbar ist. Der vorherige Teil des Dokuments wird relativ zu der Seite, die aktuell in dem Benutzerschnittstellenbildschirm angezeigt wird, und optional einem Positionsindikator auf dem Bildschirm bestimmt. Der vorherige Teil des Dokuments kann zum Beispiel der vorherige Abschnitt, die vorherige Textzeile oder die vorherigen Textzeilen (z. B. die vorherigen 5 Zeilen) des Dokuments sein.
- Bei der Anzeige eines neuen Teils des Textdokuments, wie einem neuen Abschnitt oder einer neue Zeile einer Seite, kann der Positionsindikator auf dem Bildschirm an einer Standard-Position in dem neuen Teil angezeigt werden. Zum Beispiel kann sich der Positionsindikator auf dem Bildschirm in dem oder in der Nähe des ersten Worts in dem neuen Teil befinden.
- Ein Ablaufdiagramm, das ein Verfahren
1300 zum Navigieren eines Kalenders auf einer tragbaren elektronischen Vorrichtung100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in13 gezeigt. Das Verfahren1300 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren1300 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 und den Befehls-Interpretierer162 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens1300 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren1300 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor102 der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren1300 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Ein Benutzerschnittstellenbildschirm eines Kalenders wird auf der berührungsempfindlichen Anzeige
118 angezeigt (1302 ). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Inhalt in dem Inhaltsbereich ist eine Ansicht von mehreren möglichen Ansichten, zwischen denen navigiert werden kann und die in der Benutzerschnittstelle angezeigt werden. - Der Inhalt, der in dem Inhaltsbereich angezeigt wird, ist eine bestimmte Ansicht des Kalenders. Die Ansicht kann zum Beispiel eine Tagesansicht, Wochenansicht, Monatsansicht, Agenda-Ansicht (auch als Schedule-Ansicht bekannt), Arbeits-Ansicht oder eine andere Ansicht sein. Die Tagesansicht zeigt Kalenderereignisse und Zeitfenster für einen bestimmten Tag in dem Kalender an. Die Wochenansicht zeigt Kalenderereignisse und Zeitfenster für eine bestimmte Woche in dem Kalender an. Die Monatsansicht zeigt Kalenderereignisse und Zeitfenster für einen bestimmten Monat in dem Kalender an. Die Agenda-Ansicht zeigt Kalenderereignisse und Zeitfenster für einen vorgegebenen Zeitraum in dem Kalender von der aktuellen Zeit an, zum Beispiel die nächsten 12 Stunden, 24 Stunden, usw. Die Arbeits-Ansicht zeigt Kalenderereignisse und Zeitfenster für die aktuelle Arbeitswoche, z. B. Montag bis Freitag, in dem Kalender an.
- Die tragbare elektronische Vorrichtung
100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung100 und erfasst diese (1304 ), zum Beispiel des Gehäuses202 oder eines flexiblen Skins710 , das das Gehäuse202 umgibt. - Die tragbare elektronische Vorrichtung
100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem „nächste Ansicht”-Befehl oder „vorherige Ansicht”-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1306 ), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem „nächste Ansicht”-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in10F gezeigt, und die Kraftgeste, die mit dem „vorherige Ansicht”-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in10E gezeigt. - Die tragbare elektronische Vorrichtung
100 analysiert die Sensordaten, die von dem Sensorabschnitt302 gesammelt werden, unter Verwendung der Steuervorrichtung306 und/oder des Prozessors102 , in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn. - Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird eine nächste Ansicht in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (
1308 ). Die verfügbaren Ansichten können in einer sequenziellen Reihenfolge navigiert werden. Wenn die Anwendung zum Beispiel ein Kalender ist, können die verfügbaren Ansichten in der Reihenfolge der Tagesansicht, Wochenansicht, Monatsansicht, Agenda-Ansicht und Arbeits-Ansicht navigiert werden. Eine andere sequenzielle Reihenfolge der Ansichten ist möglich. Wenn die Falten-Geste im Uhrzeigersinn identifiziert wird, wird die nächste Ansicht in sequenzieller Reihenfolge der Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt. - Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird eine vorherige Ansicht in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt (
1310 ). Die verfügbaren Ansichten können in einer sequenziellen Reihenfolge navigiert werden. Wenn die Anwendung zum Beispiel ein Kalender ist, können die verfügbaren Ansichten in der Reihenfolge der Tagesansicht, Wochenansicht, Monatsansicht, Agenda-Ansicht und Arbeits-Ansicht navigiert werden. Eine andere sequenzielle Reihenfolge der Ansichten ist möglich. Wenn die Falten-Geste im Uhrzeigersinn identifiziert wird, wird die vorherige Ansicht in sequenzieller Reihenfolge der Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt. - Navigation von Media
- Ein Ablaufdiagramm, das ein Verfahren
1400 zum Navigieren von Media auf einer tragbaren elektronischen Vorrichtung100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in14 gezeigt. Das Verfahren1400 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren1400 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 und den Befehls-Interpretierer162 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens1400 Liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren1400 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor102 der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren1400 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Ein Benutzerschnittstellenbildschirm eines Media-Players wird auf der berührungsempfindlichen Anzeige
118 angezeigt (1402 ). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. Der Inhalt in dem Inhaltsbereich ist eine Ansicht von mehreren möglichen Ansichten, zwischen denen navigiert werden kann und die in der Benutzerschnittstelle angezeigt werden können. - Der Media-Player gibt digitale Bilder (zum Beispiel Fotos), graphische Objekte, Video-Objekte, Audio-Objekte (zum Beispiel Audio-Tracks oder Songs) oder eine Kombination daraus wieder. Der Inhalt, der in dem Inhaltsbereich angezeigt wird, umfasst ein Bild, Grafik oder Video, oder Information, die mit dem Audio-Objekt assoziiert ist, wie Track-Information und/oder Album, in der Form eines digitalen Bilds.
- Die tragbare elektronische Vorrichtung
100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung100 und erfasst diese (1404 ), zum Beispiel des Gehäuses202 oder eines flexiblen Skins710 , das das Gehäuse202 umgibt. - Die tragbare elektronische Vorrichtung
100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem „nächstes Objekt”-Befehl oder einem „vorheriges Objekt”-Befehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1406 ), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem „nächstes Objekt”-Befehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in10F gezeigt, und die Kraftgeste, die mit dem „vorheriges Objekt”-Befehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in10E gezeigt. - Die tragbare elektronische Vorrichtung
100 analysiert die Sensordaten, die von dem Sensorabschnitt302 gesammelt werden, unter Verwendung der Steuervorrichtung306 und/oder des Prozessors102 , in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn. - Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird ein Inhalt eines nächsten Datenobjekts desselben Datentyps in einem Datenspeicher des Media-Players, wie eine Datenbank von Datenobjekten desselben Typs, in dem Speicher
110 gespeichert, wiedergegeben (1408 ). Wenn das Datenobjekt ein digitales Bild oder ein graphisches Objekt ist, weist ein Wiedergeben ein Anzeigen des digitalen Bilds oder der Grafik, das/die von dem digitalen Bild oder dem graphischen Objekt definiert wird, auf der Anzeige112 auf. Wenn das Datenobjekt ein Video-Objekt ist, weist ein Wiedergeben ein Abspielen des Videos, das durch das Video-Objekt definiert wird, auf der Anzeige112 und einem Lautsprecher128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher. Wenn das Datenobjekt ein Audio-Objekt ist, weist ein Wiedergeben ein Abspielen des Audios (z. B. Song oder Track), das durch das Audio-Objekt definiert wird, unter Verwendung des Lautsprechers128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher. - Das nächste Datenobjekt wird relativ zu einem aktuell ausgewählten Datenobjekt bestimmt, zum Beispiel in alphabetischer Reihenfolge oder chronologischer Reihenfolge von älter zu neuer. Das aktuell ausgewählte Datenobjekt kann als ein Eintrag in einer Playliste bzw. Wiedergabeliste der Media-Player-Anwendung erscheinen. Das aktuell ausgewählte Datenobjekt kann in einer angezeigten Wiedergabeliste angezeigt werden unter Verwendung eines Hervorhebens oder Fokussierens des entsprechenden Eintrags in der angezeigten Wiedergabeliste oder eines anderen geeigneten Verfahrens einer visuellen Anzeige. Ein Hervorheben oder Fokussieren eines Eintrags in der angezeigten Wiedergabeliste veranlasst, dass das Erscheinungsbild des entsprechenden Eintrags in der angezeigten Wiedergabeliste von einem erstes visuellen Zustand in einen zweiten visuellen Zustand geändert wird, der sich von dem ersten visuellen Zustand unterscheidet. Ein Ändern des Erscheinungsbilds eines Eintrags in der angezeigten Wiedergabeliste kann zumindest in einigen Ausführungsbeispielen ein Ändern einer Farbe eines Hintergrunds oder Felds des Eintrags in der angezeigten Wiedergabeliste, des Texts des Eintrags in der angezeigten Wiedergabeliste oder beides aufweisen. Alternativ kann das aktuell ausgewählte Datenobjekt nicht gezeigt werden oder anderweitig auf der Anzeige
112 angezeigt werden. - Das aktuell ausgewählte Datenobjekt kann in Wiedergabe sein, wenn zum Beispiel das aktuell ausgewählte Datenobjekt ein digitales Bild oder graphisches Objekt ist, kann das aktuell ausgewählte digitale Bild oder die Grafik auf der Anzeige
112 angezeigt werden. Ähnlich kann, wenn das aktuell ausgewählte Datenobjekt ein Audio-Objekt ist (z. B. ein Song oder Track), der aktuell ausgewählte Song oder Track zum Beispiel mit dem Lautsprecher128 abgespielt werden. Wenn das aktuell ausgewählte Datenobjekt ein Video-Objekt ist, kann das ausgewählte Video-Objekt auf der Anzeige112 und dem Lautsprecher128 abgespielt werden. - Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird ein Inhalt eines vorherigen Datenobjekts desselben Datentyps in einem Datenspeicher der Media-Player-Anwendung, wie eine Datenbank von Datenobjekten desselben Typs, in dem Speicher
110 gespeichert, wiedergegeben (1410 ). Wenn das Datenobjekt elf digitales Bild oder ein graphisches Objekt ist, weist ein Wiedergeben ein Anzeigen des digitalen Bilds oder der Grafik, das/die von dem digitalen Bild oder dem graphischen Objekt definiert wird, auf der Anzeige112 auf. Wenn das Datenobjekt ein Video-Objekt ist, weist ein Wiedergeben ein Abspielen des Videos, das durch das Video-Objekt definiert ist, auf der Anzeige112 und einem Lautsprecher128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher. Wenn das Datenobjekt ein Audio-Objekt ist, weist ein Wiedergeben ein Abspielen des Audios (z. B. Song/Track), das durch das Audio-Objekt definiert ist, unter Verwendung des Lautsprechers128 auf oder ein Leiten eines elektrischen akustischen Audiosignals an den Datenanschluss126 zur Ausgabe an Kopfhörer oder andere externe Lautsprecher. - Das vorherige Datenobjekt wird relativ zu einem aktuell ausgewählten Datenobjekt bestimmt, zum Beispiel in alphabetischer Reihenfolge oder chronologischer Reihenfolge von älter zu neuer.
- Wenn kein Datenobjekt ausgewählt ist, überwacht die tragbare elektronische Vorrichtung
100 nicht hinsichtlich der Falten-Geste im Uhrzeigersinn oder der Falten-Geste gegen den Uhrzeigersinn, und jede Falten-Geste im Uhrzeigersinn oder Falten-Geste gegen den Uhrzeigersinn, die durchgeführt wird, wird nicht erfasst und wird ignoriert. Alternativ kann die tragbare elektronische Vorrichtung100 hinsichtlich der Falten-Geste im Uhrzeigersinn oder der Falten-Geste gegen den Uhrzeigersinn überwachen und diese erfassen, ignoriert jedoch jede erfasste Geste, wenn kein Datenobjekt ausgewählt ist. Alternativ kann das nächste oder vorherige Daten-Objekt bestimmt werden basierend auf einem Standard-Datenobjekt, wie das letzte zugegriffene Datenobjekt des gegebenen Typs in einem Media-Ordner, Datenbank oder Wiedergabeliste, oder das neueste Datenobjekt des gegebenen Typs. - Fahrzeugsimulator
- Ein Ablaufdiagramm, das ein Verfahren
1500 zum Steuern eines Fahrzeugsimulators auf einer tragbaren elektronischen Vorrichtung100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in15 gezeigt. Das Verfahren1500 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren1500 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 und den Befehls-Interpretierer162 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens1500 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren1500 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor102 der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren1500 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Ein Benutzerschnittstellenbildschirm eines Fahrzeugsimulators, wie ein Fahrsimulator (oder Videospiel) oder Flugsimulator (oder Videospiel), wird auf der berührungsempfindlichen Anzeige
118 angezeigt (1502 ). Der Benutzerschnittstellenbildschirm umfasst einen Inhaltsbereich, in dem Inhalt angezeigt wird. Der Benutzerschnittstellenbildschirm kann auch einen Rahmen oder einen Rand umfassen, der den Umfang des Inhaltsbereichs umgibt und einrahmt. - Der Inhalt, der in dem Inhaltsbereich angezeigt wird, umfasst ein Fahrzeug, das durch einen Benutzer in einer Umgebung gesteuert werden kann. Das Fahrzeug kann ein motorisiertes Fahrzeug sein, wie ein Auto, Motorrad, LKW, Motorschlitten, Geländefahrzeug (ATV – all terrain vehicle) oder ein anderes Landfahrzeug, Boot, Jetski oder ein anderes Wasserfahrzeug, Flugzeug oder ein anderes Luftfahrzeug, oder ein Shuttle oder ein anderes Raumfahrzeug. In zumindest einigen Ausführungsbeispielen ist der Fahrzeugsimulator ein Fahrspiel und das Fahrzeug ist ein Auto. Der Fahrzeugsimulator kann eine automatische oder manuelle Gangschaltung abhängig von dem Ausführungsbeispiel verwenden.
- Die tragbare elektronische Vorrichtung
100 umfasst eine Spielemaschine (nicht gezeigt), zum Beispiel in dem Speicher110 , die eine Darstellungsmaschine („Renderer”) für 2D- oder 3D-Grafik umfasst. Die Spielemaschine kann auch eine Physikmaschine, Sound, Scripting, Animation und künstliche Intelligenz unter anderen Komponenten umfassen. Die Spielemaschine stellt den Fahrzeugsimulator dar unter Verwendung von Eingaben, die durch die tragbare elektronische Vorrichtung100 empfangen werden, in Übereinstimmung mit Regeln des Fahrzeugsimulators. - Das Videospiel wird entsprechend einer geeigneten Computergrafik dargestellt und auf der berührungsempfindlichen Anzeige
118 angezeigt. Das Videospiel kann unter Verwendung von 2D-Computergrafik oder 3D-Computergrafik dargestellt werden. 2D-Computergrafik wird hauptsächlich aus zweidimensionalen Modellen erzeugt, wie geometrische 2D-Modelle, Text und digitale Bilder, und durch Techniken, die für zweidimensionale Modelle spezifisch sind. 3D-Computergrafik verwendet eine dreidimensionale Darstellung von geometrischen Daten zur Durchführung von Berechnungen und Darstellung von 2D-Bildern. - 2D-Computergrafik kann eine Form einer 3D-Projektion sein, ist jedoch nicht darauf beschränkt, die grafische Projektionen und Techniken verwendet, um eine Dreidimensionalität zu simulieren, typischerweise durch Verwendung einer formenparallelen Projektion, wobei die Sicht aus einer festen Perspektive ist, während zusätzlich mehrere Facetten von Objekten gezeigt werden. Eine 3D-Projektion wird manchmal als 2,5D, ¾-Perspektive und Pseudo-3D bezeichnet. Beispiele für grafische Projektionstechniken, die bei der 3D-Projektion verwendet werden, umfassen Schrägprojektion, orthographische Projektion, Billboarding, parallaxes Scrolling, Skyboxes und Skydomes.
- 3D-Grafik kann festes 3D, Erste-Person-Perspektive oder Dritte-Person-Perspektive sein, ist aber nicht darauf beschränkt.
- Die tragbare elektronische Vorrichtung
100 überwacht hinsichtlich einer Verformung der tragbaren elektronischen Vorrichtung100 und erfasst diese (1504 ), zum Beispiel des Gehäuses202 oder eines flexiblen Skins710 , das das Gehäuse202 umgibt. - Die tragbare elektronische Vorrichtung
100 bestimmt, ob eine erfasste Verformung mit einer Kraftgeste übereinstimmt, die mit einem Beschleunigungsbefehl oder Verlangsamungsbefehl assoziiert ist, basierend auf vorgegebenen Kraftgeste-Kriterien (1506 ), wie vorgegebene Kraftgeste-Muster, die von der tragbaren elektronischen Vorrichtung100 erkannt werden. In einigen Beispielen ist die Kraftgeste, die mit dem Beschleunigungsbefehl assoziiert ist, eine Falten-Geste im Uhrzeigersinn, wie in10F gezeigt, und die Kraftgeste, die mit dem Verlangsamungsbefehl assoziiert ist, ist eine Falten-Geste gegen den Uhrzeigersinn, wie in10E gezeigt. - Die tragbare elektronische Vorrichtung
100 analysiert die Sensordaten, die von dem Sensorabschnitt302 gesammelt werden, unter Verwendung der Steuervorrichtung306 und/oder des Prozessors102 , in Bezug auf Faktoren wie Amplitude/Magnitude über die Zeit, Frequenz oder andere Faktoren, um festzustellen, ob eine erfasste Verformung mit einer bekannten Kraftgeste übereinstimmt, wie der Falten-Geste im Uhrzeigersinn und der Falten-Geste gegen den Uhrzeigersinn. - Wenn eine Falten-Geste im Uhrzeigersinn identifiziert wird, wird die Geschwindigkeit des Fahrzeugs erhöht (
1508 ). Dies weist auf ein Erhöhen eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene auf der berührungsempfindlichen Anzeige118 . In einigen Ausführungsbeispielen kann die Geschwindigkeit um einen Betrag proportional zu einer Magnitude der Kraftgeste erhöht werden. - Wenn eine Falten-Geste gegen den Uhrzeigersinn identifiziert wird, wird die Geschwindigkeit des Fahrzeugs verringert (
1510 ). Dies weist auf ein Verringern eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene auf der berührungsempfindlichen Anzeige118 . In einigen Ausführungsbeispielen kann die Geschwindigkeit um einen Betrag proportional zu einer Magnitude der Kraftgeste verringert werden. - Wenn eine manuelle Gangschaltung verwendet wird, kann eine Falten-Geste im Uhrzeigersinn mit einer Dauer, die geringer ist als eine Schwellendauer, verwendet werden, um das Fahrzeug hochzuschalten, während eine Falten-Geste im Uhrzeigersinn mit einer Dauer, die größer oder gleich der Schwellendauer ist, verwendet werden kann, um die Geschwindigkeit des Fahrzeugs zu erhöhen. Ähnlich kann eine Falten-Geste gegen den Uhrzeigersinn mit einer Dauer, die geringer ist als eine Schwellendauer, verwendet werden, um das Fahrzeug herunterzuschalten, während eine Falten-Geste gegen den Uhrzeigersinn mit einer Dauer, die größer oder gleich der Schwellendauer ist, verwendet werden kann, um die Geschwindigkeit des Fahrzeugs zu verringern. Ein manuelles Schalten veranlasst, dass ein Getriebeparameter des Fahrzeugsimulators verändert wird.
- In anderen Ausführungsbeispielen kann eine eindeutige Kraftgeste für eine manuelle Schaltung verwendet werden. Zum Beispiel kann eine nach außen gerichtete Biegen-Geste, wie in
10D gezeigt, verwendet werden, um hochzuschalten, während eine nach außen gerichtete Biegen-Geste, wie in10C gezeigt, verwendet werden, um herunterzuschalten. - Die tragbare elektronische Vorrichtung
100 überwacht auch hinsichtlich einer Beschleunigung der tragbaren elektronischen Vorrichtung100 und erfasst diese (1512 ). - Die tragbare elektronische Vorrichtung
100 bestimmt, ob die erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung der tragbaren elektronischen Vorrichtung100 übereinstimmt (1514 ). Eine deutliche Änderung der Orientierung kann eine Änderung der Orientierung sein, die eine Schwellenänderung der Orientierung in eine oder mehrere Richtungen übersteigt, wie eine Änderung der Neigung der tragbaren elektronischen Vorrichtung100 , die eine Schwellenänderung der Neigung übersteigt. - Wenn eine erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung des tragbaren elektronischen Vorrichtung übereinstimmt, wird die Orientierung des Fahrzeugs in die geeignete Richtung geändert (
1516 ). Dies weist auf ein Ändern eines Werts von einem oder mehreren Orientierungsparametern in Übereinstimmung mit einer Richtung der deutlichen Änderung der Orientierung, Darstellen einer neuen Szene mit dem Fahrzeug und der Umgebung unter Verwendung des geänderten Werts des einen oder mehrerer Orientierungsparameter, und Anzeigen der dargestellten neuen Szene auf der berührungsempfindlichen Anzeige118 . - Obgleich die Operationen
1512 –1516 in Bezug auf Berührungsgesten abfolgend nach den Kraftgeste-Operationen1502 –1510 gezeigt werden, können in anderen Ausführungsbeispielen die Operationen1512 –1516 vor oder gleichzeitig mit den Kraftgeste-Operationen1502 –1510 stattfinden. - Vorrichtungssicherheit
- Ein Ablaufdiagramm, das ein Verfahren
1600 zum Vorsehen von Sicherheit auf einer tragbaren elektronischen Vorrichtung100 unter Verwendung von Kraftgesten in Übereinstimmung mit einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung darstellt, wird in16 gezeigt. Das Verfahren1600 kann unter Verwendung einer der oben beschriebenen Sensoranordnungen oder einer anderen geeigneten Sensoranordnung durchgeführt werden. Das Verfahren1600 kann zumindest teilweise ausgeführt werden durch Software, wie den Gesten-Interpretierer160 , Befehls-Interpretierer162 und ein Sicherheitsmodul164 , ausgeführt durch den Prozessor102 , die Steuervorrichtung306 oder eine Kombination daraus. Eine Codierung von Software zur Ausführung eines solchen Verfahrens1600 liegt im Bereich der Fähigkeiten von Fachleuten der Technik, gegeben die vorliegende Offenbarung. Das Verfahren1600 kann zusätzliche oder weniger Prozesse als gezeigt und/oder beschrieben enthalten und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der durch zumindest einen Prozessor102 der tragbaren elektronischen Vorrichtung100 ausführbar ist, um das Verfahren1600 durchzuführen, kann in einem computerlesbaren Medium, wie dem Speicher110 , gespeichert werden. - Der Prozessor
102 überwacht eine Auslösebedingung zum Initiieren eines sicheren Modus auf der tragbaren elektronischen Vorrichtung100 (1602 ). Die Auslösebedingung kann eine aus einer Anzahl von Auslösebedingungen sein. Die Auslösebedingungen können umfassen eine vorgesehene Eingabe, Inaktivität der Eingabevorrichtungen für eine Schwellendauer, Inaktivität des Kommunikationsteilsystems104 für eine Schwellendauer, Fehlen einer drahtlosen Netzwerkabdeckung für eine Schwellendauer, Platzieren der tragbaren elektronischen Vorrichtung100 in einer Vorrichtungstasche oder Schließen der tragbaren elektronischen Vorrichtung100 , oder eine andere geeignete Auslösebedingung, sind aber nicht darauf beschränkt. Die vorgesehene Eingabe kann jede geeignete Eingabe sein, einschließlich Drücken eines vorgesehenen Knopfs, einer vorgesehenen Taste oder der Navigationsvorrichtung, eine Navigationseingabe von der Navigationsvorrichtung, eine Berührungseingabe von der berührungsempfindlichen Anzeige118 , eine Vorrichtungsausrichtung, die von dem Beschleunigungsmesser136 oder einem anderen Orientierungssensor erfasst wird, eine Kraftgeste, die von dem Gestenerfassungs-Teilsystem122 erfasst wird, eine Bewegungsgeste, die von dem Beschleunigungsmesser136 oder einem anderen Bewegungssensor erfasst wird, oder eine Kombination daraus. - Wenn die Auslösebedingung erfasst wird, wird ein sicherer Modus auf der tragbaren elektronischen Vorrichtung
100 initiiert (1604 ). Wenn keine Auslösebedingung erfasst wird, fährt der Prozessor102 fort, hinsichtlich der Auslösebedingung zum Initiieren eines sicheren Modus zu überwachen, bis der Prozess deaktiviert wird. - Die tragbare elektronische Vorrichtung
100 kann mehrere sichere Modi haben, einschließlich eines Standby-Modus und eines gesperrten Modus, aber nicht darauf beschränkt. In dem Standby-Modus ist der Prozessor102 konfiguriert, keine Berührungseingaben anzunehmen, die über die berührungsempfindliche Anzeige118 empfangen werden. In einigen Beispielen ist die vorgesehene Eingabe, um den Standby-Modus zu initiieren, eine vorgesehene Kraftgeste oder eine Sequenz von Kraftgesten. Die Sequenz von Gesten kann eine Anzahl von Kraftgesten mit relativen Timing Elementen aufweisen. Die vorgesehene(n) Kraftgeste(n) kann/können derart gewählt sein, dass die vorgesehene(n) Kraftgeste(n) kaum versehentlich durchgeführt wird/werden. Die vorgesehene(n) Kraftgeste(n) kann/können auch derart gewählt werden, dass die relativ einfache und intuitive Kraftgeste(n) ist/sind, um unter anderem eine Benutzerakzeptanz zu erleichtern. In einigen Beispielen kann/können die vorgesehene(n) Kraftgeste(n) eine Drücken-Geste gefolgt von einer Ziehen-Geste sein. Diese Sequenz von Gesten kann für einige Benutzer intuitiv sein, was in etwa die Interaktion mit einem herkömmlichen Vorhängeschloss simuliert. In einigen Beispielen kann/können die vorgesehene(n) Kraftgeste(n) eine schnelle Drücken-Geste gefolgt von einer schnellen Ziehen-Geste innerhalb einer Schwellendauer der schnellen Drücken-Geste sein. - In dem gesperrten Modus werden Beschränkungen, die eine Interaktion mit der tragbaren elektronischen Vorrichtung
100 begrenzen, forciert. Die Beschränkungen auf der tragbaren elektronischen Vorrichtung100 in dem gesperrten Modus betreffen zumindest einige ihrer Eingabevorrichtungen und optional zumindest einige ihrer Ausgabevorrichtungen. Während die Beschränkungen auf der tragbaren elektronischen Vorrichtung100 in dem gesperrten Modus variieren können, verhindern die Beschränkungen typischerweise, dass Dateien, Nachrichten oder andere Information, die auf der tragbaren elektronischen Vorrichtung100 gespeichert sind, betrachtet werden können, verhindern, dass Email oder andere elektronische Nachrichten erstellt oder gesendet werden, und verhindern, dass Telefonanrufe von der tragbaren elektronischen Vorrichtung100 getätigt werden (außer in einigen Ausführungsbeispielen ausgewählte Telefonanrufe, wie 911-Notrufe, die möglich sein können, wenn die tragbare elektronische Vorrichtung100 in dem gesperrten Modus ist). Eingehende Telefonanrufe können angenommen werden, wenn die tragbare elektronische Vorrichtung100 in dem gesperrten Modus ist, in zumindest einigen Ausführungsbeispielen. Ein Sperren der tragbaren elektronischen Vorrichtung100 verhindert effektiv das Hinzufügen oder Entnehmen von Information zu/von der tragbaren elektronischen Vorrichtung100 , außer einer Eingabe einer vorgesehenen Eingabe, wie ein Passwort oder eine andere Eingabe, um die tragbare elektronische Vorrichtung100 zu entsperren, die durch das Sicherheitsmodul164 erkannt wird. Jede Kombination der oben angeführten Beschränkungen kann in dem gesperrten Modus von verschiedenen Ausführungsbeispielen angewendet werden. - Der gesperrte Modus kann mit einem Sleep- bzw. Schlafen-Modus assoziiert sein, in dem Komponenten der tragbaren elektronischen Vorrichtung
100 in einen Energiesparmodus versetzt sind, um Energie zu sparen. Der Sleep-Modus kann aufweisen ein Inaktivieren/Deaktivieren der berührungsempfindlichen Anzeige118 oder möglicherweise der Anzeige112 der berührungsempfindlichen Anzeige118 . In solchen Ausführungsbeispielen weist ein Initiieren eines gesperrten Modus auf ein Deaktivieren der berührungsempfindlichen Anzeige118 oder der Anzeige112 und ein Beenden des gesperrten Modus weist auf ein Reaktivieren der berührungsempfindlichen Anzeige118 oder der Anzeige112 . - Wenn die tragbare elektronische Vorrichtung
100 in dem sicheren Modus ist, überwacht der Prozessor102 hinsichtlich einer vorgesehenen Eingabe, um den sicheren Modus zu beenden (1606 ). Wenn die vorgesehene Eingabe zum Beenden des sicheren Modus erfasst wird, wird der sichere Modus beendet (1608 ). Die vorgesehene Eingabe zum Beenden des sicheren Modus weist eine erste Kraftgeste oder eine erste Sequenz Von Kraftgesten auf. Der sichere Modus wird beendet, wenn die erste Kraftgeste oder die erste Sequenz von Kraftgesten erfasst wird. - Wenn der sichere Modus der Standby-Modus ist, weist ein Beenden des sicheren Modus auf ein Neukonfigurieren des Prozessors
102 , um Berührungseingaben anzunehmen, die über die berührungsempfindliche Anzeige118 empfangen werden. Die Anzeige112 wird ebenfalls reaktiviert, wenn sie deaktiviert wurde, als der Standby-Modus in604 initiiert wurde. Die vorgesehene Eingabe, um den Standby-Modus zu beenden, ist typischerweise viel einfacher als die vorgesehene Eingabe, um den gesperrten Modus zu beenden. In einigen Beispielen kann die vorgesehene Eingabe, um den Standby-Modus zu initiieren (d. h. die Auslösebedingung), dieselbe sein wie die vorgesehene Eingabe, um den Standby-Modus zu beenden, was eine vorgesehene Kraftgeste oder eine Sequenz von Kraftgesten sein kann, wie oben beschrieben wird. - Wenn der sichere Modus der gesperrte Modus ist, veranlasst jede empfangene Eingabe, dass die Anzeige
112 reaktiviert wird, wenn sie deaktiviert wurde, als der gesperrte Modus bei1604 initiiert wurde. Eine Aufforderung für eine vorgesehene Eingabe, um den sicheren Modus (d. h. den gesperrten Modus) zu beenden, wird typischerweise dann auf der Anzeige112 angezeigt. Wenn keine vorgesehene Eingabe zum Entsperren der tragbaren elektronischen Vorrichtung100 empfangen wird innerhalb einer Schwellendauer der Anzeige der Aufforderung, fährt der Prozessor102 fort, hinsichtlich einer vorgesehenen Eingabe zu überwachen, um den sicheren Modus zu beenden. Alternativ kann ein leerer Benutzerschnittstellenbildschirm anstelle einer Aufforderung angezeigt werden. Die vorgesehene Eingabe, um den gesperrten Modus zu beenden, ist typischerweise verschieden von einer vorgesehenen Eingabe zum Initiieren des gesperrten Modus, im Gegensatz zu dem weniger sicheren Standby-Modus. - Während eine Eingabeaufforderung angezeigt werden kann, werden keine Hinweise, Referenzen oder Richtlinien angezeigt, um eine Sicherheit zu erhöhen. Dies reduziert die Möglichkeit, dass die Kraftgeste-Passcode-Sequenz von anderen erraten werden kann, da es einen visuellen Hinweis oder eine Anleitung hinsichtlich der Eigenschaft der Kraftgesten, aus denen die Kraftgeste-Passcode-Sequenz besteht, der Anzahl der Kraftgesten in der Kraftgeste-Passcode-Sequenz oder Timing-Aspekte der Kraftgeste-Passcode-Sequenz gibt. Dies reduziert ebenfalls die Möglichkeit, dass die Kraftgeste-Passcode-Sequenz von anderen beobachtet werden kann, und dadurch der Passcode gefährdet wird.
- In einigen Beispielen kann die vorgesehene Eingabe zum Beenden des gesperrten Modus eine komplexe Sequenz von Kraftgesten sein. Die Sequenz von Gesten kann eine Anzahl von Kraftgesten mit relativen Timing-Elementen aufweisen, die als eine Passcode-Sequenz wirken, um die tragbare elektronische Vorrichtung
100 zu entsperren. Zum Beispiel kann die Sequenz von Gesten aus zwei schnellen Drücken-Gesten, gefolgt von einer langsamen Verdrehung nach rechts, auf die ein Biegung nach innen folgt, bestehen. Diese Sequenz von Gesten kann für einige Benutzer intuitiv sein, da sie in etwa einen geheimen Handschlag simuliert. Wenn die Sequenz von Kraftgesten erfasst oder erkannt wird, werden die Beschränkungen auf der tragbaren elektronischen Vorrichtung100 , die in dem gesperrten Modus forciert wurde, entfernt und ein normaler Betrieb wird wiederaufgenommen. - Ein Verfahren zum Evaluieren von Kraftgeste-Passcode-Sequenzen gemäß einem beispielhaften Ausführungsbeispiel der vorliegenden Offenbarung wird im Folgenden beschrieben. Der Prozessor
102 verfolgt bestimmte Kraftgesten durch Hinzufügen eines Werts entsprechend jeder identifizierten Kraftgeste zu einem Eingabepuffer (nicht gezeigt), der in RAM108 oder gegebenenfalls dem Speicher110 gespeichert ist, für eine nachfolgende Verwendung bei Vergleichsoperationen. Der Prozessor102 ist konfiguriert zum Interpretieren jeder Kraftgeste als einen eindeutigen Eingabewert, der zu dem Eingabepuffer hinzugefügt wird. In einigen Ausführungsbeispielen kann ein Wert zu dem Eingabepuffer hinzugefügt werden für Kraftgesten, die erfasst, aber nicht identifiziert werden. Wenn zum Beispiel nur ein begrenzter Satz von Kraftgesten durch den Prozessor102 erkannt und identifiziert wird, wird ein entsprechender Wert zu dem Eingabepuffer hinzugefügt für andere Kraftgesten. Der Wert kann ein eindeutiger Eingabewert, der mit allen nicht-identifizierten Kraftgesten assoziiert ist, oder ein zufälliger Wert sein. Alternativ können nicht-identifizierte Kraftgesten ignoriert werden. - Dann analysiert der Prozessor
102 die Werte in dem Eingabepuffer, um zu bestimmen, ob die Sequenz von erfassten Kraftgesten mit einer vorgegebenen Kraftgeste-”Passcode”-Sequenz übereinstimmt. Die Werte, die in dem Eingabepuffer gespeichert sind, werden mit Werten verglichen, die der Kraftgeste-Passcode-Sequenz entsprechen, und wenn die Werte gleich sind, gibt es eine Übereinstimmung. Wenn die Werte nicht gleich sind, gibt es keine Übereinstimmung. - Dies kann auftreten, wenn der Eingabepuffer mit eindeutigen Eingabewerten für identifizierte Kraftgesten gefüllt ist, aber die Serie oder Sequenz in dem Eingabepuffer nicht mit den Werten für die vorgegebene Kraftgeste-Passcode-Sequenz übereinstimmt, oder wenn ein Wert, der einer nicht-identifizierten Kraftgeste entspricht, in dem Eingabepuffer enthalten ist, abhängig von dem Ausführungsbeispiel. In beiden Fällen gibt es keine Übereinstimmung und der Entsperren-Prozess schlägt fehl.
- In einigen Ausführungsbeispielen ist eine vorgegebene Freigabe- bzw. Abschicken-Eingabe erforderlich, damit Vergleichsoperationen durchgeführt werden können. Die vorgegebene Freigabe-Eingabe kann eine Auswahl eines vorgegebenen virtuellen Knopfs, eine Aktivierung einer bestimmten Freigabe-Taste, vorgegebenen Taste oder Tastenkombination in einer Tastatur oder Knopf, oder jede andere geeignete Eingabe sein.
- In anderen Ausführungsbeispielen kann der Prozessor
102 automatisch den Vergleich durchführen, nachdem die Anzahl von Eingabewerten, die in dem Eingabepuffer gespeichert ist, dieselbe Anzahl („N”) wie die Eingabewerte in der Kraftgeste-Passcode-Sequenz erreicht. In anderen Ausführungsbeispielen wird ein Vergleich durchgeführt, nachdem jede Kraftgeste erfasst wird, derart, dass eine fehlerhafte Eingabe an der ersten Instanz einer Abweichung von der vorgegebenen Kraftgeste-Passcode-Sequenz erfasst wird. - Wenn eine Übereinstimmung existiert, wird die tragbare elektronische Vorrichtung
100 entsperrt und die Beschränkungen auf der tragbaren elektronischen Vorrichtung100 werden entfernt und der normale Betrieb wird wieder aufgenommen. Eine erfolgreiche Eingabe einer Serie von Kraftgesten kann durch eine Nachricht oder ein Dialogfeld angezeigt werden, die/das auf der berührungsempfindlichen Anzeige118 angezeigt wird, in einigen Ausführungsbeispielen. Alternativ kann die tragbare elektronische Vorrichtung100 zu dem Hauptbildschirm der tragbaren elektronischen Vorrichtung100 zurückkehren oder zu dem Benutzerschnittstellenbildschirm zurückkehren, der verwendet wurde, als die tragbare elektronische Vorrichtung100 gesperrt wurde. - Wenn keine Übereinstimmung existiert, bleibt die tragbare elektronische Vorrichtung
100 gesperrt, und der Entsperren-Prozess schlägt fehl. In einigen Ausführungsbeispielen kann der Prozessor102 konfiguriert sein zum Durchführen einer Vorrichtungslöschung und alle Benutzerdaten und/oder Dienstdaten löschen, die in dem Speicher110 und/oder RAM108 gespeichert sind, wenn der Benutzer eine falsche Kraftgeste-Passcode-Sequenz öfter als eine Schwellenanzahl von Malen eingibt, ohne die korrekte Kraftgeste-Passcode-Sequenz einzugeben. Zum Beispiel führen in einem möglichen Ausführungsbeispiel fünf fehlgeschlagene Versuche, eine Kraftgeste-Passcode-Sequenz korrekt einzugeben ohne eine stattfindende erfolgreiche Benutzerauthentifizierung, zu einem Löschen der Vorrichtung. - Es gibt zahlreiche mögliche Permutationen von Kraftgesten- und Befehls-Kombinationen; jedoch sind nicht alle Kraftgesten- und Befehls-Kombinationen prozedural effizient zu implementieren oder intuitiv für einen Benutzer. Die vorliegende Offenbarung beschreibt eine Anzahl von Kraftgesten- und Befehls-Kombinationen, die auf relativ einfache Weise in einer GUI implementiert werden können, ohne umständlich zu werden in Bezug auf Verarbeitung oder Benutzererfahrung, und ohne in Konflikt zu treten mit anderen gestischen Befehlseingaben, Berührungsbefehlseingaben oder anderen Befehlseingaben. Die Kraftgesten- und Befehls-Kombinationen, die hier beschrieben werden, bieten eine intuitivere Benutzerschnittstelle zum Vorsehen der beschriebenen Funktionalität mit weniger Verarbeitungskomplexität als Alternativen, wie Menü-betriebene oder Knopf/Taste-betriebene Alternativen.
- Der Begriff „computerlesbares Medium”, wie hier verwendet, bedeutet jedes Medium, das Anweisungen zur Verwendung oder Ausführung durch einen Computer oder eine andere Computervorrichtung speichern kann, einschließlich, aber nicht darauf beschränkt, eine tragbare Computerdiskette, ein Festplattenlaufwerk (HDD – hard disk drive), ein RAM, ein ROM, ein EPROM (erasable programmable-read-only memory) oder Flash-Speicher, eine optische Disk, wie CD (Compact Disc), DVD (Digital Versatile Disc) oder Blu-rayTM-Disk, und eine Festspeichervorrichtung (z. B. NAND Flash oder SDRAM (synchronous dynamic RAM)).
- Während die vorliegende Offenbarung zumindest teilweise in Bezug auf Verfahren beschrieben wird, ist für Fachleute offensichtlich, dass die vorliegende Offenbarung auch auf die verschiedenen Komponenten bezogen ist zur Durchführung zumindest einiger der Aspekte und Merkmale der beschriebenen Verfahren, entweder durch Hardware-Komponenten, Software oder einer Kombination aus den beiden oder auf andere Weise. Weiter betrifft die vorliegende Offenbarung auch eine vorgespeicherte Speichervorrichtung oder ein anderes ähnliches computerlesbares Medium, einschließlich Programmanweisungen, die darauf gespeichert sind, zur Durchführung des hier beschriebenen Verfahrens.
- Die vorliegende Offenbarung kann in anderen spezifischen Formen eingesetzt werden, ohne von ihrem Sinn oder wesentlichen Charakteristiken abzuweichen. Die beschriebenen beispielhaften Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend betrachtet werden. Die vorliegende Offenbarung soll alle geeigneten Änderungen der Technologie abdecken und umfassen. Der Umfang der vorliegenden Offenbarung wird daher durch die angefügten Ansprüche beschrieben und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Gleichwertigkeiten der Ansprüche fallen, sollen in ihrem Umfang aufgenommen sein.
Claims (28)
- Verfahren zur Gesten-Erkennung auf einer tragbaren elektronischen Vorrichtung, das aufweist: Erfassen einer Verformung der tragbaren elektronischen Vorrichtung; Bestimmen einer Aktion, die mit einer erfassten Verformung assoziiert ist; und Veranlassen, dass die bestimmte Aktion durchgeführt wird.
- Verfahren gemäß Anspruch 1, wobei das Bestimmen aufweist: Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Bestimmen der Aktion, die mit der bestimmten Kraftgeste assoziiert ist.
- Verfahren gemäß Anspruch 1 oder Anspruch 2, wobei die bestimmte Aktion nur durchgeführt wird, wenn eine vorgesehene Eingabe vor der erfassten Verformung erfasst wird.
- Verfahren gemäß Anspruch 1 oder Anspruch 2, wobei die bestimmte Aktion nur durchgeführt wird, wenn eine vorgesehene Eingabe während der erfassten Verformung erfasst wird.
- Verfahren gemäß Anspruch 3 oder Anspruch 4, wobei die bestimmte Aktion in Übereinstimmung mit der bestimmten Kraftgeste und der vorgesehenen Eingabe bestimmt wird, die vor oder während der erfassten Verformung erfasst wird.
- Verfahren gemäß einem der Ansprüche 3 bis 5, wobei die vorgesehene Eingabe eine Berührungseingabe auf einer berührungsempfindlichen Anzeige der tragbaren elektronischen Vorrichtung ist.
- Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms, der einen Inhaltsbereich umfasst, in dem Inhalt angezeigt wird; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Veranlassen einer ersten Änderung des Inhalts des Benutzerschnittstellenbildschirms; wenn die zweite Kraftgeste erfasst wird, Veranlassen einer zweiten Änderung des Inhalts des Benutzerschnittstellenbildschirms.
- Verfahren gemäß Anspruch 7, wobei die erste Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag vergrößert (zoomed-in) wird, und wobei die zweite Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag verkleinert (zoomed-out) wird.
- Verfahren gemäß Anspruch 8, wobei die erste Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms in der Größe vergrößert wird von einer aktuellen Skalierung zu einer nächstgrößeren Skalierung in einem vorgegebenen Bereich von Skalierungen, und die zweite Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms in der Größe verringert wird von der aktuellen Skalierung zu einer nächstkleineren Skalierung in dem vorgegebenen Bereich von Skalierungen.
- Verfahren gemäß Anspruch 8 oder Anspruch 9, wobei die erste Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag in der Größe vergrößert wird, und die zweite Kraftgeste veranlasst, dass der Inhalt des Benutzerschnittstellenbildschirms um einen vorgegebenen Betrag in der Größe verringert wird.
- Verfahren gemäß einem der Ansprüche 8 bis 10, wobei die erste Kraftgeste eine Falten-Geste im Uhrzeigersinn ist und die zweite Kraftgeste eine Falten-Geste gegen den Uhrzeigersinn ist.
- Verfahren gemäß einem der Ansprüche 8 bis 11, das weiter aufweist: Erfassen von Berührungseingaben auf einer berührungsempfindlichen Anzeige der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Berührungseingabe eine Panning- bzw. Verschieben-Berührungsgeste ist, basierend auf vorgegebenen Berührungsgeste-Kriterien; wenn die Berührungseingabe eine Verschieben-Berührungsgeste ist, Verschieben des Inhalts des Benutzerschnittstellenbildschirms in eine Richtung der Verschieben-Berührungsgeste.
- Verfahren gemäß Anspruch 12, wobei ein Swipe bzw. Wischen nach links, ein Wischen nach rechts, ein Wischen nach oben und ein Wischen nach unten jeweils Verschieben-Berührungsgesten sind, wobei der Inhalt des Benutzerschnittstellenbildschirms nach rechts verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach links erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms nach links verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach rechts erfasst wird, der Inhalt des Benutzerschnittstellenbildschirms nach unten verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach oben erfasst wird, und der Inhalt des Benutzerschnittstellenbildschirms nach oben verschoben wird, wenn die erfasste Berührungseingabe als ein Wischen nach unten erfasst wird.
- Verfahren gemäß Anspruch 7, wobei der Benutzerschnittstellenbildschirm ein Dokumentenbetrachter-Benutzerschnittstellenbildschirm ist, wobei die erste Kraftgeste veranlasst, dass eine nächste Seite des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, und wobei die zweite Kraftgeste veranlasst, dass eine vorherige Seite des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird.
- Verfahren gemäß Anspruch 7, wobei der Benutzerschnittstellenbildschirm ein Dokumentenbetrachter-Benutzerschnittstellenbildschirm ist, wobei die erste Kraftgeste veranlasst, dass ein nächster Teil des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, und wobei die zweite Kraftgeste veranlasst, dass ein vorheriger Teil des Inhalts in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird.
- Verfahren gemäß Anspruch 7, wobei der Benutzerschnittstellenbildschirm ein Kalender-Benutzerschnittstellenbildschirm ist, wobei die erste Kraftgeste veranlasst, dass eine nächste Ansicht des Kalenders in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, und wobei die zweite Kraftgeste veranlasst, dass eine vorherige Ansicht des Kalenders in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird.
- Verfahren gemäß Anspruch 16, wobei die nächste Ansicht in einer sequenziellen Reihenfolge von Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, wenn die erste Kraftgeste erfasst wird, und die vorherige Ansicht in der sequenziellen Reihenfolge von Ansichten in dem Inhaltsbereich des Benutzerschnittstellenbildschirms angezeigt wird, wenn die zweite Kraftgeste erfasst wird.
- Verfahren gemäß einem der Ansprüche 14 bis 17, wobei die erste Kraftgeste eine Falten-Geste im Uhrzeigersinn ist und die zweite Kraftgeste eine Falten-Geste gegen den Uhrzeigersinn ist.
- Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn eine Falten-Geste im Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines nächsten Datenobjekts in einem Datenspeicher einer Media-Player-Anwendung; wenn eine Falten-Geste gegen den Uhrzeigersinn erfasst wird, Wiedergeben von Inhalt eines vorherigen Datenobjekts in einem Datenspeicher der Media-Player-Anwendung.
- Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Anzeigen eines Benutzerschnittstellenbildschirms, der einen Inhaltsbereich umfasst, in dem Inhalt angezeigt wird, wobei der Inhalt ein Fahrzeug in einer Umgebung umfasst; Bestimmen, ob eine erfasste Verformung mit einer ersten Kraftgeste oder einer zweiten Kraftgeste übereinstimmt; wenn die erste Kraftgeste erfasst wird, Erhöhen eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene, einschließlich des Fahrzeugs und der Umgebung, unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene; wenn die zweite Kraftgeste erfasst wird, Verringern eines Werts eines Geschwindigkeitsparameters des Fahrzeugsimulators, Darstellen einer neuen Szene, einschließlich des Fahrzeugs und der Umgebung, unter Verwendung des neuen Werts des Geschwindigkeitsparameters, und Anzeigen der dargestellten neuen Szene.
- Verfahren gemäß Anspruch 20, das weiter aufweist: Erfassen einer Beschleunigung der tragbaren elektronischen Vorrichtung; Bestimmen, ob eine erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung der tragbaren elektronischen Vorrichtung übereinstimmt; wenn eine erfasste Beschleunigung mit einer deutlichen Änderung der Orientierung der tragbaren elektronischen Vorrichtung übereinstimmt, Ändern eines Werts von einem oder mehreren Orientierungsparametern in Übereinstimmung mit einer Richtung der deutlichen Änderung der Orientierung, Darstellen einer neuen Szene, einschließlich des Fahrzeugs und der Umgebung, unter Verwendung des geänderten Werts des einen oder mehrerer Orientierungsparameter, und Anzeigen der dargestellten neuen Szene.
- Verfahren gemäß einem der Ansprüche 1 bis 6, das aufweist: Bestimmen einer Kraftgeste, die mit der erfassten Verformung assoziiert ist; Überwachen, wenn die tragbare elektronische Vorrichtung in einem sicheren Modus ist, hinsichtlich einer vorgesehenen Eingabe zum Beenden des scheren Modus, wobei die vorgesehene Eingabe zum Beenden des sicheren Modus eine erste Kraftgeste oder eine erste Sequenz von Kraftgesten aufweist; und Beenden des sicheren Modus, wenn die erste Kraftgeste oder erste Sequenz von Kraftgesten erfasst wird.
- Verfahren gemäß einem der Ansprüche 1 bis 22, wobei die erfasste Verformung eine Verformung eines im Wesentlichen starren Gehäuses der tragbaren elektronischen Vorrichtung ist.
- Verfahren gemäß einem der Ansprüche 1 bis 22, wobei die erfasste Verformung eine Verformung einer flexiblen Hülle bzw. Skins ist, die ein im Wesentlichen starres Gehäuse der tragbaren elektronischen Vorrichtung umgibt.
- Tragbare elektronische Vorrichtung, die aufweist: ein im Wesentlichen starres Gehäuse, das einen Prozessor, einen mit dem Prozessor gekoppelten Sensor, wobei der Sensor eine Verformung der tragbaren elektronischen Vorrichtung erfasst, und eine mit dem Prozessor gekoppelte Anzeige enthält; wobei der Prozessor konfiguriert ist zur Durchführung des Verfahrens gemäß einem der Ansprüche 1 bis 22.
- Tragbare elektronische Vorrichtung gemäß Anspruch 25, die weiter aufweist: ein flexibles Skin, das das Gehäuse umgibt, wobei das flexible Skin einen Magnet trägt; wobei der Sensor einen Magnetsensor aufweist, der mit dem Prozessor gekoppelt ist, der ein magnetisches Feld überwacht, das von dem Magnet in dem flexiblen Skin erzeugt wird.
- Tragbare elektronische Vorrichtung gemäß Anspruch 26, wobei das flexible Skin elastisch zusammendrückbar ist, so dass es lokal aus einem neutralen Zustand in einen betätigten Zustand gedrückt wird in Reaktion auf eine Druckkraft, und aus dem betätigten Zustand in den neutralen Zustand zurückkehrt, wenn die Druckkraft entfernt wird, wobei der Magnet in dem flexiblen Skin eingebettet ist, um sich in Reaktion auf Änderungen zwischen dem neutralen Zustand und dem betätigten Zustand zu bewegen.
- Tragbare elektronische Vorrichtung gemäß Anspruch 26, wobei der Sensor eine erste Erfassungsschicht aufweist, die sich in dem Gehäuses entlang einer ersten Seite davon erstreckt, wobei die erste Erfassungsschicht eine Druck-Erfassungsschicht umfasst, die eine Druckeingabe an den Prozessor liefert.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CA2011/050186 WO2012135935A2 (en) | 2011-04-06 | 2011-04-06 | Portable electronic device having gesture recognition and a method for controlling the same |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112011100087T5 true DE112011100087T5 (de) | 2013-01-31 |
Family
ID=45656623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112011100087T Withdrawn DE112011100087T5 (de) | 2011-04-06 | 2011-04-06 | Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2508960A3 (de) |
CA (1) | CA2770784A1 (de) |
DE (1) | DE112011100087T5 (de) |
GB (1) | GB2494482A (de) |
WO (1) | WO2012135935A2 (de) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102870067B (zh) | 2010-03-25 | 2016-05-11 | 诺基亚技术有限公司 | 电子装置的扭曲 |
WO2011144972A1 (en) | 2010-05-21 | 2011-11-24 | Nokia Corporation | A method, an apparatus and a computer program for controlling an output from a display of an apparatus |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US9823707B2 (en) | 2012-01-25 | 2017-11-21 | Nokia Technologies Oy | Contortion of an electronic apparatus |
US9823696B2 (en) | 2012-04-27 | 2017-11-21 | Nokia Technologies Oy | Limiting movement |
US9158334B2 (en) | 2012-10-22 | 2015-10-13 | Nokia Technologies Oy | Electronic device controlled by flexing |
US9158332B2 (en) | 2012-10-22 | 2015-10-13 | Nokia Technologies Oy | Limiting movement |
US10817096B2 (en) | 2014-02-06 | 2020-10-27 | Apple Inc. | Force sensor incorporated into display |
CN104969158A (zh) | 2012-12-14 | 2015-10-07 | 苹果公司 | 通过电容变化进行力感测 |
KR102090711B1 (ko) | 2013-02-01 | 2020-03-19 | 삼성디스플레이 주식회사 | 신축성 디스플레이 장치 및 이의 제어 방법. |
KR20170103026A (ko) | 2013-02-08 | 2017-09-12 | 애플 인크. | 용량성 감지에 기초한 힘 결정 |
US9851828B2 (en) | 2013-03-15 | 2017-12-26 | Apple Inc. | Touch force deflection sensor |
KR102118403B1 (ko) * | 2013-05-08 | 2020-06-03 | 삼성전자주식회사 | 연성 기기, 연성 기기의 형상 감지 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
KR102145504B1 (ko) * | 2013-05-23 | 2020-08-19 | 삼성디스플레이 주식회사 | 전자 장치, 전자 장치의 잠금 해제 방법, 및 전자 장치의 주밍 및 토글링 제어 방법 |
US9671889B1 (en) | 2013-07-25 | 2017-06-06 | Apple Inc. | Input member with capacitive sensor |
US9915572B2 (en) | 2013-09-29 | 2018-03-13 | Apple Inc. | Force sensing compliant enclosure |
KR102209332B1 (ko) * | 2014-01-06 | 2021-02-01 | 삼성디스플레이 주식회사 | 스트레쳐블 표시장치 및 이의 제어방법 |
AU2015217268B2 (en) | 2014-02-12 | 2018-03-01 | Apple Inc. | Force determination employing sheet sensor and capacitive array |
WO2015163843A1 (en) | 2014-04-21 | 2015-10-29 | Rinand Solutions Llc | Mitigating noise in capacitive sensor |
US10365721B2 (en) | 2014-05-06 | 2019-07-30 | Symbol Technologies, Llc | Apparatus and method for performing a variable data capture process |
KR20170086538A (ko) * | 2014-10-30 | 2017-07-26 | 티모시 징 인 스제토 | 터치 감지, 압력 감지 및 디스플레이 가능 측면을 갖는 전자 장치 |
KR102223680B1 (ko) | 2014-11-03 | 2021-03-08 | 삼성디스플레이 주식회사 | 신축성 디스플레이 장치 및 이의 표시 제어 방법 및 장치 |
US10006937B2 (en) | 2015-03-06 | 2018-06-26 | Apple Inc. | Capacitive sensors for electronic devices and methods of forming the same |
US9715301B2 (en) | 2015-08-04 | 2017-07-25 | Apple Inc. | Proximity edge sensing |
US10007343B2 (en) | 2016-03-31 | 2018-06-26 | Apple Inc. | Force sensor in an input device |
US10372121B2 (en) * | 2016-04-26 | 2019-08-06 | Ford Global Technologies, Llc | Determination of continuous user interaction and intent through measurement of force variability |
US11210912B2 (en) | 2016-06-24 | 2021-12-28 | Nanoport Technology Inc. | Tactile feedback actuator, electronic device using same, and method of operating same |
US9916073B1 (en) | 2017-01-17 | 2018-03-13 | Nanoport Technology Inc. | Electronic device having force-based modifiable graphical elements and method of operating same |
US10719129B2 (en) | 2017-06-21 | 2020-07-21 | Nanoport Technology Inc. | Compound haptic effects using multimodal tactile feedback actuator |
US11209927B2 (en) * | 2017-12-11 | 2021-12-28 | Google Llc | Apparatus for sensing user input |
CN108227985B (zh) * | 2017-12-28 | 2022-04-05 | 业成科技(成都)有限公司 | 具有无实体按键边框的行动装置 |
US10866683B2 (en) | 2018-08-27 | 2020-12-15 | Apple Inc. | Force or touch sensing on a mobile device using capacitive or pressure sensing |
CN114616532A (zh) * | 2020-02-14 | 2022-06-10 | 华为技术有限公司 | 卷曲设备上的卷曲手势和防误触措施 |
KR20220044591A (ko) * | 2020-02-14 | 2022-04-08 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 롤링 디바이스들의 자체-적응형 디스플레이 종횡비 조정기 및 제스처 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7456823B2 (en) * | 2002-06-14 | 2008-11-25 | Sony Corporation | User interface apparatus and portable information apparatus |
EP1538536A1 (de) * | 2003-12-05 | 2005-06-08 | Sony International (Europe) GmbH | Techniken für Visualisierung und Kontrolle für digitale Multimediainhalte |
CN101133385B (zh) * | 2005-03-04 | 2014-05-07 | 苹果公司 | 手持电子设备、手持设备及其操作方法 |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
US9519857B2 (en) * | 2008-06-30 | 2016-12-13 | Nokia Technologies Oy | Apparatus and method for sensing characterizing features of a deformable structure |
US20100011291A1 (en) * | 2008-07-10 | 2010-01-14 | Nokia Corporation | User interface, device and method for a physically flexible device |
US8613394B2 (en) * | 2008-08-29 | 2013-12-24 | The Invention Science Fund I, Llc | Bendable electronic interface external control system and method |
KR20100065418A (ko) * | 2008-12-08 | 2010-06-17 | 삼성전자주식회사 | 가요성 표시부를 가지는 단말기 및 그의 데이터 표시 방법 |
EP2376999A1 (de) * | 2008-12-15 | 2011-10-19 | Koninklijke Philips Electronics N.V. | Benutzeroberflächeneinrichtung und verfahren |
-
2011
- 2011-04-06 GB GB1203259.5A patent/GB2494482A/en not_active Withdrawn
- 2011-04-06 CA CA2770784A patent/CA2770784A1/en not_active Abandoned
- 2011-04-06 WO PCT/CA2011/050186 patent/WO2012135935A2/en active Application Filing
- 2011-04-06 DE DE112011100087T patent/DE112011100087T5/de not_active Withdrawn
-
2012
- 2012-02-24 EP EP12156824.0A patent/EP2508960A3/de not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP2508960A3 (de) | 2013-07-31 |
EP2508960A2 (de) | 2012-10-10 |
GB2494482A (en) | 2013-03-13 |
WO2012135935A3 (en) | 2012-11-29 |
GB201203259D0 (en) | 2012-04-11 |
WO2012135935A2 (en) | 2012-10-11 |
CA2770784A1 (en) | 2012-10-06 |
EP2508960A9 (de) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112011100087T5 (de) | Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse | |
US20120260220A1 (en) | Portable electronic device having gesture recognition and a method for controlling the same | |
DE202005021427U1 (de) | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung | |
US8468460B2 (en) | System and method for displaying, navigating and selecting electronically stored content on a multifunction handheld device | |
EP2369460B1 (de) | Endgerät und Steuerprogramm dafür | |
DE112013002381T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts | |
DE102018116244A1 (de) | Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle | |
DE202011110722U1 (de) | Tragbare elektronische Vorrichtung mit scrollbarem Bereich | |
DE112011101209T5 (de) | Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung | |
DE112011101380T5 (de) | Berührungsempfindliche Anzeige mit variabler Wiederholungsrate | |
DE212009000073U1 (de) | Navigieren zwischen Aktivitäten in einem Computergerät | |
DE112016000085T5 (de) | Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt | |
DE112011101203T5 (de) | Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung | |
DE102013007250A1 (de) | Verfahren zur Gestensteuerung | |
DE202016001483U1 (de) | Geräte zur Steuerung einer Medienpräsentation | |
DE112011103173T5 (de) | Übergangsansicht auf einer tragbaren elektronischen Vorrichtung | |
DE102010028983A1 (de) | Zweidimensionale Berührungssensoren | |
DE102011117012A1 (de) | Erfassung von gleitbewegungen von mehreren fingern unter verwendung von fingerabdrücken zur erzeugung verschiedener ereignisse | |
DE202007013923U1 (de) | Mehrfachereignis-Eingabesystem | |
DE112018002775T5 (de) | Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat | |
DE212006000028U1 (de) | Multifunktionale Handgehaltene Vorrichtung | |
DE202008007847U1 (de) | Geschwindigkeits-/Positionsmodus-Translation | |
DE202012101741U1 (de) | Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten | |
DE202007014957U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
DE102012219165A1 (de) | Aktiver Stylus-Stift mit konfigurierbarem Berührungssensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE |
|
R081 | Change of applicant/patentee |
Owner name: BLACKBERRY LIMITED, WATERLOO, CA Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA Effective date: 20140925 |
|
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE Effective date: 20140925 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE Effective date: 20140925 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |