DE102017105924A1 - Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb - Google Patents

Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb Download PDF

Info

Publication number
DE102017105924A1
DE102017105924A1 DE102017105924.5A DE102017105924A DE102017105924A1 DE 102017105924 A1 DE102017105924 A1 DE 102017105924A1 DE 102017105924 A DE102017105924 A DE 102017105924A DE 102017105924 A1 DE102017105924 A1 DE 102017105924A1
Authority
DE
Germany
Prior art keywords
housing
computing device
touch
display
input signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017105924.5A
Other languages
English (en)
Inventor
Katie Leah Roberts-Hoffmann
Premal PAREKH
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE102017105924A1 publication Critical patent/DE102017105924A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • G06F1/166Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories related to integrated arrangements for adjusting the position of the main body with respect to the supporting surface, e.g. legs for adjusting the tilt angle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb werden hierin offenbart. Ein offenbartes beispielhaftes Computergerät beinhaltet ein erstes Gehäuse, ein im ersten Gehäuse angeordnetes Display, eine erste Vielzahl von Berührungszellen, die an einem Rand des ersten Gehäuses in einer linearen Anordnung in dem ersten Gehäuse außerhalb des Displays angeordnet ist, wobei die erste Vielzahl von Berührungszellen jeweilige einer ersten Vielzahl von Berührungsfeldern über das erste Gehäuse an einer ersten Fläche des ersten Gehäuses aussendet, einen Speicher, der maschinenlesbare Anweisungen speichert, und einen Prozessor zur Ausführung der maschinenlesbaren Anweisungen, um mindestens eine erste Vielzahl von Berührungseingabesignalen von der ersten Vielzahl von Berührungszellen zu empfangen und das Computergerät zu betreiben, um das Computing gemäß der ersten Vielzahl von Berührungseingabesignalen zu entsperren.

Description

  • GEBIET
  • Diese Offenbarung bezieht sich allgemein auf Computergeräte und insbesondere auf Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb.
  • HINTERGRUND
  • Computergeräte können eines oder mehrere Benutzereingabegeräte aufweisen, die es einem Benutzer ermöglichen, Eingaben für das Computergerät bereitzustellen. Beispiele für Benutzereingabegeräte beinhalten in nicht einschränkender Form Tastaturen, Mäuse, Trackpads, Tastfelder, Touchdisplays, Mikrofone, Touchscreens usw. Beispielhafte Computergeräte beinhalten in nicht einschränkender Form tragbare Computer, Laptop-Computer, mobile Geräte (z. B. Smartphones, Media-Player, Spielgeräte, Mobiltelefone usw.), Desktop-Computer usw.
  • KURZDARSTELLUNG
  • Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb werden hierin offenbart. In einem Aspekt kann ein Computergerät ein erstes Gehäuse, ein im ersten Gehäuse angeordnetes Display, eine erste Vielzahl von Berührungszellen, die im ersten Gehäuse, in einer linearen Anordnung außerhalb des Displays, angeordnet ist, wobei die erste Vielzahl von Berührungszellen jeweils eine erste Vielzahl von Signalen über eine erste Fläche des ersten Gehäuses aussendet, einen Prozessor, und ein nicht flüchtiges, computerlesbares Speichermedium, auf dem Anweisungen gespeichert sind, beinhalten. Wenn sie von dem Prozessor ausgeführt werden, veranlassen die Anweisungen den Prozessor, eine erste Vielzahl von Berührungseingabesignalen von der ersten Vielzahl von Berührungszellen zu empfangen; und das Computergerät in Übereinstimmung mit der ersten Vielzahl von Berührungseingabesignalen zu betreiben.
  • In einem anderen Aspekt kann ein Verfahren zum Betreiben eines Computergeräts mit einem Gehäuse und einem in dem Gehäuse angeordneten Display den Betrieb einer Vielzahl von Berührungszellen beinhalten, um jeweils eine Vielzahl von Signalen über das Gehäuse auszusenden, wobei die Vielzahl von Berührungszellen linear in dem Gehäuse, entlang eines Randabschnitts des Gehäuses, außerhalb des Displays, angeordnet ist, das Empfangen einer Vielzahl von Berührungseingabesignalen von der Vielzahl von Berührungszellen und den Betrieb des Computergeräts als Reaktion auf die Vielzahl von Berührungseingabesignalen, einschließlich Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand als Reaktion auf die Vielzahl von Berührungseingabesignalen, beinhalten.
  • In einem anderen Aspekt kann ein Computerprogrammprodukt auf einem nicht flüchtigen, computerlesbaren Medium verkörpert sein, wobei auf dem computerlesbaren Medium eine Sequenz von Anweisungen gespeichert ist. Wenn sie von einem Prozessor ausgeführt werden, können die Anweisungen den Prozessor veranlassen, ein Verfahren auszuführen, einschließlich des Betriebs einer Vielzahl von Berührungszellen, um jeweils eine Vielzahl von Signalen über ein Gehäuse eines Computergeräts auszusenden, wobei die Vielzahl von Berührungszellen linear in dem Gehäuse, entlang eines Randabschnitts des Gehäuses, außerhalb eines in dem Gehäuse positionierten Displays, angeordnet ist, das Empfangen einer Vielzahl von Berührungseingabesignalen von der Vielzahl von Berührungszellen und den Betrieb des Computergeräts als Reaktion auf die Vielzahl von Berührungseingabesignalen, einschließlich Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand als Reaktion auf die Vielzahl von Berührungseingabesignalen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung eines beispielhaften Computergeräts (z. B. eines Laptop-Computers) mit einer Wischoberfläche gemäß den Lehren dieser Offenbarung.
  • 2A2B sind Querschnittansichten von beispielhaften Wischoberflächen gemäß den Lehren dieser Offenbarung.
  • 3 ist eine Draufsicht der beispielhaften Wischoberfläche der 2A2B.
  • 4 ist eine Querschnittansicht einer anderen beispielhaften Wischoberfläche gemäß den Lehren dieser Offenbarung.
  • 5 ist eine Querschnittansicht einer weiteren anderen beispielhaften Wischoberfläche gemäß den Lehren dieser Offenbarung.
  • 6A6H veranschaulichen beispielhafte Verwendungen der hierin offenbarten beispielhaften Wischoberflächen.
  • 7A7B veranschaulichen andere beispielhafte Verwendungen der hierin offenbarten beispielhaften Wischoberflächen.
  • 7C ist eine Seitenansicht der beispielhaften Wischoberfläche der 7A7B.
  • 8A8C veranschaulichen weitere andere beispielhafte Verwendungen der hierin offenbarten beispielhaften Wischoberflächen.
  • 9A9B veranschaulichen zusätzliche beispielhafte Verwendungen der hierin offenbarten beispielhaften Wischoberflächen.
  • 9C ist eine Seitenansicht der beispielhaften Wischoberfläche der 9A9B.
  • 10 ist ein Flussdiagramm, das ein beispielhaftes Verfahren veranschaulicht, das zum Beispiel unter Verwendung maschinenlesbarer Anweisungen implementiert werden kann, die von einem oder mehreren Prozessoren ausgeführt werden, um die hierin offenbarten beispielhaften Verfahren und Verwendungen durchzuführen.
  • 11 ist eine schematische Darstellung eines beispielhaften Computergeräts und eines beispielhaften mobilen Computergeräts, die verwendet werden können, um die hierin offenbarten beispielhaften Vorrichtungen, Verfahren und Verwendungen zu implementieren.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Computergeräte können auf Eingabegeräte wie Tastaturen, Mäuse, Trackpads, Tastfelder, Touchdisplays, Mikrofone, Touchscreens und dergleichen zurückgreifen, um Benutzereingaben zu empfangen. In einem Computergerät wie einem Laptop-Computer wird der Laptop-Computer geöffnet, bevor auf integrierte Eingabegeräte zugegriffen werden kann und diese verwendet werden können. Beim Öffnen eines Laptop-Computers muss der Benutzer normalerweise warten, bis der Computer den Betrieb wiederaufnimmt oder neu startet, bevor sich der Benutzer anmelden kann und beginnen kann, den Computer zu verwenden. Dies kann ineffizient und für den Benutzer frustrierend sein. Weiter kann es sein, dass sich der Benutzer zuerst anmelden muss, bevor er eine zu verwendende Anwendung auswählen kann. Darüber hinaus haben Eingabegeräte, die mit traditionellen Laptop-Computern verbunden sind, normalerweise feste Funktionalität, was zu ineffizienter Nutzung führen kann, wenn ein Laptop-Computer mehrere Konfigurationen unterstützt, beispielsweise einen herkömmlichen Laptop-Modus, einen Präsentations- oder Zeltmodus und einen Tablet-Modus. Diese Eingabegeräte mit fester Funktionalität können die knappen Ressourcen verschwenden, die vorzugsweise zum Beispiel zur Verringerung der Größe eines Laptop-Computers verwendet werden könnten. Zusätzlich können, wenn ein Touchscreen zur Navigation einer Benutzeroberfläche verwendet wird, durch die natürlich vorkommenden Öle auf der Haut von Benutzern unerwünschte Schmierflecken auf der Berührungsfläche des Touchscreens hinterlassen werden. Darüber hinaus kann, wenn ein Touchscreen zum Entsperren eines Laptops verwendet wird, das Muster der Schmierflecken verwendet werden, um eine nicht autorisierte Anmeldung am Laptop durch Dritte zu ermöglichen, was die Sicherheit verringert und/oder beeinträchtigt.
  • Wischoberflächen auf Computergeräten, beispielsweise einem Laptop-Computer, die zumindest diese Probleme ausräumen, werden hierin offenbart. Die hierin offenbarten Wischoberflächen ermöglichen einem Benutzer, Eingaben für den Betrieb eines Laptops durch Wischen, Gleiten oder Tippen durch einen oder mehrere Finger, einen Stylus oder andere Auswahlwerkzeuge zusammen mit einem oder mehreren Sensoren bereitzustellen, die konfiguriert sind, diese Arten von Eingaben zu detektieren. In einigen Implementierungen kann das Wischen, Gleiten und/oder Tippen das Bewegen nach hinten und/oder nach vorne, nach oben und/oder nach unten, diagonal und/oder zurück und andere solche Richtungen auf Sensoren, einschließlich beispielsweise einem oder mehreren Berührungssensoren, einem oder mehreren resistiven Sensoren, einem oder mehreren Drucksensoren, einem oder mehreren Kraftsensoren, einem oder mehreren piezoelektrischen Sensoren und anderen solchen Sensoren, die in der Lage sind, die Wischbewegung des Fingers, des Stylus oder anderer Auswahlwerkzeuge an oder in der Nähe der Berührungsoberfläche zu detektieren, sein. In einigen Implementierungen kann eine Sequenz der Wischbewegungen unter Verwendung von mehr als einem Sensorensatz detektiert werden. Eine erste Bewegung kann zum Beispiel durch einen ersten Sensorensatz detektiert werden, eine Zurück- und Vor-Bewegung kann durch einen zweiten Sensorensatz detektiert werden, usw. Auch wenn hierin Laptop-Computer verwendet werden, um Beispiele für Wischoberflächen und Verfahren für deren Verwendung zu veranschaulichen, können die hierin offenbarten Beispiele in Verbindung mit anderen Computergeräten verwendet werden, zum Beispiel in nicht einschränkender Form Desktop-Computer, Tablets, konvertierbare Laptops, Smartphones, Spielsteuerungen, Netbooks, E-Book-Lesegeräte, usw.
  • Bezug wird nun im Detail auf nicht einschränkende Beispiele dieser Offenbarung genommen, von der Beispiele in den begleitenden Zeichnungen veranschaulicht sind. Die Beispiele werden unten unter Bezugnahme auf die Zeichnungen beschrieben, wobei sich gleiche Bezugszeichen auf gleiche Elemente beziehen. Wenn gleiche Bezugszeichen dargestellt sind, werden entsprechende Beschreibungen nicht wiederholt und der interessierte Leser wird für eine Beschreibung der ähnlichen Elemente auf die vorher erörterten Figuren verwiesen. Diese Beispiele und Varianten und Teile davon, die in den beigefügten Zeichnungen dargestellt sind, sind nicht maßstabsgetreu, mit spezifischen Formen oder mit spezifischen relativen Abmessungen, da sie für diese Offenbarung nicht wichtig sind und dies die Zeichnungen schwieriger verständlich machen könnte. Spezifische Elemente können für Erörterungszwecke absichtlich übertrieben dargestellt worden sein. Stattdessen wurden die Zeichnungen für Klarheit und Verständlichkeit erstellt. Ferner kann die Anordnung der Elemente und Kopplungen gemäß anderen Implementierungen dieser Offenbarung und der Ansprüche hierin unter anderem geändert und neu angeordnet werden.
  • 1 zeigt ein beispielhaftes Computergerät in Form eines Laptop-Computers 100. Der beispielhafte Laptop-Computer 100 der 1, der akkubetrieben sein kann, beinhaltet ein Display 101, eine Tastatur 102, die eine oder mehrere Tasten aufweist (von denen einer das Bezugszeichen 103 zugewiesen ist) und ein Trackpad 104, über das ein Benutzer mit dem Laptop-Computer 100 interagieren kann. Das Trackpad 104 kann durch ein Tastfeld implementiert werden. Der beispielhafte Laptop 100 wird unter Verwendung eines oberen oder ersten Gehäuses oder Deckels 105, in dem das Display 101 angeordnet ist, und eines unteren oder zweiten Gehäuses oder Basis 106, in dem/der die Tastatur 102, das Trackpad 104 und üblicherweise ein Prozessor 107, zum Beispiel der beispielhafte Prozessor 1152 der 11, angeordnet sind, implementiert. Der Prozessor 107 kann jede beliebige Art von Prozessor, hergestellt von jedem beliebigen Hersteller, sein. Der Deckel 105 und die Basis 106 können mechanisch gekoppelt (z. B. über ein Scharnier) oder elektronisch gekoppelt sein. Der Deckel 105 weist eine das Display 101 umfassende Einfassung 108 auf, welche das Display 101 im Deckel 105 an Ort und Stelle hält. Die Basis 106 hat eine obere Fläche 109 mit einer Kante 110, die unter anderem die Tastatur 102, das Trackpad 104 und den Prozessor 107 an Ort und Stelle hält.
  • Der beispielhafte Laptop 100 kann eine oder mehrere Wischoberflächen beinhalten. In dem in 1 dargestellten Beispiel beinhaltet der beispielhafte Laptop sechs Wischoberflächen 111-116. Die sechs Wischoberflächen 111-116 werden unten in Verbindung mit 25 näher erörtert. In den unten erörterten beispielhaften Implementierungen sind verschiedene Beispiele der Wischoberflächen 111-116 veranschaulicht, um klar zu machen, dass eine oder mehrere der beispielhaften Wischoberflächen 111-116 jeweils an einem unterschiedlichen Ort, in jedem bestimmten Laptop (oder anderem Computergerät) verwendet werden können. Darüber hinaus können andere Orte als die in 1 dargestellten zusätzlich und/oder alternativ verwendet werden, um die Wischoberflächen 111-116 oder andere Wischoberflächen zu implementieren. In 1 sind die Wischoberflächen 111-116 mit gepunkteten Linien dargestellt, da die Wischoberflächen aus ästhetischen und/oder funktionellen Gründen im Deckel 105 und/oder in der Basis 106 implementiert werden können. In einigen Implementierungen können jedoch eine oder mehrere der Wischoberflächen 111-116 sichtbar sein (anstelle Ihrer Positionierung innerhalb des Deckels 105 und/oder der Basis 106 und somit von außen nicht sichtbar). In einigen Beispielen können zumindest die Abschnitte des ersten und zweiten Gehäuses 105, 106, die die Wischoberflächen 111-116 beinhalten, zum Beispiel aus oleophobem Material oder oleophober Beschichtung ausgebildet sein, das/die die Bildung von Schmierflecken auf den Gehäusen 105, 106 verringert.
  • In den hierin veranschaulichten Beispielen sind die Wischoberflächen 111-116 in im Wesentlichen linearen Konfigurationen am/an Randabschnitt(en) 120 des Deckels 105 entlang (z. B. dem Teil des beispielhaften Laptops 100, der das Display 101 beinhaltet) und/oder am/an Randabschnitt(en) 122 der Basis 106 entlang (z. B. dem Teil des beispielhaften Laptops, der die Tastatur 102 beinhaltet) des Laptop-Computers 100 angeordnet. Jedoch werden auch andere Konfigurationen wie eine L-Konfiguration, eine gefaltete Konfiguration (z. B. siehe 5) usw. erwägt.
  • Die hierin offenbarten Wischoberflächen 111-116 können in Verbindung mit zahlreichen verschiedenen Arten von Eingabegeräten verwendet werden, und können zusätzlich oder alternativ verwendet werden, um einige der Funktionen der Eingabegeräte entweder statisch (z. B. beim Hersteller des Laptops 100 definiert) und/oder dynamisch (z. B. während des Betriebs des Laptops 100 änderbar) zu ersetzen und/oder zu erweitern. Wie in 1 dargestellt, können zum Beispiel einige oder alle der Funktionen einer Reihe 102A von Funktionstasten und/oder Tastenkombinationen der Tastatur durch die offenbarten Wischoberflächen 111-116 entweder statisch und/oder dynamisch implementiert werden. In einigen Beispielen können die Wischoberflächen 111-116 zusätzlich als Tipp- und/oder Softkey-Oberflächen verwendet werden. Ein Benutzer kann zum Beispiel auf eine der Wischoberflächen 111-116 eine erste Anzahl von Malen tippen, um den Laptop 100 anzuweisen, eine erste Aktion durchzuführen, beispielsweise eine Anwendung zu öffnen, er kann auf eine der Wischoberflächen 111-116 eine zweite Anzahl von Malen tippen, um einen Softkey-Satz, beispielsweise Funktionstasten und/oder Tastenkombinationen usw. zu aktivieren.
  • Da die hierin offenbarten Wischoberflächen 111-116 an der Außenseite von Computergeräten angeordnet sein können, können die Wischoberflächen 111-116 in einigen Beispielen verwendet werden, um den Laptop 100 zu entsperren, bevor der Benutzer beginnt, den Laptop 100 zu öffnen (z. B. bevor der Benutzer den Deckel 105 von einer geschlossenen Position, in der das Display 101 im Wesentlichen gegen die Tastatur 102, von der Basis 106 weg positioniert ist, in eine geöffnete Position dreht, um das Display 101 und die Tastatur 102 freizulegen). Dadurch kann der Laptop 100 die für das Öffnen und Positionieren des Laptops 100 zur Wiederaufnahme des Betriebs oder zum Hochfahren erforderliche Zeit nutzen, was den Prozess des Entsperrens und Öffnens des Laptops 100 effizienter macht. In einigen Beispielen ist die zum Entsperren eines Laptops 100 verwendete Wischoberfläche 111-116 im Inneren angeordnet, um ein versehentliches Entsperren des Laptops 100 zu verhindern. In einigen Beispielen kann die Wischoberfläche verwendet werden, um zusätzlich und/oder alternativ die Anwendung auszuwählen, die zu aktivieren ist. Ein Wischen auf einer externen Wischoberfläche 111-116 kann verwendet werden, um den Laptop 100 dahingehend anzuweisen, welche Anwendung zu aktivieren ist, wenn der Betrieb des Laptops 100 wiederaufgenommen und/oder der Laptop 100 neu gestartet wird.
  • Weiter können, da die hierin offenbarten Wischoberflächen 111-116 problemlos (neu) konfiguriert werden können, Wischoberflächen 111-116 verwendet werden, um den Betrieb des Laptops in mehreren Konfigurationen zu unterstützen, wie zum Beispiel in einem Laptop-Modus (wie in 1 dargestellt), einem Präsentationsmodus und einem Tablet-Modus. Beim Übergang vom Laptop-Modus kann zum Beispiel eine Wischoberfläche, die so konfiguriert ist, dass sie den Laptop-Computer 100 im Laptop-Modus entsperrt, (neu) konfiguriert werden, um ein Video zu starten oder zu stoppen, in einem Video dreißig Sekunden rückwärts oder vorwärts zu gehen, usw. Darüber hinaus kann in einigen Implementierungen eine laufende Anwendung die den Wischoberflächen 111-116 zugewiesenen Funktionen definieren. Darüber hinaus können die Wischoberflächen 111-116 für linkshändige und rechtshändige Benutzer (neu) konfiguriert werden. Darüber hinaus können (neu) konfigurierbare Wischoberflächen eine Verringerung der Größe des Laptops 100 ermöglichen, da die Wischoberflächen 111-116 für mehrere Verwendungen neu konfiguriert werden können, statt auf spezielle Eingabeoberflächen für zugewiesene Funktionen und Eingaben zurückzugreifen.
  • Die offenbarten beispielhaften Wischoberflächen 111-116 können zusätzlich oder alternativ verwendet werden, um unter anderem eine Lautstärke einzustellen, eine Helligkeit einzustellen, den Inhalt eines Fensters zu scrollen, in einer Elementliste zu navigieren, in einem Webbrowser-Fenster vorwärts zu gehen, in einem Webbrowser-Fenster rückwärts zu gehen, eine Anwendung zu öffnen usw. Die beispielhaften Wischoberflächen 111-116 können zusätzlich oder alternativ Berührungszonen bereitstellen, die als Softkeys oder virtuelle Tasten betrieben werden können.
  • Die hierin offenbarten beispielhaften Wischoberflächen 111-116 können zum Beispiel mittels Berührungsfeldsignalen realisiert werden, die durch einen Touchscreen ausgesendet werden, der von der Einfassung 108 rund um das Display 101 ausgehen kann. Die Wischoberflächen 111-116 können zusätzlich oder alternativ zusätzliche Berührungszellen beinhalten. In beiden Fällen kann eine haptische Rückmeldung bereitgestellt werden, um den Benutzer zur genaueren Durchführung der Wischbewegungen zu unterstützen. Beispiele haptischer Rückmeldungsausgabesignale beinhalten in nicht einschränkender Form ein oder mehrere, eine Kombination, ein Muster und/oder eine Reihe oder Sequenz von gleichen oder unterschiedlichen Stößen, Impulsen, Summtönen, Tippvorgänge, Vibrationen usw., die in Intervallen mit gleichmäßigem Abstand entlang einer Wischoberfläche 111-116 bereitgestellt werden.
  • Der beispielhafte Prozessor 107 der 1 ist so konfiguriert und/oder programmiert, dass er maschinenlesbare Anweisungen ausführt, die in einem Speicher, beispielsweise dem beispielhaften Speicher 1064 der 10, gespeichert sind, um zumindest Berührungseingabesignale von Berührungszellen (unten erörtert) der Wischoberfläche(n) 111-116 zu empfangen und zu verarbeiten, und um den Laptop 100 gemäß den empfangenen Berührungseingabesignalen zu betreiben. Beispiele für Berührungseingabesignale können Steuersignale, Betriebsbefehle, Anweisungen, Text usw. darstellen, die der Prozessor 107 ausführen soll, um den Laptop-Computer 100 gemäß den Eingaben des Benutzers zu betreiben und/oder Anweisungen darauf auszuführen (z. B. E-Mail, Textverarbeitung, Internet-Browsing-Anwendungen, Videoplayer, Musikplayer, Notizenanwendungen usw.). Im Fall von Wischbewegungen dekodiert der Prozessor 107 die empfangenen Berührungseingabesignale, um zum Beispiel Startposition, Endposition, Geschwindigkeit, Richtung, Beschleunigung usw. zu bestimmen. Beispielhafte Wischbewegungen können unter anderem verwendet werden, um den Laptop 100 zu entsperren, eine Lautstärke einzustellen, eine Helligkeit einzustellen, den Inhalt eines Fensters zu scrollen, in einer Elementliste zu navigieren, in einem Webbrowser-Fenster vorwärts zu gehen, in einem Webbrowser-Fenster rückwärts zu gehen, eine Anwendung zu öffnen usw.
  • Der beispielhafte Prozessor 107 kann gleichfalls konfiguriert und/oder programmiert sein, Eingaben von der Tastatur 102 und dem Trackpad 104 zu empfangen und zu verarbeiten zwecks Steuerung, Betrieb, Bereitstellen von Anweisungen, Eingeben von Text usw. für den Betrieb des Laptop-Computers 100 und Ausführen von Anweisungen darauf (z. B. E-Mail, Textverarbeitung, Internet-Browsing-Anwendungen, Videoplayer, Musikplayer, Notizenanwendungen usw.) gemäß den Eingaben des Benutzers. In einigen Implementierungen kann das Display 101 ein Touchscreen-Display sein, das gleichfalls durch den Prozessor 107 zur Steuerung des Laptop-Computers 100 zu verarbeitende Benutzereingaben empfangen kann.
  • Jegliche oder alle Beispiele der Tastatur 102, des Trackpads 104 und/oder der Wischoberflächen 111-116 können selektiv deaktiviert werden, um den Energieverbrauch zu verringern und/oder die Verarbeitung eines unbeabsichtigten oder versehentlichen Kontakts mit einem dieser Eingabegeräte zu verhindern, wenn der Laptop 100 in einem bestimmten Modus verwendet wird. Wenn Wischbewegungen von einer gegenwärtig laufende Anwendung nicht unterstützt werden, können die Wischoberflächen 111-116 deaktiviert werden. Beim Betrieb in einem Tablet-Modus (statt im Laptop-Modus, der in 1 dargestellt ist) können die Tastatur 102 und/oder das Trackpad 104 sowie bestimmte Wischoberflächen deaktiviert werden, um unbeabsichtigte oder versehentliche Eingaben zu vermeiden. In manchen Situationen kann das Deaktivieren und Aktivieren von Eingabegeräten, einschließlich der Wischoberflächen 11-116, automatisch implementiert werden, zum Beispiel durch den Prozessor 107, auf Grundlage beispielsweise einer Bestimmung, ob Eingabe von einer gegenwärtig laufenden Anwendung, einem Betriebsmodus des Computergeräts 100 und dergleichen unterstützt werden oder nicht. In manchen Situationen kann das Deaktivieren und Aktivieren von Eingabegeräten, einschließlich der Wischoberflächen 111-116, vom Benutzer selektiv implementiert werden.
  • Unter Bezugnahme auf 2A ist eine seitliche Querschnittansicht einer beispielhaften Displayvorrichtung 200 gemäß den Lehren dieser Offenbarung dargestellt. 3 ist eine Draufsicht einer beispielhaften Wischoberfläche 205 für die Vorrichtung 200 der 2. Die beispielhafte Displayvorrichtung 200 der 2A beinhaltet den beispiehaften Deckel 105 einschließlich Display 101. In dem in 2A dargestellten Beispiel ist das Display 101 ein Touchscreen-Display 101, das Berührungseingaben an oder in der Nähe einer Berührungsoberfläche des Displays 101 detektieren kann. Um Eingaben mittels Wischens, Gleitens, Tippens usw. durch einen Finger oder Stylus 202 zu ermöglichen, beinhaltet die Vorrichtung 200 eine Wischoberfläche 205. Wie dargestellt, kann Wischoberfläche 205 mindestens eine Berührungszelle 210 beinhalten, die einen Abschnitt des Touchscreens 101 definiert. Die Wischoberfläche 205 kann durch die beispielhafte Wischoberfläche 205 der 3 implementiert werden. Wie in 2A und 3 dargestellt, beinhaltet die Wischoberfläche 205 eine Vielzahl von Berührungszellen, von denen eine mit Bezugszeichen 210 bezeichnet ist. In diesem Beispiel ist die Vielzahl von Berührungszellen 210 in einer linearen Konfiguration, längs eines Randabschnitts des Touchscreens 101 angeordnet, jedoch kann die Vielzahl von Berührungszellen 210 auch anderweitig angeordnet sein.
  • In einigen Implementierungen, wie in 2B dargestellt, kann die Wischoberfläche 205 zum Beispiel in einem Smartphone-Computergerät oder einem Tablet-Computergerät enthalten sein, in dem das Touchscreen-Display 101 im Gehäuse 105 aufgenommen sein kann. In dieser Situationen kann das Gehäuse 105 laterale Seiten beinhalten, die durch Randabschnitte 120, wie vorher beschrieben, definiert sind, braucht jedoch nicht notwendigerweise eine das Touchscreen-Display 101 umgebende Einfassung 108, wie in 2A dargestellt, zu beinhalten. In dieser Anordnung kann die Wischoberfläche 205 entlang des Randes des Displays 101 positioniert sein, wie in 2A dargestellt.
  • In einigen Implementierungen können unterschiedliche Berührungszellen 210 der Vielzahl von Berührungszellen 210 unterschiedliche Signalstärken aufweisen. Jede Berührungszelle 210 kann ein Berührungssignal 215 aussenden, das das Touchscreen-Display 101 teilweise überlappt und die Einfassung 108 teilweise überlappt. Um ein besseres Aussenden von Berührungssignalen 215 über die Einfassung 108 zu ermöglichen, kann die Einfassung 108 aus Kunststoff sein. Auf diese Weise unterstützt die Berührungszelle 210 Berührungseingaben für das Display 101 und die Einfassung 108, um die Eingabe von Wisch-, Gleit- und Tippvorgängen usw. durch den Stylus oder Finger 202 entlang der Einfassung 108 zu ermöglichen. Die beispielhaften Berührungszellen 210 beinhalten in nicht einschränkender Form kapazitive Sensoren, resistive Sensoren, Drucksensoren, Kraftsensoren, piezoelektrische Sensoren und andere Arten von Sensoren und/oder Kombinationen von Sensoren.
  • In einigen Implementierungen beinhaltet die beispielhafte Vorrichtung 200 der 2 haptische (z. B. taktile) Rückmeldungsgeräte, von denen eines mit Bezugszeichen 220 bezeichnet ist. Wenn ein Benutzer entlang der Wischoberfläche 205 wischt, kann zum Beispiel eine haptische oder taktile Rückmeldung bereitgestellt werden, wenn der Stylus oder Finger 202 jedes Intervall oder jeden Teil der Wischoberfläche 205 passiert. Diese haptische oder taktile Rückmeldung kann dem Benutzer helfen, Wischvorgänge entlang der Wischoberfläche 205 genauer durchzuführen, zum Beispiel längenspezifische Wischvorgänge, Wischvorgänge nach hinten und nach vorne usw. In einigen Implementierungen können die Berührungszellen 210 in einer oder mehreren Reihen angeordnet sein, und die haptischen Geräte 220 können in einer oder mehreren Reihen angeordnet sein, zum Beispiel neben einer oder mehreren der Reihen von Berührungszellen 210. In einigen Implementierungen können einzelne Berührungszellen 210 wechselseitig zu einzelnen haptischen Geräten 220 angeordnet sein.
  • Unter Bezugnahme auf 4 ist eine seitliche Querschnittansicht einer weiteren beispielhaften Vorrichtung 400 gemäß den Lehren dieser Offenbarung dargestellt. Die beispielhafte Vorrichtung 400 der 4 kann verwendet werden, um die Basis 105 und den Deckel 106 zu implementieren. Um Eingaben mittels Wischens, Gleitens, Tippens usw. durch einen Stylus oder Finger 402 zu ermöglichen, beinhaltet die Vorrichtung 400 eine Wischoberfläche 405. Ähnlich dem oben in Bezug auf 2 beschriebenen Beispiel, jedoch gedreht, beinhaltet die Wischoberfläche 405 eine Vielzahl von Berührungszellen, von denen eine mit Bezugszeichen 410 bezeichnet ist. Die Vielzahl von Berührungszellen 410 kann in einer im Wesentlichen linearen Konfiguration, längs entlang eines Randabschnitts 120, 122 der Basis 105 oder des Deckels 106 angeordnet sein, sie kann jedoch auch anderweitig angeordnet sein. Unterschiedliche Berührungszellen 410 der Vielzahl von Berührungszellen 410 können unterschiedliche Signalstärken aufweisen. Wie dargestellt sendet jede Berührungszelle 410 ein Berührungssignal 415 über den Randabschnitt 120, 122 des jeweiligen Gehäuses 105, 106 aus. Um ein besseres Aussenden von Signalen 415 über den Randabschnitt 120, 122 des jeweiligen Gehäuses 105, 106 zu ermöglichen, kann der Randabschnitt 120, 122 aus Kunststoff sein. Auf diese Weise können die Berührungszelle(n) 410 Berührungseingaben für die Basis 105 und den Deckel 106 empfangen, um die Eingabe von Wisch-, Gleit- und Tippvorgängen usw. durch den Stylus oder Finger 402 entlang der Länge des Randabschnitts 120, 122 des jeweiligen Gehäuses 105, 106. zu ermöglichen. Beispielhafte Berührungszellen 410 beinhalten in nicht einschränkender Form kapazitive Sensoren, resistive Sensoren, Drucksensoren, Kraftsensoren, piezoelektrische Sensoren und andere Arten von Sensoren und/oder Kombinationen von Sensoren.
  • In einigen Implementierungen beinhaltet die beispielhafte Vorrichtung 400 der 4 haptische (z. B. taktile) Rückmeldungsgeräte, von denen eines mit Bezugszeichen 420 bezeichnet ist. Wenn ein Benutzer entlang der Wischoberfläche 405 wischt, kann zum Beispiel eine haptische oder taktile Rückmeldung bereitgestellt werden, wenn der Stylus oder Finger 402 jedes Intervall der Wischoberfläche 405 passiert. Diese haptische oder taktile Rückmeldung kann dem Benutzer helfen, Wischvorgänge entlang der Wischoberfläche 405 genauer durchzuführen, zum Beispiel längenspezifische Wischvorgänge, Wischvorgänge nach hinten und nach vorne usw. In einigen Implementierungen können die Berührungszellen 410 in einer oder mehreren Reihen angeordnet sein, und die haptischen Geräte 420 können in einer oder mehreren Reihen angeordnet sein, zum Beispiel neben einer oder mehreren der Reihen von Berührungszellen 410. In einigen Implementierungen können einzelne Berührungszellen 410 wechselseitig zu einzelnen haptischen Geräten 420 angeordnet sein.
  • 5 ist eine seitliche Querschnittansicht einer weiteren anderen Vorrichtung 500 gemäß den Lehren dieser Offenbarung. In diesem Beispiel kann ein Berührungssignal 505 unter Verwendung einer der beispielhaften Wischoberflächen 205, 405 der 24 erzeugt werden. Im Gegensatz zu 2 und 4 wird in diesem Beispiel das Berührungssignal 505 ausgesendet, um gleichzeitiges Wischen auf einer Kombination der Einfassung 108 und des Randabschnitts 120 des Deckels 105 und/oder einer Kombination der Kante 110 und des Randabschnitts 122 der Basis 106 zu ermöglichen. In einigen Beispielen sind sowohl die Vorrichtung 200 als auch die Vorrichtung 400 implementiert, um einem Benutzer zu ermöglichen, die Einfassung 108/die Kante 110 und/oder den Randabschnitt 120, 122 durch Wischen (neu) zu konfigurieren. Ähnlich den Beispielen der 2 und 4 kann die Vorrichtung 500 haptische Rückmeldungsgeräte beinhalten, die den oben erörterten ähnlich sind.
  • Unter Bezugnahme auf 6A6H, 7A7B, 8 und 9A9B werden verschiedene beispielhafte Verwendungen der hierin offenbarten beispielhaften Wischoberflächen dargestellt. Auch wenn in 6A6H, 7A7B, 8 und 9A9B Beispiele dargestellt sind, kann es viele andere Möglichkeiten der Verwendung der in dieser Offenbarung gezeigten Beispiele geben. Darüber hinaus können die dargestellten Beispiele auf verschiedene Weisen kombiniert werden. Des Weiteren können, obwohl hierin beispielhafte Benutzeroberflächenelemente dargestellt und erörtert werden, die hierin offenbarten beispielhaften Wischoberflächen mit anderen Computergeräten verwendet werden.
  • Wie in dem in 6A6H dargestellten Beispiel veranschaulicht, können Wischbewegungen nach hinten und nach vorne und, in einigen Beispielen, Tippvorgänge verwendet werden, um zum Beispiel den Betrieb von Laptop 100 zu entsperren, eine Anwendung auszuführen, Tabs in einem Browser zu navigieren, Elemente in einer Liste oder einem Menü anzuordnen oder zu sortieren und dergleichen. Diese Art beispielhafter Verwendung kann auf jeder beliebigen Art von Computergerät und auf jeder Oberfläche eines Computergeräts verwendet werden, das in der Lage ist, eine Wischoberfläche zu implementieren, über die diese Art von Eingabe empfangen und verarbeitet werden kann. Durch das Computergerät kann ein Vorgang auf Grundlage einer Wischeingabe ausgeführt werden, die durch die Vielzahl der Berührungszellen detektiert wird, die die Wischoberfläche 111-116 definieren. In einigen Implementierungen kann die Wischeingabe eine Reihe oder Sequenz von Bewegungen entlang der Wischoberfläche 111-116 beinhalten, welche ein bestimmtes Muster definieren, das zum Beispiel mit einem bestimmten Befehl, einem Passwort oder Code verbunden sein kann. In einigen Implementierungen kann beispielsweise ein bestimmtes an der Wischoberfläche detektiertes Wischmuster mit einem Passwort oder Code zum Entsperren des Betriebs des Computergeräts, dem Erhalt des Zugriffs auf eine Funktion, die über das Computergerät verfügbar ist, und dergleichen verbunden sein. In einigen Implementierungen kann ein bestimmtes an der Wischoberfläche 111-116 detektiertes Wischmuster mit einem bestimmen Befehl oder einer bestimmten Tastenkombination verbunden sein, wodurch das Computergerät veranlasst wird, einen mit diesem bestimmen Wischmuster verbundenen Vorgang auszuführen, wie zum Beispiel Starten einer bestimmten Anwendung, Navigieren zu einem bestimmten Bildschirm oder ein anderer Vorgang, für den ein zuvor festgelegter Befehl oder eine Tastenkombination die Bequemlichkeit und Produktivität des Benutzers verbessern können. In einigen Implementierungen kann die an der Wischoberfläche 111-116 detektierte Wischeingabe für die gegenwärtig ausgeführte Anwendung und/oder die gegenwärtige Interaktion des Benutzers mit dem Computergerät spezifisch sein, und somit nicht mit einem zuvor festgelegten Befehl oder einem Passwort oder Code, wie zum Beispiel Einstellungen der Lautstärke und/oder Helligkeit, Navigation durch Tabs, Sortieren von Listen und/oder Menüelementen und dergleichen, verbunden sein.
  • Das in 6A6D dargestellte Beispiel beginnt mit einem Benutzer, der einen Stylus oder Finger 600 am linken Endabschnitt 620 der Wischoberfläche 111-116 platziert, wie in 6A dargestellt. In diesem Beispiel stellt die detektierte Platzierung des Stylus oder Fingers 600 am linken Endabschnitt 620 eine Eingabe der Ziffer „1“ bereit. Der Benutzer wischt oder gleitet sodann mit dem Stylus oder Finger 600 in Richtung des rechten Endabschnitts 640 der Wischoberfläche 111-116, hält an einer Position entlang der Wischoberfläche, die der Ziffer „10“ entspricht an, oder ändert an dieser Position die Richtung, um die Ziffer „10“ einzugeben, wie in 6B dargestellt. Von der Position am rechten Endabschnitt 650 der in 6B dargestellten Wischoberfläche 111-116 wischt der Benutzer dann in Richtung des linken Endabschnitts 620 der Wischoberfläche 111-116, um die Ziffer „5“ an einem ersten Zwischenabschnitt 640 der Wischoberfläche 111-116 einzugeben, wie in 6C dargestellt, und sodann die Ziffer „3“ an einem zweiten Zwischenabschnitt 630 der Wischoberfläche 111-116 einzugeben, wie in 6D dargestellt, und somit den Eintrag eines vierstelligen Passcodes „1 – 10 – 5 – 3“ abzuschließen. Alternativ kann der Benutzer in einigen Beispielen auf Stellen entlang der Wischoberfläche 111-116 tippen, die den Ziffern „1“ „10“ „5“ und „3“ entsprechen, um den Passcode einzugeben. In einigen Beispielen kann der Benutzer Tipp- und Wischvorgänge und/oder eine Kombination dieser verwenden, um Ziffern einzugeben.
  • Wie in den in 6E6H dargestellten Beispielen veranschaulicht, kann in einigen Implementierungen 680 ein Index angezeigt werden, zum Beispiel in einem an die Wischoberfläche 111-116 angrenzenden Bereich, um die Benutzereingabe zum Beispiel eines Entsperrbefehls oder Codes oder Passworts unter Verwendung einer Wisch- und/oder Tippbewegung auf der Wischoberfläche 111-116, wie oben in Bezug auf 6A6D beschrieben, zu ermöglichen. In einigen Implementierungen kann der Index 680 zum Beispiel in einem Bereich des Displays 101 neben der Wischoberfläche 111-116, zum Beispiel entlang der Einfassung des Deckels 105 oder des Randabschnitts 120 des Deckels 105 oder eines Randabschnitts des Displays 101 selbst, positioniert sein. In einigen Implementierungen, in denen sich der Laptop-Computer 100 in einer geschlossenen Position befindet und unter Verwendung einer Wischoberfläche 111-116 am Randabschnitt 120 des Deckels 105 oder am Randabschnitt 122 der Basis 106 entsperrt werden soll, ohne dass das Display 101 aktiviert und/oder für die Anzeige des Index 680 verfügbar ist, kann der Index 680 in Form einer Reihe von Softkeys entlang der Wischoberfläche 111-116 implementiert sein (wie im Beispiel, das in 7C dargestellt ist, das unten erörtert werden soll).
  • Wie in 6E6H dargestellt kann in einigen Implementierungen der Index 680 als eine Reihe von Elementen angezeigt werden, die auf eine Weise angeordnet sind, die der angrenzenden Wischoberfläche 111-116 entspricht. Der Index 680 kann für den Benutzer eine optische Anzeige von Punkten entlang des Wischindex 111-116 bereitstellen, an denen er stoppen und/oder die Richtung ändern und/oder einen Berührungs- und/oder Tippvorgang abbrechen soll, um ein bestimmtes entsprechendes Element einzugeben. In den in 6E6H dargestellten Beispielen sind die in Index 680 gezeigten Elemente Zahlen, die lediglich zur Vereinfachung der Erörterung und Veranschaulichung dienen. Jedoch können auch andere Elemente wie z. B. Buchstaben, Formen, Bilder und dergleichen und/oder Kombinationen verschiedener Arten von Elementen im Index 680 enthalten sein.
  • In dem in 6E dargestellten Beispiel sind die Elemente (in diesem Beispiel Zahlen) des Index 680 in numerischer Reihenfolge und mit im Wesentlichen gleichmäßigen Abstand entlang der Länge des Index 680 angeordnet. Um eine sichere Eingabe eines Entsperrbefehls oder -codes oder -passworts bereitzustellen, können in einigen Implementierungen die Elemente des Index 680 in einer relativ kleinen Größe angezeigt werden, sodass einzelne Elemente des Index 680 nur für den Benutzer relativ klar sichtbar sind, der den Befehl oder den Code oder das Passwort eingibt. In einigen Implementierungen kann eine Reihenfolge, in der Elemente des Index 680 angezeigt werden, zufällig geändert werden, wie in 6F dargestellt. In einigen Implementierungen kann der Abstand zwischen den Elementen des Index 680 zufällig geändert werden, wie in 6G dargestellt. In einigen Implementierungen können sowohl die Reihenfolge der Elemente, als auch der Abstand der Elemente des Index 680 zufällig geändert werden, wie in 6G dargestellt. Andere Anordnungen und/oder Änderungen der Elemente des Index 680 können ebenfalls einbezogen werden. Durch Anpassen der Positionierung der Elemente des Index 680 kann, selbst wenn ein Muster des Eintrags über Wisch- oder Tippvorgänge des Benutzers auf der Wischoberfläche 111-116 durch einen Außenstehenden beobachtet wird, das beobachtete Element nicht problemlos mit einem spezifischen Element oder einem Satz/einer Reihe von Elementen des Index 680 korreliert werden, und somit ist der Befehl oder der Code oder das Passwort auf Grundlage der Beobachtung der Wisch- oder Tippvorgänge des Benutzers seitens eines externen Beobachters nicht problemlos erkennbar.
  • Wie oben angegeben, kann das Muster der durch die Vielzahl von Berührungszellen an der Wischoberfläche 111-116 detektierten Wischeingabe mit einem Passwort oder Code verbunden oder korreliert sein, um zum Beispiel das Computergerät für den Betrieb zu entsperren, den Zugriff auf über das Computergerät verfügbare Funktionen zu ermöglichen und dergleichen. Das Muster der durch die Vielzahl von Berührungszellen an der Wischoberfläche 111-116 detektierten Wischeingabe kann mit einem Befehl, zum Beispiel zum Starten einer ausgewählten Anwendung, einer Tastenkombination zum Starten einer bestimmten Anwendung und/oder einem Modul einer bestimmten Anwendung verbunden sein, der/die/das mit dem bestimmten Wischmuster verbunden ist, und dergleichen. Das Muster der durch die Vielzahl von Berührungszellen an der Wischoberfläche 111-116 detektierten Wischeingabe kann für eine gegenwärtig durch das Computergerät ausgeführte Anwendung und/oder eine gegenwärtige Interaktion eines Benutzers mit dem Computergerät spezifisch sein, um zum Beispiel eine Helligkeit und/oder Lautstärke einzustellen, auf dem Display angezeigte Elemente neu anzuordnen und/oder zu sortieren, Tabs in einem Browser zu navigieren und dergleichen.
  • Wie in dem in 7A7C dargestellten Beispiel, veranschaulicht, können Wischbewegungen und in einigen Beispielen Tippvorgänge verwendet werden, um einen Parameter oder den Betrieb von Laptop 100 einzustellen. Diese Art beispielhafter Verwendung kann auf jeder beliebigen Art von Computergerät und auf jeder Oberfläche eines Computergeräts verwendet werden, das in der Lage ist, eine Wischoberfläche zu implementieren, über die diese Art von Eingabe empfangen und verarbeitet werden kann. Wie in 7A7B dargestellt, kann eine Wischbewegung beginnen, indem ein Benutzer einen Stylus oder Finger 700 an einem ersten Teil 620 der Wischoberfläche 111-116 platziert, wie in 7A dargestellt. Die Erkennung des Stylus oder Fingers 700 auf der Wischoberfläche 111-116 kann einen Hinweis einer Eingabe zum Anpassen eines Parameters oder des Betriebs von Laptop 100 bereitstellen, wie z. B. das Anpassen einer Helligkeitsstufe des Laptops 100. Der Benutzer wischt oder gleitet sodann mit dem Stylus oder Finger 700 in Richtung eines zweiten Abschnitts 750 der Wischoberfläche 111-116, hält an einer Position entlang der Wischoberfläche 111-116, die einer gewünschten Helligkeitsstufe entspricht, an oder ändert an dieser Position die Richtung oder bricht den Berührungsvorgang ab, wie in 7B dargestellt, um eine Helligkeitsstufe des Displays 101 zu erhöhen. Andere Parameter, Operationen und/oder Benutzeroberflächenelemente, die eingestellt, gesteuert, festgelegt usw. werden können, sind in nicht einschränkender Form Lautstärke, Scrollen, vorwärts, rückwärts, Wiedergabe, Stopp usw.
  • 7C ist eine Seitenansicht des beispielhaften Deckels 105 der 7A7B. Wie in 7C dargestellt, kann die Wischoberfläche 111-116 konfiguriert sein, Softkeys oder Berührungstasten, von denen eine mit Bezugszeichen 705 bezeichnet ist, gemäß den Lehren dieser Offenbarung zu implementieren.
  • Wie in dem in 8A8C dargestellten Beispiel veranschaulicht, können Wischbewegungen verwendet werden, um zwischen Tabs eines Webbrowsers 805 zu navigieren. In einigen Implementierungen kann der Benutzer auf Stellen entlang der Wischoberfläche 111-116 tippen, um ein gewünschtes Tab auszuwählen. Wie in 8A8C dargestellt, kann eine Wischbewegung beginnen, indem ein Benutzer einen Stylus oder Finger 800 an einem ersten Abschnitt 850 der Wischoberfläche 111-116, die einem ersten Tab 810 entspricht, mit einem Cursor 812 am ersten Tab 810 platziert, um dem Benutzer eine optische Anzeige bereitzustellen, wie in 8A dargestellt. Das Detektieren des Stylus oder Fingers 800 auf der Wischoberfläche 111-116 kann eine Anzeige einer Eingabe bereitstellen, in Funktionen des Webbrowsers 805 zu navigieren, wie z. B. vom ersten Tab 810 zu einem zweiten Tab 820 zu navigieren, die Reihenfolge der ein oder mehreren von dem Browser 805 angezeigten Tabs neu anzuordnen, und dergleichen. Wenn der Benutzer sodann mit dem Stylus oder Finger 800 entlang der Wischoberfläche 111-116 vom ersten Abschnitt 840 in Richtung eines zweiten Abschnitts 850 der Wischoberfläche 111-116, der dem zweiten Tab 820 entspricht, wischt oder gleitet, wird der Cursor 812 an einer entsprechenden Position in Bezug auf die Tabs 810, 815, 820, 825 und 830 angezeigt. Nach Detektieren eines Anhaltens, einer Richtungsänderung oder eines Abbrechens des Berührungsvorgangs an dem Abschnitt der Wischoberfläche 111-116, der dem zweiten Tab 820 entspricht, kann das zweite Tab 820 in den Vordergrund der Gruppierung von Tabs gebracht werden, wie in 8B dargestellt, und/oder die Tabs können neu angeordnet werden, wie in 8C dargestellt.
  • Wie in den in 9A und 9B dargestellten Beispielen veranschaulicht, können Wischbewegungen und in einigen Beispielen Tippvorgänge verwendet werden, um durch eine Elementliste über eine Wischoberfläche 111-116, entlang eines Randabschnitts 120, 122 des Gehäuses 105, 106, zu navigieren oder Elemente auszuwählen. Die beispielhafte Verwendung kann auf jeder beliebigen Art von Computergerät und auf jeder Oberfläche eines Computergeräts verwendet werden, das in der Lage ist, eine Wischoberfläche zu implementieren, über die diese Art von Eingabe empfangen und verarbeitet werden kann. Wie in 9A9B dargestellt, wird eine Wischbewegung verwendet, um zwischen einer Vielzahl von Benutzeroberflächenelementen 902904 auszuwählen, die in diesem Beispiel in einer Reihe angeordnet sind. Die beispielhaften Elemente 902904 können jede beliebige Sammlung oder Liste von Fenstern, Dateien (z. B. Audio, Video, Bild usw.), Anwendungen, Auswahlen, Informationen usw. darstellen und sie können auf andere Weise (z. B. vertikal, diagonal, gradlinig, kreisförmig usw.) angeordnet sein. Die Elemente 902904 können außerdem verwendet werden, um eine scrollbare Liste der Elemente darzustellen. Wenn sich ein Stylus oder Finger 900 entlang der Wischoberfläche 111-116 von einem ersten Abschnitt 920 der Wischoberfläche 111-116, wie in 9A dargestellt, in Richtung eines zweiten Abschnitts 930 der Wischoberfläche 111-116, wie in 9B dargestellt, bewegt, bewegt sich ein Cursor 910 in entsprechender Weise über die Elemente 902904, um dem Benutzer eine optische Anzeige bereitzustellen. Eine Seitenansicht des beispielhaften Deckels der 9A ist in 9C dargestellt.
  • Ein oder mehrere der hierin dargestellten Elemente und Schnittstellen können kombiniert, geteilt, neu angeordnet, ausgelassen, beseitigt und/oder auf andere Weise implementiert werden. Des Weiteren können ein oder mehrere Schaltungen, programmierbare Prozessoren, Sicherungen, anwendungsspezfische integrierte Schaltungen (ASIC), programmierbare Logic Devices (PLD), feldprogrammierbare Logic Devices (FPLD) und/oder feldprogrammierbare Gate-Arrays (FPGA) usw. verwendet werden. Darüber hinaus können weitere Schnittstellen und/oder Elemente statt oder neben den dargestellten enthalten sein und/oder mehr als eine oder alle der veranschaulichten Schnittstellen und Elemente können enthalten sein. Die dargestellten Elemente können zum Beispiel als maschinenlesbare Anweisungen implementiert werden, die durch einen oder mehrere Prozessoren ausgeführt werden. Ein Prozessor, ein Controller und/oder jedes andere geeignete Verarbeitungsgerät, z. B. solche, die in 11 dargestellt sind, können verwendet, konfiguriert und/oder programmiert werden, um die hierin offenbarten Beispiele auszuführen und/oder durchzuführen. Die offenbarten Beispiele können zum Beispiel in Programmcode und/oder maschinenlesbaren Anweisungen verkörpert sein, die auf einem greifbaren und/oder nicht flüchtigen, computerlesbaren Medium gespeichert sind, auf das durch einen Prozessor, einen Computer und/oder eine andere Maschine mit einem Prozessor zugegriffen werden kann, wie z. B. das unten in Verbindung mit 11 erörterte. Maschinenlesbare Anweisungen umfassen zum Beispiel Anweisungen, die einen Prozessor, einen Computer und/oder eine Maschine mit einem Prozessor veranlassen, einen oder mehrere bestimmte Prozesse durchzuführen. Viele andere Verfahren zum Implementieren der offenbarten Beispiele können eingesetzt werden. Die Reihenfolge der Ausführung kann zum Beispiel geändert werden und/oder einer oder mehrere beschriebene Blöcke und/oder Interaktionen können geändert, beseitigt, unterteilt oder kombiniert werden. Außerdem kann jedes beliebige oder das gesamte Beispiel nacheinander und/oder parallel durchgeführt werden, zum Beispiel getrennte Verarbeitungsthreads, Prozessoren, Geräte, diskrete Logik, Schaltungen usw.
  • Unter Bezugnahme auf 10 ist ein beispielhaftes Verfahren 1000 dargestellt, das zum Betrieb von wie hierin offenbarter Wischoberflächen durchgeführt werden kann. Das beispielhafte Verfahren 1000 der 10 beginnt mit einem Prozessor (z. B. dem Prozessor 1052 von 11), der Berührungseingabesignale überwacht (Block 1005). Wenn Berührungseingabesignale empfangen werden (Block 1010), bestimmt der Prozessor, ob die Eingaben eine Wischeingabe oder eine nicht bewegte Eingabe sind (Block 1015). Wenn bestimmt wird, dass die detektierte Berührungseingabe eine Wischeingabe ist (Block 1015), dekodiert der Prozessor die empfangenen Berührungseingabesignale, um zum Beispiel Startposition, Endposition, Geschwindigkeit, Richtung, Beschleunigung und dergleichen zu dekodieren (Block 1020), und steuert das Computergerät gemäß der dekodierten empfangenen Berührungseingabesignale (Block 1025). Die Steuerung kehrt dann zu Block 1005 zurück, um an der Wischoberfläche detektierte Eingaben aufzuspüren.
  • Falls Eingabe, die keine Wischeingabe ist, empfangen wurde (Block 1015), wird zu Block 1015 zurückgegangen und der Prozessor steuert das Computergerät gemäß den empfangenen Berührungseingabesignalen (Block 1025). Die Steuerung kehrt dann zu Block 1005 zurück, um Wischoberflächensignale aufzuspüren.
  • Das beispielhafte Verfahren 1000 der 10 oder andere hierin offenbarte Verfahren können zum Beispiel als maschinenlesbare Anweisungen implementiert werden, die durch einen oder mehrere Prozessoren durchgeführt werden können, um die hierin offenbarten beispielhaften Displaybaugruppen zu steuern oder zu betreiben. Ein Prozessor, ein Controller und/oder jedes andere geeignete Verarbeitungsgerät können verwendet, konfiguriert und/oder programmiert werden, um die hierin offenbarten beispielhaften Verfahren auszuführen und/oder durchzuführen. Das beispielhafte Verfahren 1000 der 10 oder andere hierin offenbarte Verfahren können zum Beispiel in Programmcode und/oder maschinenlesbaren Anweisungen verkörpert sein, die auf einem greifbaren und/oder nicht flüchtigen, computerlesbaren Medium gespeichert sind, auf das durch einen Prozessor, einen Computer und/oder eine andere Maschine mit einem Prozessor zugegriffen werden kann, wie z. B. das unten in Verbindung mit 11 erörterte. Maschinenlesbare Anweisungen umfassen zum Beispiel Anweisungen, die einen Prozessor, einen Computer und/oder eine Maschine mit einem Prozessor veranlassen, einen oder mehrere bestimmte Prozesse durchzuführen. Viele andere Verfahren zum Implementieren des beispielhaften Verfahrens 1000 der 10 oder anderer hierin offenbarter Verfahren können eingesetzt werden. Die Reihenfolge der Ausführung kann zum Beispiel geändert werden und/oder einer oder mehrere beschriebene Blöcke und/oder Interaktionen können geändert, beseitigt, unterteilt oder kombiniert werden. Außerdem können jedes beliebige des gesamten beispielhaften Verfahrens 1000 der 10 oder andere hierin offenbarte Verfahren nacheinander und/oder parallel durchgeführt werden, zum Beispiel getrennte Verarbeitungsthreads, Prozessoren, Geräte, diskrete Logik, Schaltungen usw.
  • Wie hierin verwendet, ist der Begriff „computerlesbares Medium“ ausdrücklich so definiert, dass er jede beliebige Art von greibarem oder nicht flüchtigem, computerlesbarem Medium beinhaltet, und die Ausbreitung von Signalen ausdrücklich ausschließt. Beispiele für computerlesbare Medien beinhalten in nicht einschränkender Form einen flüchtigen und/oder nicht flüchtigen Speicher, ein flüchtiges und/oder nicht flüchtiges Speichergerät, eine Compact Disc (CD), eine Digital Versatile Disc (DVD), einen Nur-Lese-Speicher (ROM), einen Direktzugriffsspeicher (RAM), einen programmierbaren ROM (PROM), einen elektronisch programmierbaren ROM (EPROM), einen elektronisch löschbaren PROM (EEPROM), eine optische Speicherplatte, ein optisches Speichergerät, eine Magnetspeicherplatte, ein Magnetspeichergerät, einen Zwischenspeicher und/oder jedes beliebige andere Speichermedium, auf dem Informationen für eine Dauer (z. B. für längere Zeiträume, dauerhaft, kurze Instanzen, für das vorübergehende Puffern und/oder für das Zwischenspeichern von Informationen) gespeichert sind, und auf die durch einen Prozessor, einen Computer und/oder eine andere Maschine mit einem Prozessor zugegriffen werden kann.
  • Unter Bezugnahme auf 10 wird ein Beispiel eines allgemeinen Computergerätes 1100 und eines allgemeinen mobilen Computergerätes 1150, die mit den hier beschriebenen Techniken verwendet werden können, dargestellt. Computergerät 1100 soll verschiedene Formen von Digitalcomputern darstellen, zum Beispiel Laptops, Desktops, Tablets, Workstations, Personal Digital Assistants, Fernsehgeräte, Server, Blade Server, Mainframes und andere geeignete Computergeräte. Computergerät 1150 soll verschiedene Formen mobiler Geräte, wie Personal Digital Assistants, Mobiltelefone, Smartphones und andere ähnliche Computergeräte, darstellen. Die hierin dargestellten Komponenten, ihre Verbindungen und Beziehungen und ihre Funktionen haben lediglich exemplarischen Charakter und sind nicht dazu bestimmt, die Implementierungen der in diesem Dokument beschriebenen und/oder beanspruchten Erfindungen zu beschränken.
  • Computergerät 1100 beinhaltet einen Prozessor 1102, einen Speicher 1104, ein Speichergerät 1106, eine High-Speed-Schnittstelle 1108, die sich mit Speicher 1104 und High-Speed-Erweiterungsanschlüssen 1110 verbindet, und eine Low-Speed-Schnittstelle 1112, die sich mit dem 1114 und Speichergerät 1106 verbindet. Der Prozessor 1102 kann ein auf Halbleitern basierender Prozessor sein. Der Speicher 1104 kann ein auf Halbleitern basierender Speicher sein. Alle der Komponenten 1102, 1104, 1106, 1108, 1110 und 1112 sind mithilfe verschiedener Busse, Verbindungen, Speicher, Zwischenspeicher usw. miteinander verbunden, und können an einer gemeinsamen Hauptplatine oder auf andere Weise, wie geeignet, angebracht sein. Der Prozessor 1102 kann Anweisungen zur Ausführung innerhalb des Computergeräts 1100 verarbeiten, einschließlich Anweisungen, die im Speicher 1104 oder auf dem Speichergerät 1106 gespeichert sind, um den Lichtemissionsteil graphischer Informationen für eine GUI auf einem externen Eingabe-/Ausgabegerät anzuzeigen, wie Lichtemissionsteil 1116, der an die High-Speed-Schnittstelle 1108 gekoppelt ist. In anderen Ausführungen können, je nach Eignung, mehrere Prozessoren bzw. mehrere Busse gemeinsam mit mehreren Speichern und Speichertypen verwendet werden. Außerdem können mehrere Computergeräte 1100 verbunden sein, wobei jedes Gerät Teile der nötigen Operationen bereitstellt (z. B. als Serverbank, eine Gruppe von Blade Servern oder ein Multiprozessor-System).
  • Der Speicher 1104 speichert Informationen in Computergerät 1100. In einer Implementierung ist der Speicher 1104 ein flüchtiges Speichergerät oder flüchtige Speichergeräte. In einer anderen Implementierung ist der Speicher 1104 ein nicht flüchtiges Speichergerät oder nicht flüchtige Speichergeräte. Der Speicher 1104 kann auch eine andere Form von computerlesbarem Medium sein, zum Beispiel ein magnetischer oder optischer Datenträger.
  • Das Speichergerät 1106 kann Massenspeicher für das Computergerät 1100 bereitstellen. In einer Ausführungsform kann das Speichergerät 1106 ein computerlesbares Medium sein oder enthalten, zum Beispiel ein Diskettengerät, ein Festplattengerät, ein optisches Datenträgergerät oder ein Bandgerät, ein Flash-Speicher oder ein anderes ähnliches Solid-State-Speichergerät oder eine Reihe von Geräten, zum Beispiel Geräte in einem Storage Area Network oder anderen Konfigurationen. Ein Computerprogrammprodukt kann konkret in einem Informationsträger ausgeführt sein. Das Computerprogrammprodukt kann auch Anweisungen enthalten die, wenn sie ausgeführt werden, eine oder mehrere Methoden wie die oben beschriebene ausführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium, wie der Speicher 1104, das Speichergerät 1106 oder der Prozessorspeicher 1102.
  • Der High-Speed-Controller 1108 verwaltet bandbreitenintensive Operationen für das Computergerät 1100, während der Low-Speed-Controller 1112 weniger bandbreitenintensive Operationen verwaltet. Diese Zuweisung von Funktionen ist lediglich exemplarisch. In einer Ausführungsform ist der High-Speed-Controller 1108 mit Speicher 1104, dem Lichtemissionsteil 1116 (z. B. über einen Grafikprozessor oder -beschleuniger) und mit High-Speed-Erweiterungsanschlüssen 1110 gekoppelt, die verschiedene Erweiterungskarten aufnehmen können (nicht dargestellt). In der Implementierung ist Low-Speed-Controller 1112 mit Speichergerät 1106 und Low-Speed-Erweiterungsanschluss 1114 gekoppelt. Der Low-Speed-Erweiterungsanschluss, der verschiedene Kommunikationsports einschließen kann (z. B. USB, Bluetooth, Ethernet, Wi-Fi), kann mit einem oder mehreren Eingabe-/ Ausgabegeräten verbunden sein, wie z. B. einer Berührungszelle, einem piezoelektronischen haptischen Gerät, einer Tastatur, einem Zeigegerät, einem Scanner oder einem Netzwerkgerät, wie z. B. einem Switch oder Router, z. B. über einen Netzwerkadapter.
  • Das Computergerät 1100 kann in einer Reihe verschiedener Formen implementiert sein, wie in der Figur dargestellt. Zum Beispiel kann es als Standardserver 1120, oder mehrmals in einer Gruppe solcher Server implementiert sein. Es kann auch als Teil eines Rackserversystems 1124 implementiert sein. Darüber hinaus kann es in einem Personal Computer, wie Laptop-Computer 1122, implementiert sein. Alternativ können Komponenten von Computergerät 1100 mit anderen Komponenten in einem mobilen Gerät kombiniert sein (nicht dargestellt), z. B. Gerät 1150. Jedes dieser Geräte kann eines oder mehrere Computergeräte 1100, 1150 enthalten, und ein gesamtes System kann aus mehreren Computergeräten 1100, 1150 bestehen, die miteinander kommunizieren.
  • Das Computergerät 1150 beinhaltet unter anderen Komponenten einen Prozessor 1152, einen Speicher 1164, eine Eingabe-/Ausgabevorrichtung, wie einen Lichtemissionsteil 1154, eine Verbindungsschnittstelle 1166 und einen Transceiver 1168. Das Gerät 1150 kann auch mit einem Speichergerät ausgestattet sein, zum Beispiel einem Microdrive oder anderem Gerät, um zusätzlichen Speicher bereitzustellen. Alle der Komponenten 1150, 1152, 1164, 1154, 1166 und 1168 sind mithilfe verschiedener Busse miteinander verbunden und mehrere der Komponenten können an einer gemeinsamen Hauptplatine oder auf andere Weise, wie geeignet, angebracht sein.
  • Der Prozessor 1152 kann Anweisungen im Computergerät 1150 ausführen, zum Beispiel Anweisungen, die in Speicher 1164 gespeichert sind. Der Prozessor kann als Chipset aus Chips implementiert werden, die separate und mehrere analoge und digitale Prozessoren enthalten. Der Prozessor kann zum Beispiel für die Koordination der anderen Komponenten des Geräts 1150 sorgen, zum Beispiel die Kontrolle von Benutzeroberflächen, Anwendungen, die vom Gerät 1150 ausgeführt werden, und die drahtlose Kommunikation durch Gerät 1150.
  • Der Prozessor 1152 kann mit einem Benutzer über die Steuerschnittstelle 1158 und der an den Lichtemissionsteil 1154 gekoppelte Schnittstelle des Lichtemissionsteils 1156 kommunizieren. Der Lichtemissionsteil 1154 kann zum Beispiel eine TFT LCD-(Lichtemissionsteil eines Thin-Film-Transistor Liquid Crystal Displays) oder eine OLED-Anzeige (organische Leuchtdiode) oder eine andere angemessene Technologie für Lichtemissionsteile sein. Die Schnittstelle des Lichtemissionsteils 1156 kann eine angemessene Schaltung als Treiber des Lichtemissionsteils 1154 umfassen, um einem Benutzer grafische und andere Informationen zu präsentieren. Die Steuerschnittstelle 1158 kann Befehle von einem Benutzer empfangen und sie für die Sendung an Prozessor 1152 umwandeln. Zusätzlich kann eine externe Schnittstelle 1162 in Verbindung mit Prozessor 1152 bereitgestellt sein, um Nahbereichskommunikation von Gerät 1150 mit anderen Geräten zu ermöglichen. Die externe Schnittstelle 1162 kann zum Beispiel in einigen Implementierungen eine kabelgebundene Kommunikation bereitstellen, oder in anderen Implementierungen eine drahtlose Kommunikation, und es können auch mehrere Schnittstellen verwendet werden.
  • Der Speicher 1164 speichert Informationen in Computergerät 1150. Der Speicher 1164 kann als eines oder mehrere computerlesbare Medien, flüchtige Speichergeräte oder nicht flüchtige Speichergeräte implementiert sein. Erweiterungsspeicher 1174 kann ebenfalls bereitgestellt und mit dem Gerät 1150 über Erweiterungsschnittstelle 1172 verbunden werden, die zum Beispiel eine SIMM (Single In Line Memory Module)-Kartenschnittstelle umfassen kann. Dieser Erweiterungsspeicher 1174 kann zusätzlichen Speicherplatz für Gerät 1150 bereitstellen oder er kann auch Anwendungen oder andere Informationen für Gerät 1150 speichern. Insbesondere kann Erweiterungsspeicher 1174 Anweisungen zum Ausführen oder Ergänzen der oben beschriebenen Prozesse enthalten und er kann außerdem sichere Informationen enthalten. Somit kann Erweiterungsspeicher 1174 zum Beispiel als Sicherheitsmodul für Gerät 1150 bereitgestellt werden und er kann mit Anweisungen programmiert sein, die die sichere Verwendung von Gerät 1150 erlauben. Außerdem können über die SIMM-Karten sichere Anwendungen bereitgestellt werden, zusammen mit zusätzlichen Informationen, wie z. B. die Ablage von Informationen zur Identifizierung auf der SIMM-Karte in einer Weise, die nicht gehackt werden kann.
  • Der Speicher kann beispielsweise Flash-Speicher und NVRAM-Speicher beinhalten, wie weiter unten dargelegt. In einer Implementierung kann ein Computerprogrammprodukt konkret in einem Informationsträger ausgeführt sein. Das Computerprogrammprodukt enthält Anweisungen die, wenn sie ausgeführt werden, eine oder mehrere Methoden ausführen, wie z. B. die oben beschriebenen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium, wie der Speicher 1164, die Speichererweiterung 1174 oder der Prozessorspeicher 115, das beispielsweise über den Transceiver 1168 oder die externe Schnittstelle 1162 empfangen werden kann.
  • Gerät 1150 kann drahtlos über Kommunikationsschnittstelle 1166 kommunizieren, die eine digitale Signalverarbeitungsschaltung beinhalten kann, wo nötig. Die Verbindungsschnittstelle 1166 kann Verbindungen mit verschiedenen Kommunikationstypen oder -protokollen aufbauen, darunter GSM-Sprachanrufe, SMS, EMS, oder MMS-Messaging, CDMA, TDMA, PDC, WCDMA, CDMA2000 oder GPRS unter anderen. Solche Kommunikation kann beispielsweise durch Funkfrequenz-Transceiver 1168 stattfinden. Außerdem kann die Kommunikation auf kurze Distanz erfolgen, beispielsweise mithilfe eines Bluetooth-, WiFi- oder sonstigen Transceivers (nicht gezeigt). Außerdem kann GPS (Global Positioning System)-Empfängermodul 1170 zusätzliche mit der Navigation und dem Ort verbundene drahtlose Daten für Gerät 1150 bereitstellen, die ggf. von Anwendungen verwendet werden können, die auf Gerät 1150 ausgeführt werden.
  • Gerät 1150 kann ebenfalls unter Verwendung des Audio-Codec 1160, der gesprochene Informationen von einem Benutzer empfangen und diese in nutzbare digitale Informationen konvertieren kann, hörbar kommunizieren. Audio-Codec 1160 kann ebenfalls akustische Töne für einen Benutzer erzeugen, zum Beispiel durch einen Lautsprecher zum Beispiel in einem Handgerät von Gerät 1150. Diese Töne können Töne von Sprachtelefonanrufen beinhalten, können aufgezeichnete Töne (z. B. Sprachnachrichten, Musikdateien usw.) beinhalten und können auch Töne beinhalten, die von laufenden Anwendungen auf Gerät 1150 erstellt wurden.
  • Das Computergerät 1150 kann in einer Reihe verschiedener Formen implementiert sein, wie in der Figur dargestellt. Es kann zum Beispiel als Mobiltelefon 1180 implementiert werden. Es kann außerdem als Teil eines Smartphones 1182, Personal Digital Assistant (PDA) oder eines anderen ähnlichen Mobilgeräts implementiert sein.
  • Verschiedene Ausführungen der hier beschriebenen Systeme und Techniken können in digitalen elektronischen Schaltungen, integrierten Schaltkreisen, speziell konstruierten ASICs (Application Specific Integrated Circuits), Computerhardware, Firmware, Software und/oder in Kombinationen davon ausgeführt werden. Diese verschiedenen Ausführungen können die Ausführung in einem oder mehreren Computerprogrammen beinhalten, die auf einem programmierbaren System mit mindestens einem programmierbaren Prozessor ausgeführt bzw. interpretiert werden können, der entweder speziell oder für allgemeine Zwecke bestimmt ist, und der mit einem Speichersystem verbunden ist, um von dort Daten und Anweisungen zu empfangen und sie dorthin zu senden, mit mindestens einem Eingabegerät und mindestens einem Ausgabegerät.
  • Diese Computerprogramme (die auch als Programme, Software, Softwareanwendungen oder Code bezeichnet werden) beinhalten Maschinenanweisungen für einen programmierbaren Prozessor, und können in einer prozeduralen und/oder objektorientierten Programmiersprache auf hohem Niveau und/oder in Assembly-/Maschinensprache ausgeführt werden. Die hier verwendeten Begriffe „maschinenlesbares Medium“ „computerlesbares Medium“ beziehen sich auf jedes Computerprogrammprodukt, jeden Apparat und/oder jedes Gerät (z. B. Magnetplatten, optische Platten, Speicher, programmierbare Logic Devices (PLDs)), die dazu verwendet werden, Maschinenanweisungen und/oder Daten an einen programmierbaren Prozessor zu senden, einschließlich eines maschinenlesbaren Mediums, das Maschinenanweisungen als maschinenlesbares Signal entgegennimmt. Der Begriff „maschinenlesbares Signal“ bezieht sich auf jedes Signal, das dazu verwendet wird, Maschinenanweisungen und/oder Daten an einen programmierbaren Prozessor zu senden.
  • Zur Interaktion mit einem Benutzer können die hier beschriebenen Techniken und Systeme auf einem Computer mit einem Gerät mit Lichtemissionsteil (z. B. einem CRT-(Cathode Ray Tube) oder LCD-(Lichtemissionsteil des Liquid Crystal Displays) Monitor) für Informationen des Lichtemissionsteils für den Benutzer und mit einer Tastatur, einer Berührungszelle und einem Zeigegerät (z. B. einer Maus oder einem Trackball), durch die der Benutzer Eingaben an den Computer weiterleiten kann, implementiert werden. Es können auch andere Arten von Geräten verwendet werden, um für eine Interaktion mit einem Benutzer zu sorgen; beispielsweise kann eine dem Benutzer gelieferte Rückmeldung beliebiger Form von sensorischer Rückmeldung vorliegen (z. B. eine visuelle Rückmeldung, auditive Rückmeldung oder taktile oder haptische Rückmeldung); und die Eingabe vom Benutzer kann in beliebiger Form empfangen werden, einschließlich akustischer, Sprach-, Berührungs- oder taktiler Eingabe.
  • Die hier beschriebenen Systeme und Techniken können in einem Computersystem umgesetzt werden, das eine Backend-Komponente enthält (z. B. einen Datenserver) oder eine Middleware-Komponente (z. B. einen Anwendungsserver) oder eine Frontend-Komponente (z. B. einen Client-Computer mit einer grafischen Benutzeroberfläche oder einen Web-Browser, durch den der Benutzer mit einer hier dargestellten Umsetzung des Gegenstandes interagieren kann), oder eine beliebige Kombination solcher Backend-, Middleware- oder Frontend-Komponenten. Die Komponenten des Systems können durch eine beliebige Form oder ein beliebiges Medium digitaler Datenkommunikation verbunden sein (z. B. ein Kommunikationsnetzwerk). Beispiele für Kommunikationsnetze beinhalten ein lokales Netzwerk (LAN), ein Weitverkehrsnetz (WAN) und das Internet.
  • Das Computersystem kann aus Clients und Servern bestehen. Ein Client und Server befinden sich im Allgemeinen ortsfern voneinander und interagieren typischerweise über ein Kommunikationsnetz. Die Beziehung von Client und Server ergibt sich durch Computerprogramme, die auf den jeweiligen Computern ausgeführt werden und eine Client-Server-Beziehung zueinander haben.
  • In dieser Spezifikation und den angehängten Ansprüchen schließen die Singularformen „ein“, „eines“, „einer“ und „die“, „der“, „das“ die Pluralreferenz nicht aus, sofern der Kontext nicht eindeutig etwas Anderes angibt. Darüber hinaus sind Konjunktionen wie „und“, „oder“ und „und/oder“ einschließend, sofern der Kontext nicht eindeutig etwas Anderes angibt. „A und/oder B“ beinhaltet zum Beispiel A allein, B allein und A mit B.
  • In den verschiedenen präsentierten Figuren dargestellte Verbindungslinien und Anschlüsse sollen exemplarische funktionelle Beziehungen und/oder physische oder logische Kopplungen zwischen verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative und/oder zusätzliche funktionelle Beziehungen, physische Verbindungen oder logische Verbindungen vorhanden sein können. Darüber hinaus ist kein Element und keine Komponente für die Umsetzung dieser Offenbarung unerlässlich, außer das Element ist speziell als „unerlässlich“ oder „kritisch“ beschrieben. Außerdem sind die Figuren und/oder Zeichnungen nicht maßstabsgetreu dargestellt, sondern sollen der Klarheit der Veranschaulichung und Beschreibung dienen.
  • Auch wenn bestimmte beispielhafte Verfahren, Vorrichtungen und Artikel der Herstellung hierin beschrieben wurden, ist der Umfang des Geltungsbereichs dieses Patentes nicht auf diese beschränkt. Es ist selbstverständlich, dass hierin genutzte Terminologie den Zweck hat, bestimmte Aspekte zu beschreiben, und nicht einschränkend gedacht ist. Im Gegensatz deckt dieses Patent alle Verfahren, Vorrichtungen und Artikel der Herstellung ab, die weitesgehend dem Schutzumfang der Ansprüche dieses Patentes unterfallen.

Claims (20)

  1. Computergerät, umfassend: ein erstes Gehäuse; ein Display, das im ersten Gehäuse angeordnet ist; eine erste Vielzahl von Berührungszellen, die im ersten Gehäuse, in einer linearen Anordnung außerhalb des Displays, angeordnet ist, wobei die erste Vielzahl von Berührungszellen jeweils eine erste Vielzahl von Signalen über eine erste Fläche des ersten Gehäuses aussendet; einen Prozessor; und ein nicht flüchtiges computerlesbares Speichermedium, das Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: eine erste Vielzahl von Berührungseingabesignalen von der ersten Vielzahl von Berührungszellen zu empfangen; und das Computergerät in Übereinstimmung mit der ersten Vielzahl von Berührungseingabesignalen zu betreiben.
  2. Computergerät nach Anspruch 1, wobei die erste Vielzahl von Berührungszellen entlang eines inneren Randabschnitts des ersten Gehäuses, an die erste Fläche des ersten Gehäuses angrenzend, angeordnet ist.
  3. Computergerät nach Anspruch 1, wobei das Display einen Touchscreen umfasst, der Touchscreen eine zweite Vielzahl von Berührungszellen aufweisend, die an einem Randabschnitt des Displays angeordnet ist, wobei die zweite Vielzahl von Berührungszellen jeweils eine zweite Vielzahl von Signalen über eine zweite Fläche des Gehäuses aussendet; und wobei die Anweisungen, wenn sie von dem Prozessor ausgeführt werden, den Prozessor ebenfalls veranlassen: eine zweite Vielzahl von Berührungseingabesignalen von der zweiten Vielzahl von Berührungszellen zu empfangen; und das Computergerät gemäß der zweiten Vielzahl von Berührungseingabesignalen zu betreiben.
  4. Computergerät nach Anspruch 1, wobei die erste Vielzahl von Berührungseingabesignalen einer durch die erste Vielzahl von Berührungszellen entlang der ersten Fläche des ersten Gehäuses detektierten Wischeingabe entspricht.
  5. Computergerät nach Anspruch 4, wobei beim Betrieb des Computergeräts gemäß der ersten Vielzahl von Berührungseingabesignalen die Anweisungen den Prozessor mindestens zu einem der Folgenden veranlassen: Entsperren des Computergeräts zwecks Betriebs aus einem Standby-Zustand oder einem ausgeschalteten Zustand; Einstellen eines Lautstärkepegels des Computergeräts; Einstellen einer Helligkeitsstufe des Displays; Scrollen von Inhalten eines Fensters, das auf dem Display angezeigt wird; Navigieren einer auf dem Display angezeigten Elementliste; Vorwärtsbewegen in einem auf dem Display angezeigten Webbrowser-Fenster; Rückwärtsbewegen in einem auf dem Display angezeigten Webbrowser-Fenster; oder Öffnen einer Anwendung zur Ausführung durch den Prozessor.
  6. Computergerät nach Anspruch 4, wobei ein Muster der auf der ersten Fläche des ersten Gehäuses durch die erste Vielzahl von Berührungszellen detektierten Wischeingabe einem zuvor gespeicherten Code zum Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand entspricht.
  7. Computergerät nach Anspruch 1, wobei die erste Vielzahl von Berührungseingaben durch eine Sequenz definiert ist, welche eine Vielzahl von Unterbrechungspunkten, eine Vielzahl von Tippvorgängen oder eine Kombination einer Vielzahl von Unterbrechungspunkten und Tippvorgängen beinhaltet, detektiert durch die erste Vielzahl von Berührungszellen an der ersten Fläche des ersten Gehäuses, wobei die Vielzahl von Unterbrechungspunkten und/oder die Vielzahl von Tippvorgängen die Sequenz definieren, die an einer jeweiligen Vielzahl von festgelegten Positionen auf der ersten Fläche des ersten Gehäuses detektiert werden, einem vorher gespeicherten Code zum Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand entsprechen.
  8. Computergerät nach Anspruch 1, wobei das Gehäuse ein fett- und schmutzabweisendes Material umfasst.
  9. Computergerät nach Anspruch 1, wobei die erste Fläche mindestens entweder eine einen Peripherieabschnitt des Displays, einen lateralen Abschnitt des ersten Gehäuses oder eine obere Fläche des ersten Gehäuses umgebende Einfassung umfasst.
  10. Computergerät nach Anspruch 1, des Weiteren umfassend: ein zweites Gehäuse, das mit dem ersten Gehäuse gekoppelt ist; eine Tastatur, die im zweiten Gehäuse angeordnet ist; und eine zweite Vielzahl von Berührungszellen, die entlang eines Randabschnitts des zweiten Gehäuses angeordnet ist, wobei die zweite Vielzahl von Berührungszellen jeweils eine zweite Vielzahl von Signalen über eine zweite Fläche des zweiten Gehäuses aussendet, wobei die Anweisungen den Prozessor veranlassen: eine zweite Vielzahl von Berührungseingabesignalen von der zweiten Vielzahl von Berührungszellen zu empfangen; und das Computergerät gemäß der zweiten Vielzahl von Berührungseingabesignalen zu betreiben.
  11. Computergerät nach Anspruch 10, wobei die zweite Fläche des zweiten Gehäuses mindestens entweder eine Kante rund um die Tastatur, einen lateralen Randabschnitt des zweiten Gehäuses oder eine untere Fläche des zweiten Gehäuses umfasst.
  12. Computergerät nach Anspruch 1, wobei das Computergerät ein tragbarer Computer ist, und das Computergerät selektiv und klappbar in einer Vielzahl verschiedener geklappter Anordnungen angeordnet werden kann; und wobei die Anweisungen den Prozessor veranlassen: das Computergerät als Reaktion auf die erste Vielzahl von Berührungseingabesignalen in einem ersten Modus zu betreiben, wenn das Computergerät in einer ersten geklappten Anordnung ist; und das Computergerät in einem zweiten Modus als Reaktion auf die erste Vielzahl von Berührungseingabesignalen zu betreiben, wenn das Computergerät in einer zweiten geklappten Anordnung ist.
  13. Verfahren zum Betreiben eines Computergeräts mit einem Gehäuse und einem in dem Gehäuse angeordneten Display, das Verfahren umfassend: Betreiben einer Vielzahl von Berührungszellen, um jeweils eine Vielzahl von Signalen über das Gehäuse auszusenden, wobei die Vielzahl von Berührungszellen linear in dem Gehäuse, entlang eines Randabschnitts des Gehäuses, außerhalb des Displays, angeordnet ist; Empfangen einer Vielzahl von Berührungseingabesignalen von der Vielzahl von Berührungszellen; und Betreiben des Computergeräts als Reaktion auf die Vielzahl von Berührungseingabesignalen, einschließlich Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand als Reaktion auf die Vielzahl von Berührungseingabesignalen.
  14. Verfahren nach Anspruch 13, wobei das Empfangen einer Vielzahl von Berührungseingabesignalen von der Vielzahl von Berührungszellen Folgendes beinhaltet: Detektieren einer Wischeingabe entlang einer Außenfläche des Gehäuses an einer Position an der Außenfläche des Gehäuses, die einer Position der Vielzahl von Berührungszellen in dem Gehäuse entspricht; und Korrelieren der detektierten Wischeingabe mit der Vielzahl von Berührungseingabesignalen zur Verarbeitung durch einen Prozessor des Computergeräts.
  15. Verfahren nach Anspruch 14, wobei der Betrieb des Computergeräts als Reaktion auf die Vielzahl von Berührungseingabesignalen als Reaktion auf Detektieren der Wischeingabe mindestens eines der Folgenden beinhaltet: Einstellen einer Lautstärke des Computergeräts; Einstellen einer Helligkeit des Displays; Scrollen von Inhalten eines Fensters, das auf dem Display angezeigt wird; Navigieren einer auf dem Display angezeigten Elementliste; Vorwärtsbewegen in einem auf dem Display angezeigten Webbrowser-Fenster; Rückwärtsbewegen in einem auf dem Display angezeigten Webbrowser-Fenster; oder Öffnen einer Anwendung zur Ausführung durch das Computergerät.
  16. Verfahren nach Anspruch 14, eine Wischeingabe entlang einer Außenfläche des Gehäuses detektierend, das Detektieren einer Berührungseingabe entlang der Außenfläche des Gehäuses, eines Musters der Wischeingabe eines zuvor gespeicherten Codes zum Entsperren des Computergeräts aus dem Standby-Zustand oder dem ausgeschalteten Zustand entsprechend, beinhaltend.
  17. Computergerät nach Anspruch 13, wobei die Vielzahl von Berührungseingaben eine Vielzahl von durch die Vielzahl von Berührungszellen an einer Außenfläche des Gehäuses detektierten Tippvorgängen beinhaltet, wobei die Vielzahl von Tippvorgängen, die an einer jeweiligen Vielzahl von festgelegten Positionen auf der Außenfläche des Gehäuses detektiert wird, einem zuvor gespeicherten Code zum Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand entspricht.
  18. Computerprogrammprodukt, das in einem nicht flüchtigen, computerlesbaren Medium verkörpert ist, wobei auf dem computerlesbaren Medium eine Sequenz von Anweisungen gespeichert ist, die, wenn sie von einen Prozessor ausgeführt werden, den Prozessor veranlassen, ein Verfahren auszuführen, das Verfahren umfassend: Betreiben einer Vielzahl von Berührungszellen, um jeweils eine Vielzahl von Signalen über das Gehäuse auszusenden, wobei die Vielzahl von Berührungszellen linear in dem Gehäuse, entlang eines Randabschnitts des Gehäuses, außerhalb eines in dem Gehäuse positionierten Displays, angeordnet ist; Empfangen einer Vielzahl von Berührungseingabesignalen von der Vielzahl von Berührungszellen; und Betreiben des Computergeräts als Reaktion auf die Vielzahl von Berührungseingabesignalen, einschließlich Entsperren des Computergeräts aus einem Standby-Zustand oder einem ausgeschalteten Zustand als Reaktion auf die Vielzahl von Berührungseingabesignalen.
  19. Computerprogrammprodukt nach Anspruch 18, wobei beim Empfangen einer Vielzahl von Berührungseingabesignalen von der Vielzahl von Berührungszellen, das Verfahren Folgendes beinhaltet: Detektieren einer Wischeingabe entlang einer Außenfläche des Gehäuses an einer Position an der Außenfläche des Gehäuses, die einer Position der Vielzahl von Berührungszellen in dem Gehäuse entspricht; Korrelieren der detektierten Wischeingabe mit der Vielzahl von Berührungseingabesignalen; Vergleichen eines Musters der Wischeingabe mit einem zuvor gespeicherten Code; und Entsperren des Computergeräts aus dem Standby-Zustand oder dem ausgeschalteten Zustand als Reaktion auf eine Bestimmung, dass das Muster der Wischeingabe mit dem zuvor gespeicherten Code übereinstimmt.
  20. Computerprogramm nach Anspruch 19, wobei das Muster durch eine Sequenz definiert ist, die eine Vielzahl von Unterbrechungspunkten, eine Vielzahl von Tippvorgängen oder eine Kombination aus Unterbrechungspunkten und Tippvorgängen beinhaltet, die an der Außenfläche des Gehäuses erkannt werden, wobei das Muster der Wischeingabe mit dem zuvor gespeicherten Code übereinstimmt, wenn die Vielzahl von Unterbrechungspunkten und/oder Vielzahl von Tippvorgängen, die die Sequenz definieren, detektierte Positionen an der Außenfläche des Gehäuses sind, die dem zuvor gespeicherten Code entsprechen.
DE102017105924.5A 2016-04-05 2017-03-20 Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb Pending DE102017105924A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662318433P 2016-04-05 2016-04-05
US62/318,433 2016-04-05

Publications (1)

Publication Number Publication Date
DE102017105924A1 true DE102017105924A1 (de) 2017-10-05

Family

ID=58687941

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102017105924.5A Pending DE102017105924A1 (de) 2016-04-05 2017-03-20 Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb
DE202017101606.4U Active DE202017101606U1 (de) 2016-04-05 2017-03-20 Computergeräte mit Wischoberflächen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202017101606.4U Active DE202017101606U1 (de) 2016-04-05 2017-03-20 Computergeräte mit Wischoberflächen

Country Status (4)

Country Link
US (1) US10209821B2 (de)
CN (1) CN107390779B (de)
DE (2) DE102017105924A1 (de)
GB (1) GB2550277B (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9594429B2 (en) 2014-03-27 2017-03-14 Apple Inc. Adjusting the level of acoustic and haptic output in haptic devices
US10585480B1 (en) 2016-05-10 2020-03-10 Apple Inc. Electronic device with an input device having a haptic engine
US10649529B1 (en) 2016-06-28 2020-05-12 Apple Inc. Modification of user-perceived feedback of an input device using acoustic or haptic output
CN108139774B (zh) * 2016-07-04 2020-07-21 华为技术有限公司 可穿戴电子设备
US10372214B1 (en) 2016-09-07 2019-08-06 Apple Inc. Adaptable user-selectable input area in an electronic device
US10437359B1 (en) 2017-02-28 2019-10-08 Apple Inc. Stylus with external magnetic influence
US11093197B2 (en) * 2017-07-31 2021-08-17 Stmicroelectronics, Inc. System and method to increase display area utilizing a plurality of discrete displays
US10768747B2 (en) 2017-08-31 2020-09-08 Apple Inc. Haptic realignment cues for touch-input displays
US11054932B2 (en) 2017-09-06 2021-07-06 Apple Inc. Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module
US10556252B2 (en) 2017-09-20 2020-02-11 Apple Inc. Electronic device having a tuned resonance haptic actuation system
US10768738B1 (en) 2017-09-27 2020-09-08 Apple Inc. Electronic device having a haptic actuator with magnetic augmentation
US10901462B2 (en) * 2017-10-26 2021-01-26 Samsung Electronics Co., Ltd. System and method for touch input
KR20190054397A (ko) * 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10942571B2 (en) 2018-06-29 2021-03-09 Apple Inc. Laptop computing device with discrete haptic regions
US11462194B1 (en) * 2018-07-30 2022-10-04 Apple Inc. Position sensors for system with overlapped displays
US10936071B2 (en) 2018-08-30 2021-03-02 Apple Inc. Wearable electronic device with haptic rotatable input
US10921854B2 (en) 2018-09-06 2021-02-16 Apple Inc. Electronic device with sensing strip
US10613678B1 (en) 2018-09-17 2020-04-07 Apple Inc. Input device with haptic feedback
US10966007B1 (en) 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US10656763B1 (en) * 2019-01-04 2020-05-19 Sensel, Inc. Dynamic adjustment of a click threshold corresponding to a force-based tactile sensor
EP3908909A1 (de) 2019-01-11 2021-11-17 Motherson Innovations Company Ltd. Interaktionselement, steuerelement und kraftfahrzeug
JP2020166841A (ja) * 2019-03-26 2020-10-08 株式会社東海理化電機製作所 制御装置、システム、及びプログラム
US10969873B2 (en) * 2019-04-12 2021-04-06 Dell Products L P Detecting vibrations generated by a swipe gesture
US11106772B2 (en) * 2020-01-31 2021-08-31 Dell Products, Lp System and method for continuous user identification via piezo haptic keyboard and touchpad dynamics
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5871500A (en) * 1999-06-11 2001-01-02 Sydney Hyman Image making medium
CN2491899Y (zh) * 2001-06-29 2002-05-15 神达电脑股份有限公司 具有光耦合开关的可携式电子装置
JP2003296015A (ja) * 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US8698727B2 (en) * 2007-01-05 2014-04-15 Apple Inc. Backlight and ambient light sensor system
US7821780B2 (en) * 2007-07-19 2010-10-26 Heng Kah Choy Dual screen presentation notebook computer
US8099144B2 (en) * 2007-08-20 2012-01-17 Google Inc. Electronic device with hinge mechanism
TWI375161B (en) * 2007-10-03 2012-10-21 Htc Corp Hand-held electronic device
US8933892B2 (en) 2007-11-19 2015-01-13 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US9335868B2 (en) 2008-07-31 2016-05-10 Apple Inc. Capacitive sensor behind black mask
US8604364B2 (en) 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
JP2010157038A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 電子機器、入力制御方法
US20120019356A1 (en) 2009-04-29 2012-01-26 Eric Gagneraud Fingerprint scanner
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
US8988190B2 (en) 2009-09-03 2015-03-24 Dell Products, Lp Gesture based electronic latch for laptop computers
US8331749B2 (en) * 2009-12-31 2012-12-11 Juniper Networks, Inc. Using a waveguide to display information on electronic devices
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
KR101642725B1 (ko) 2010-04-14 2016-08-11 삼성전자 주식회사 휴대 단말기의 잠금 기능 운용 방법 및 장치
US7876288B1 (en) * 2010-08-11 2011-01-25 Chumby Industries, Inc. Touchscreen with a light modulator
EP2439608A1 (de) 2010-10-08 2012-04-11 Research In Motion Limited Vorrichtung mit seitlichem Sensor
US20120304107A1 (en) 2011-05-27 2012-11-29 Jennifer Nan Edge gesture
US20120329524A1 (en) * 2011-06-22 2012-12-27 Kent Joel C Touch sensor and antenna integration along an electronic device housing
CN102346833A (zh) 2011-06-27 2012-02-08 苏州天擎电子通讯有限公司 一种指纹锁笔记本电脑
KR101838031B1 (ko) * 2011-07-21 2018-03-13 삼성전자주식회사 휴대용 단말기에서 아이콘 관리 방법 및 장치
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8743069B2 (en) * 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
US8711116B2 (en) 2011-10-17 2014-04-29 Facebook, Inc. Navigating applications using side-mounted touchpad
KR20130095478A (ko) * 2012-02-20 2013-08-28 삼성전자주식회사 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
US20140099992A1 (en) * 2012-10-09 2014-04-10 Qualcomm Mems Technologies, Inc. Ear position and gesture detection with mobile device
US8875021B2 (en) * 2012-10-23 2014-10-28 Verizon Patent And Licensing Inc. Visual playlist
CN103543939B (zh) * 2013-07-08 2017-06-06 Tcl集团股份有限公司 一种电子设备解锁方法、系统及电子设备
CN105431798B (zh) 2013-09-12 2019-01-22 英特尔公司 检测在计算设备的侧面上的手势
US9058480B2 (en) * 2013-11-05 2015-06-16 Google Inc. Directional touch unlocking for electronic devices
US20150145781A1 (en) * 2013-11-22 2015-05-28 Kobo Inc. Displaying a panel overlay on a computing device responsive to input provided through a touch-sensitive housing
US9851896B2 (en) 2013-12-17 2017-12-26 Google Inc. Edge swiping gesture for home navigation
US10067648B2 (en) * 2014-02-13 2018-09-04 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
JP2017513165A (ja) * 2014-03-21 2017-05-25 イマージョン コーポレーションImmersion Corporation 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法
KR101655810B1 (ko) * 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
KR102206054B1 (ko) * 2014-05-09 2021-01-21 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
US20150338982A1 (en) * 2014-05-20 2015-11-26 Crunchy Logistics Llc System, device and method for emulating user interaction with a touch screen device
US9891799B2 (en) * 2014-10-28 2018-02-13 Gree, Inc. Game program, computer control method, and information processing apparatus
US9774597B2 (en) * 2014-12-05 2017-09-26 Microsoft Technology Licensing, Llc Configurable electronic-device security locking
US9612685B2 (en) * 2015-04-09 2017-04-04 Microsoft Technology Licensing, Llc Force-sensitive touch sensor compensation
US20170206055A1 (en) * 2016-01-19 2017-07-20 Apple Inc. Realtime audio effects control

Also Published As

Publication number Publication date
DE202017101606U1 (de) 2017-07-07
US20170285843A1 (en) 2017-10-05
GB201705021D0 (en) 2017-05-10
GB2550277B (en) 2020-07-22
US10209821B2 (en) 2019-02-19
GB2550277A (en) 2017-11-15
CN107390779A (zh) 2017-11-24
CN107390779B (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
DE102017105924A1 (de) Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb
DE102013016913B4 (de) Sprachaktivierung für Mobilvorrichtungen
DE102009011687B4 (de) Berührungsereignismodell
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE102010036906A1 (de) Konfigurierbares Pie-Menü
DE202012005481U1 (de) Bewegen eines graphischen Selektors
DE112009001281T5 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE112013004619T5 (de) Texteintrag mit partieller Geste
DE202011106877U1 (de) Modusumschaltung
DE212011100023U1 (de) Automatische Ableitung von analogen Berührungsgesten von einer Benutzerdefinierten Geste
US20140143856A1 (en) Operational shortcuts for computing devices
DE112016001105T5 (de) Reagieren von konkurrierenden Vorrichtungen auf Sprachauslöser
DE202016001214U1 (de) Benutzerschnittstelle für Zahlungen
DE202011110758U1 (de) Mobiles Endgerät
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich
DE112013004437B4 (de) Verfahren zum Definieren einer Eingebetaste auf einer Tastatur und Verfahren zur Interpretation von Tastenanschlägen
DE112006003515T5 (de) Entsperren einer Vorrichtung durch Ausführen von Gesten auf einem Entsperrungsbild
DE112013006621T5 (de) Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
DE102009012638A1 (de) Verfahren zur Anzeige und Anwendung einer Bedienschnittstelle und ein elektronisches Gerät
DE202013011826U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Zugreifen auf eine Anwendung in einer gesperrten Vorrichtung
DE202014103257U1 (de) Mobiles Endgerät
DE102014213429A1 (de) Touchpad für eine Benutzer-Fahrzeug-Interaktion
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
DE202013012233U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE