DE212006000028U1 - Multifunktionale Handgehaltene Vorrichtung - Google Patents

Multifunktionale Handgehaltene Vorrichtung Download PDF

Info

Publication number
DE212006000028U1
DE212006000028U1 DE212006000028U DE212006000028U DE212006000028U1 DE 212006000028 U1 DE212006000028 U1 DE 212006000028U1 DE 212006000028 U DE212006000028 U DE 212006000028U DE 212006000028 U DE212006000028 U DE 212006000028U DE 212006000028 U1 DE212006000028 U1 DE 212006000028U1
Authority
DE
Germany
Prior art keywords
touch
display
user
hand
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE212006000028U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=36936660&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE212006000028(U1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE212006000028U1 publication Critical patent/DE212006000028U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04144Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Calculators And Similar Devices (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Telephone Set Structure (AREA)

Abstract

Handgehaltene elektronische Vorrichtung, aufweisend:
eine berühmngsempfindliche Eingabeoberfläche;
eine Verarbeitungseinheit, welche mit der berührungsempfindlichen Eingabeoberfläche operativ verbunden ist, wobei die Verarbeitungseinheit im Stande ist, Angaben zu empfangen, welche mit Berührungseingaben von einem Benutzer verknüpft sind, und eine vom Benutzer angeforderte Aktion aus einer oder mehreren der Angaben zu bestimmen,
eine Anzeigevorrichtung, welche mit der Verarbeitungseinheit operativ gekoppelt ist, und konfiguriert ist, eine Benutzerschnittstelle darzustellen, wobei die Anzeigevorrichtung wenigstens teilweise mit der berührungsempfindlichen Eingabeoberfläche überlappt; und
einen physikalischen Eingabemechanismus, welcher von der berührungsempfindlichen Eingabeoberfläche unabhängig ist, wobei der physikalische Eingabemechanismus eine erste Operation in der elektronischen Vorrichtung bewirkt, und die berührungsempfindliche Eingabeoberfläche gleichzeitig eine zweite Operation in der elektronischen Vorrichtung bewirkt.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung ist verwandt mit und beansprucht den Vorteil von: (1) U.S.-vorläufige Patentanmeldung Nr. 60/658,777 mit dem Titel "Multi-Functional Hand-Held Device", angemeldet am 4. März 2005 und (2) U.S.-vorläufige Patentanmeldung Nr. 60/663,345 mit dem Titel "Multi-Functional Hand-Held Device", angemeldet am 16. März 2005, von denen jede hiermit durch Bezugnahme einbezogen wird.
  • Diese Anmeldung ist verwandt mit den folgenden Anmeldungen, welche hier alle durch Bezugnahme einbezogen werden: (1) U.S.-Patentanmeldung Nr. 10/188,182 mit dem Titel "Touch Pad for Handheld Device", angemeldet am 1. Juli 2002; (2) U.S.-Patentanmeldung Nr. 10/722,948 mit dem Titel "Touch Pad for Handheld Device", angemeldet am 25. November 2003; (3) U.S.-Patentanmeldung Nr. 10/643,256 mit dem Titel "Movable Touch Pad with Added Functionality", angemeldet am 18. August 2003; (4) U.S.-Patentanmeldung Nr. 10/654,108 mit dem Titel "Ambidextrous Mouse", angemeldet am 2. September 2003; (5) U.S.-Patentanmeldung Nr. 10/840,862 mit dem Titel "Multipoint Touch Screen", angemeldet am 6. Mai 2004; (6) U.S.-Patentanmeldung Nr. 10/903,964 mit dem Titel "Gestures for Touch Sensitive Input Devices", angemeldet am 30. Juli 2004; (7) U.S.-Patentanmeldung Nr. 11/038,590 mit dem Titel "Mode-Based Graphical User Interfaces for Touch Sensitive Input Devices", angemeldet am 18. Januar 2005; und (8) U.S.-Patentanmeldung Nr. 11/057,050 mit dem Titel "Display Actuator", angemeldet am 4. Februar 2005; (9) U.S.-Patentanmeldung Nr. 11/115,539 mit dem Titel "Hand-Held Electronic Device with Multiple Touch Sensing Devices", angemeldet am 26. April 2005.
  • HINTERGRUND
  • Es gibt heutzutage viele Arten von handgehaltenen elektronischen Vorrichtungen, von denen jede irgendeine Art von Benutzerschnittstelle verwendet. Die Benutzerschnittstelle beinhaltet typischerweise eine Ausgabevorrichtung in der Form einer Anzeige, wie eine Flüssigkristallanzeige (LCD), und eine oder mehrere Eingabevorrichtungen, welche mechanisch betätigt (z. B. Schalter, Tasten, Knöpfe, Wählscheiben, Joysticks, Joypads) oder elektrisch betätigt (z. B. Berührungsfelder (Touchpads)) oder Berührungsbildschirme (Touchscreens) werden können. Die Anzeige ist typischerweise konfiguriert, visuelle Informationen darzustellen, wie Text und Grafiken, und die Eingabevorrichtungen sind typischerweise konfiguriert, Operationen auszuführen, wie Ausgeben von Befehlen, Treffen einer Auswahl oder Bewegen eines Cursors oder Wählers in der elektronischen Vorrichtung. Jede dieser wohl bekannten Vorrichtungen hat Gesichtspunkte, wie Größe und Formbegrenzungen, Kosten, Funktionalität, Komplexität, etc., welche berücksichtigt werden müssen, wenn die handgehaltene elektronische Vorrichtung entworfen wird. In den meisten Fällen ist die Benutzerschnittstelle auf der Vorderseite (oder vorderen Oberfläche) der handgehaltenen Vorrichtung positioniert zum leichten Betrachten der Anzeige und leichter Manipulation der Eingabevorrichtung.
  • 1A-1F sind Darstellungen verschiedener handgehaltener elektronischer Vorrichtungen, einschließlich zum Beispiel eines Telefons 10A (1A), eines PDA 10B (1B), eines Medienabspielgeräts 10C (1C), einer Fernbedienung 10D (1D), einer Kamera 10E (1E) und eines GPS-Moduls 10F (1F). In jeder dieser Vorrichtungen 10 ist eine Anzeige 12, welche innerhalb des Gehäuses der Vorrichtung 10 gesichert ist, und welche durch eine Öffnung in dem Gehäuse zu sehen ist, typischerweise in einem ersten Bereich der elektronischen Vorrichtung 10 positioniert. Jede dieser Vorrichtungen beinhaltet auch eine oder mehrere Eingabevorrichtungen 14, welche typischerweise in einem zweiten Bereich der elektronischen Vorrichtung 10 in der Nähe der Anzeige 12 positioniert sind.
  • Genau gesagt beinhaltet das Telefon 10A typischerweise eine Anzeige 12, wie eine Zeichen- oder grafische Anzeige, und Eingabevorrichtungen 14, wie ein Zahlenfeld und in manchen Fällen ein Navigationsfeld. Der PDA 10B beinhaltet typischerweise eine Anzeige 12, wie eine grafische Anzeige, und Eingabevorrichtungen 14, wie ein Schreibstift basierter widerstandsfähiger Berührungsbildschirm und Tasten. Das Medienabspielgerät 10C beinhaltet typischerweise eine Anzeige 12, wie eine Zeichen- oder grafische Anzeige, und Eingabevorrichtungen 14, wie Tasten oder Räder. Das iPod®-Medienabspielgerät, welches von Apple Computer, Inc. aus Cupertino, Kalifornien, hergestellt wird, ist ein Beispiel eines Medienabspielgeräts, das sowohl eine Anzeige als auch Eingabevorrichtungen, welche in der Nähe der Anzeige angeordnet sind, beinhaltet. Die Fernbedienung 10D beinhaltet typischerweise eine Eingabevorrichtung 14, wie ein Tastenfeld, und kann oder kann auch nicht eine Zeichenanzeige 12 aufweisen. Die Kamera 10E beinhaltet typischerweise eine Anzeige 12, wie eine Zeichenanzeige, und Eingabevorrichtungen 14, wie Tasten. Das GPS-Modul 10F beinhaltet typischerweise eine Anzeige 12, wie eine grafische Anzeige, und Eingabevorrichtungen 14, wie Tasten, und in manchen Fällen ein Joypad.
  • In jüngster Zeit wurde begonnen, traditionell getrennte handgehaltene elektronische Vorrichtungen in eingeschränktem Rahmen zu kombinieren. Zum Beispiel wurde das Telefon 10A mit dem PDA 10B kombiniert. Ein Problem, auf das gestoßen wurde, ist die Art, auf welche Eingaben in die Vorrichtungen gemacht werden. Jede dieser Vorrichtungen hat einen bestimmten Satz von Eingabemechanismen zum Bereitstellen von Eingaben in die Vorrichtung. Manche dieser Eingabemechanismen sind allen Geräten gemein (z. B. Ein-/Ausschalttaste), während andere es nicht sind. Diejenigen, die nicht allen gemein sind, sind typischerweise einer bestimmten Funktionalität der Vorrichtung zugeordnet. Beispielsweise beinhalten PDAs typischerweise vier dedizierte Tasten, während Mobiltelefone typischerweise ein numerisches Tastenfeld und wenigstens zwei dedizierte Tasten beinhalten.
  • Daher ist es eine Herausforderung, eine fusionierte Vorrichtung mit beschränkten Eingabevorrichtungen zu entwerfen, ohne die dedizierten Eingaben für jede Vorrichtung nachteilig zu beeinflussen. Wie anerkannt werden wird, ist es vorzuziehen, die handgehaltenen Vorrichtungen nicht mit einer großen Anzahl von Eingabemechanismen zu überladen, da dies dazu neigt, den Benutzer zu verwirren, und wertvollen Raum beansprucht, d. h. "Grundstück" (real estate). In dem Fall von handgehaltenen Vorrichtungen ist Raum erstrangig, wegen ihrer kleinen Größe. Irgendwann gibt es nicht genügend Raum auf der Vorrichtung, um all die notwendigen Tasten und Schalter, etc. zu beherbergen. Dies ist insbesondere wahr, wenn berücksichtigt wird, dass all die Vorrichtungen eine Anzeige benötigen, die typischerweise alleine schon eine große Menge Raum einnimmt. Um die Anzahl von Eingabevorrichtungen über irgendeine Grenze zu erhöhen, müssten Konstrukteure die Größe der Anzeige verringern. Dies wird jedoch einen negativen Eindruck bei dem Benutzer hinterlassen, da der Benutzer typischerweise die größtmögliche Anzeige wünscht. Alternativ, um mehr Eingabevorrichtungen aufzunehmen, können Konstrukteure sich entscheiden, die Größe der Vorrichtung zu erhöhen. Dies wird auch oft einen negativen Eindruck bei einem Benutzer hinterlassen, weil es die einhändige Handhabung schwierig machen würde, und irgendwarm wird die Größe der Vorrichtung so groß, dass sie nicht länger als eine handgehaltene Vorrichtung betrachtet werden kann.
  • Daher wird in dem Fachgebiet eine verbesserte Benutzerschnittstelle benötigt, welche für multifunktionale handgehaltene Vorrichtungen funktioniert.
  • Es ist hier eine multifunktionale handgehaltene Vorrichtung offenbart, welche imstande ist, Benutzereingaben zu konfigurieren, basierend darauf, wie die Vorrichtung benutzt werden soll. Vorzugsweise weist die multifunktionale handgehaltene Vorrichtung höchstens nur einige physikalische Tasten, Knöpfe oder Schalter auf, so dass ihre Anzeigegröße wesentlich erhöht werden kann. Mit anderen Worten, durch Entfernen von physikalischen Tasten, Knöpfen oder Schaltern von einer vorderen Oberfläche der elektronischen Vorrichtung, wird zusätzlicher Oberflächenbereich für eine größere Anzeige verfügbar. Letztendlich würde diese Strategie eine im Wesentlichen volle Bildschirmanzeige erlauben. Wie hier verwendet, ist eine Vollbildschirmanzeige eine Anzeige, welche eine Oberfläche (z. B. vordere Oberfläche) einer elektronischen Vorrichtung einnimmt, oder wenigstens dominiert.
  • Verschiedene Ausführungsformen einer multifunktionalen handgehaltenen Vorrichtung werden unten mit Bezug auf 2-28 diskutiert. Jedoch wird der Fachmann verstehen, dass die hier gegebene detaillierte Beschreibung mit Bezug auf diese Figuren beispielhaft und nicht erschöpfend ist und dass viele Variationen dieser Ausführungsformen möglich sind.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Erfindung kann am Besten verstanden werden mit Bezug auf die folgende Beschreibung zusammengenommen mit den beigefügten Zeichnungen, in welchen:
  • 1A-1F Darstellungen verschiedener elektronischer Vorrichtungen sind.
  • 2 eine vereinfachte Darstellung einer multifunktionalen handgehaltenen Vorrichtung ist.
  • 3 eine perspektivische Ansicht handgehaltenen Vorrichtung mit einem im Wesentlichen Vollbildschirm und mit einer beschränkten Anzahl von beschränkten Tasten ist.
  • 4 eine Vorderansicht einer handgehaltenen Vorrichtung mit wenigstens einer Taste ist.
  • 5 eine Darstellung einer GUI ist, welche in einen Standardbereich und einen Bedienbereich unterteilt ist.
  • 6 eine Darstellung einer GUI ist, welche in einen Standardbereich und einen Bedienbereich unterteilt ist.
  • 7 eine Darstellung einer GUI ist, welche in einen Standardbereich und einen Bedienbereich unterteilt ist.
  • 8 eine Darstellung einer GUI ist, welche in einen Standardbereich und einen Bedienbereich unterteilt ist.
  • 9 eine beispielhafte GUI für einen PDA darstellt.
  • 10 eine beispielhafte GUI für ein Mobiltelefon darstellt.
  • 11 eine beispielhafte GUI für ein Medienabspielgerät darstellt.
  • 12 eine beispielhafte GUI für ein Videoabspielgerät darstellt.
  • 13 eine beispielhafte GUI für ein Spielabspielgerät darstellt.
  • 14 eine beispielhafte GUI für eine Kamera darstellt.
  • 15 eine beispielhafte GUI für ein GPS darstellt.
  • 16 eine beispielhafte GUI für eine Fernbedienung darstellt.
  • 17 eine beispielhafte GUI für ein Handtop darstellt.
  • 18 eine beispielhafte GUI für ein Hauptmenü einer multifunktionalen handgehaltenen Vorrichtung darstellt.
  • 19 eine seitliche Aufrissansicht ist, im Querschnitt, einer handgehaltenen Vorrichtung, welche eine kraftempfindliche Anzeige einschließt.
  • 20 eine Eingabevorrichtung darstellt, welche berührungsempfindliche und kraftempfindliche Vorrichtungen kombiniert, um x-, y- und z-Komponenten bereitzustellen, wenn sie berührt wird.
  • 21 eine seitliche Aufrissansicht einer Eingabe/Ausgabevorrichtung ist, welche eine Anzeige mit Berührungsbildschirm und einen kraftempfindlichen Mechanismus kombiniert.
  • 22 eine seitliche Aufrissansicht einer Eingabevorrichtung ist.
  • 23 eine Seitenansicht ist, im Querschnitt, einer handgehaltenen Vorrichtung, welche ein Quetschmerkmal (squeeze feature) beinhaltet.
  • 24 eine Seitenansicht ist, im Querschnitt, einer handgehaltenen elektronischen Vorrichtung.
  • 25 ein Blockdiagramm eines berührungsfühlenden Verfahrens ist.
  • 26 ein Blockdiagramm eines berührungsfühlenden Verfahrens ist.
  • 27A-E Tabellen sind, welche ein Beispiel eines mit einem Musikabspielgerät verknüpften Berührungsvokabulars darstellen.
  • 28 ein Blockdiagramm einer beispielhaften multifunktionalen handgehaltenen Vorrichtung ist.
  • DETAILLIERTE BESCHREIBUNG
  • I. MULTIFUNKTIONALITÄT
  • Hersteller elektronischer Vorrichtungen haben die Vorteile des Kombinierens einzelner handgehaltener elektronischer Vorrichtungen, um Multifunktionsvorrichtungen zu bilden, entdeckt. Dadurch, dass man eine einzige Multifunktionsvorrichtung hat, wird der Benutzer nicht damit belastet, mehrere Vorrichtungen zu tragen, zu kaufen und zu warten. Des Weiteren ist der Benutzer nicht in den Operationen begrenzt, welche ausgeführt werden können, das heißt der Benutzer kann verschiedene Operationen mit einer einzigen Vorrichtung ausführen, welche sonst die Benutzung verschiedener Vorrichtungen erfordert hätte.
  • Wie hier verwendet, wird der Begriff "multifunktional" verwendet, um eine Vorrichtung zu definieren, welche die Fähigkeiten von zwei oder mehreren traditionellen Vorrichtungen in einer einzigen Vorrichtung hat. Die multifunktionale Vorrichtung kann zum Beispiel zwei oder mehrere der folgenden Vorrichtungsfunktionalitäten beinhalten: PDA, Mobiltelefon, Musikabspielgerät, Videoabspielgerät, Spielabspielgerät, Digitalkamera, Handtop, Internetterminal, GPS oder Fernsteuerung. Bei jeder neuen Vorrichtungsfunktionalität, die zu der einzelnen Vorrichtung hinzugefügt wird, neigt die Komplexität und Größe der Vorrichtung dazu, sich zu erhöhen. Daher gibt es bei handgehaltenen Vorrichtungen typischerweise einen Zielkonflikt dazwischen, die Grundfläche klein und die Komplexität gering zu halten, während die Funktionalität der Vorrichtung immer noch maximiert wird.
  • In manchen Fällen kann das Kombinieren von Vorrichtungen zu redundanten Hardwarekomponenten führen, was erlaubt, dass Komponenten für mehrere verschiedene Gerätefunktionalitäten verwendet werden. In anderen Fällen sind bestimmte Hardwarekomponenten jeder Vorrichtung eigen und daher muss zusätzlicher Raum und Verbindungsfähigkeit verfügbar gemacht werden. Des Weiteren hat jede Vorrichtungsfunktionalität typischerweise ihre eigene Programmierung oder Anwendungssoftware und daher muss die Multifunktionsvorrichtung mit genügend Speicher entworfen werden, um all die verschiedenen Softwarekomponenten zu beherbergen.
  • Ein persönlicher digitaler Assistent (PDA) ist eine mobile handgehaltene Vorrichtung, welche Berechnungs- und Informationsspeicher und Suchfähigkeiten zur persönlichen und/oder geschäftlichen Verwendung bereitstellt. PDAs sind für sich imstande, Namen, Adressen, Telefonnummern und Termine zu verfolgen. Sie sind oft auch imstande, Notizen zu machen, Berechnungen auszuführen, zu pagen, Daten zu transferieren und elektronische Mail. PDAs können auch die Funktionalität zum Spielen einfacher Spiele, Musik oder anderer Mediendateien beinhalten. Beispiele von PDAs beinhalten den Palm Pilot und Blackberry.
  • Wie die meisten handgehaltenen Vorrichtungen beinhalten PDAs typischerweise eine Anzeige und verschiedene Eingabevorrichtungen. Die Eingabevorrichtungen können einen Schreibstift und Berührungsbildschirm beinhalten, welche in Kombination mit einem Handschrift-Erkennungsprogramm, Tastenfeldern, Minitastaturen, Navigationsfeldern und/oder veränderbaren oder festen Funktionstasten arbeiten.
  • Zellulare Telefone sind Mobiltelefone, die einem Benutzer erlauben, mit anderen Telefonen zu verbinden unter Verwendung eines zellenartigen Netzwerkes. Zellu lare Telefone beinhalten typischerweise einen Transceiver zum Übertragen und Empfangen von Telefongesprächen, Steuerungen, wie ein Navigationsfeld, um durch eine Anzeige zu fahren, ein Tastenfeld, um numerische Eingaben (und in manchen Fällen Buchstabeneingaben) zu machen, und veränderbare oder feste Funktionstasten. Zum Beispiel wird in vielen zellularen Telefone eine feste Funktionstaste zum Beginnen eines Anrufs verwendet und eine andere feste Funktionstaste wird zum Beenden eines Anrufs verwendet.
  • Medienabspielgeräte gibt es in vielen verschiedenen Formen. Musikabspielgeräte sind üblicherweise konfiguriert, um Musik zu speichern, zu verarbeiten und auszugeben. Musikabspielgeräte können auf dem MP3- oder AAC-Format basieren, welches ein Komprimierungssystem für Musik ist. Musikabspielgeräte beinhalten typischerweise einen Mikroprozessor, Speicher, Anzeige, Audiobuchse, Datenanschluss und Wiedergabesteuerungen. Die Wiedergabesteuerungen beinhalten typischerweise Merkmale, wie Menü, Abspielen/Pause, Nächstes, Vorhergehendes, Lautstärke hoch, Lautstärke runter. Videoabspielgeräte sind den Musikabspielgeräten in vieler Hinsicht ähnlich. In manchen Fällen können sie eine Datenspeichervorrichtung beinhalten zum Empfangen eines austauschbaren Speichermediums, wie einer DVD. Das iPod®-Medienabspielgerät, welches von Apple Computer, Inc. aus Cupertino, Kalifornien hergestellt wird, ist ein Beispiel eines Medienabspielgerätes.
  • Handtops sind Mehrzweckcomputer, ähnlich den Laptops, aber mit einem kleineren Formfaktor. Handtops beinhalten typischerweise eine Anzeige und eine vollständige Tastatur.
  • 2 ist eine vereinfachte Darstellung einer multifunktionalen handgehaltenen Vorrichtung 100. Die multifunktionale handgehaltene Vorrichtung 100 integriert wenigstens zwei Vorrichtungen 102 in einer einzigen Vorrichtung. Jede Vorrichtung 102 beinhaltet sowohl Hardware- als auch Softwarekomponenten 104 und 106, welche in der multifunktionalen handgehaltenen Vorrichtung 100 integriert sind. Es sollte herausgestellt werden, dass die multifunktionale handgehaltene Vorrichtung 100 nicht auf nur zwei Vorrichtungen begrenzt ist, sondern tatsächlich irgendeine Anzahl von Vorrichtungen integrieren kann.
  • Die multifunktionale Vorrichtung 100 beinhaltet auch Schalter 110, welcher der multifunktionalen Vorrichtung 100 erlaubt, von einem Vorrichtungsbetriebsmodus in einen anderen Vorrichtungsbetriebsmodus geschaltet zu werden. Zum Beispiel kann Schalter 110 einem Benutzer erlauben, durch Mobiltelefon-, Medienabspielgerät- und PDA-Betriebsmodi zu zirkulieren. Sobald ein bestimmter Betriebsmodus ausgewählt wird, arbeitet die multifunktionale Vorrichtung 100 als die ausgewählte Vorrichtung. Beispielsweise wird die Programmierung, welche sich auf die ausgewählte Vorrichtung bezieht, zur Verwendung durch die multifunktionale handgehaltene Vorrichtung aktiviert. Die Programmierung kann Rekonfigurieren der UI (Benutzerschnittstelle [user interface]) beinhalten, basierend auf der ausgewählten Vorrichtung, so dass die von dem Benutzer gemachten Eingaben mit dem der verwendeten Vorrichtung korrelieren. Beispielsweise können die Funktionen von alle physikalischen Tasten, Schaltern oder Wählscheiben sowie veränderbaren Tasten, Schaltern oder Wählscheiben neu konfiguriert werden, um der ausgewählten Vorrichtung zu entsprechen.
  • Jedoch müssen die Betriebsmodi der multifunktionalen handgehaltenen Vorrichtung 100 nicht komplett unabhängig sein. In vielen Fällen wird es wünschenswert sein, den mehreren Funktionalitäten zu erlauben, miteinander zu interagieren. Beispielsweise kann ein Benutzer eine Telefonnummer eines Kontaktes in dem PDA heraussuchen und diese Nummer an das Telefon übergeben, um sie zu wählen.
  • II. FORMFAKTOR
  • Der Formfaktor einer handgehaltenen Vorrichtung ist üblicherweise eine Vorrichtung, welche leicht in einer Hand gehalten werden kann. Eine typische handgehaltene Vorrichtung beinhaltet eine kleine Anzeige in einem oberen Bereich der vor deren Oberfläche der Vorrichtung und Eingabebedienelement in einem unteren Bereich der vorderen Oberfläche der Vorrichtung. Die Vorrichtung kann zusätzlich Bedienelemente und Anschlüsse auf den oberen, unteren und seitlichen Oberflächen beinhalten. Handgehaltene Vorrichtungen des Standes der Technik hatten typischerweise kleine Anzeigen, die so manche Unzufriedenheit für Benutzer dieser Vorrichtungen erzeugen. Es wird üblicherweise bevorzugt, größere Anzeigen zu haben, so dass mehr Information angezeigt werden kann oder die angezeigte Information leichter anzusehen ist (zum Beispiel größerer Text). Insbesondere in dem Fall von Videoabspielgeräten und Spielabspielgeräten werden größere Anzeigen kleineren stark vorgezogen.
  • Jedoch war die Verwendung von großen Anzeigen in der Vergangenheit beschränkt, da die benötigten Eingabebedienelemente oft wesentliche Bereiche des verfügbaren Raumes einnehmen. Des Weiteren erhöht sich mit dem Konvergieren der Vorrichtungsfunktionalität typischerweise die Anzahl der Bedienelemente auf der Vorrichtung, da jede Vorrichtung ihre eigenen dedizierten Bedienelemente beinhaltet. Daher müssen Vorrichtungen größer gemacht werden oder die Anzeigen müssen kleiner sein, um all die neuen Bedienelemente zu beherbergen. Beide dieser Ergebnisse sind nicht zufrieden stellend. Größere Vorrichtungen sind sperrig und schwer zu benutzen, und kleinere Bildschirme sind schwierig zu benutzen, um sowohl Informationen weiterzugeben als auch Informationen von dem Bildschirm zu lesen.
  • A. EINHÄNDIGE GEGENÜBER ZWEIHÄNDIGER BEDIENUNG
  • Eine handgehaltene elektronische Vorrichtung kann bei einhändiger Bedienung oder zweihändiger Bedienung angewiesen werden. Bei einhändiger Bedienung wird eine einzige Hand verwendet, um sowohl die Vorrichtung zu stützen als auch Operationen mit der Benutzerschnittstelle während der Verwendung durchzuführen. Mobiltelefone und Medienabspielgeräte sind Beispiele handgehaltener Vorrichtungen, sind üblicherweise vorgesehen, um nur mit einer Hand bedient werden zu können. In dem Fall eines Mobiltelefons zum Beispiel kann ein Benutzer das Telefon in einer Hand zwischen den Fingern und der Handfläche greifen und den Daumen benutzen, um Eingaben unter Verwendung von Knöpfen, Tasten oder eines # Joypads zu machen.
  • Bei der zweihändigen Bedienung wird eine Hand verwendet, um die Vorrichtung zu stützen, während die andere Hand Operationen mit einer Benutzerschnittstelle während der Verwendung durchführt, oder alternativ stützen beide Hände die Vorrichtung, sowie sie auch Operationen während der Verwendung ausführen. PDAs und Spielabspielgeräte sind Beispiele von handgehaltenen Vorrichtungen, welche typischerweise mit zwei Händen bedient werden. In dem Fall eines PDAs zum Beispiel kann der Benutzer die Vorrichtung mit einer Hand greifen und Eingaben machen unter Verwendung der anderen Hand, zum Beispiel unter Verwendung eines Schreibstiftes. In dem Fall eines Spielabspielgerätes greift der Benutzer die Vorrichtung typischerweise in beiden Händen und macht Eingaben unter Verwendung entweder einer oder beider Hände, während des Haltens der Vorrichtung.
  • B. GRUNDFLÄCHE/GRÖSSE
  • Handgehaltene Vorrichtungen können eine Vielfalt verschiedener Grundflächen oder Größen aufweisen. Die Grundfläche ist typischerweise damit verknüpft, wie die Vorrichtung verwendet werden wird. Vorrichtungen, wie PDAs, werden typischerweise mit beiden Händen verwendet, und sie neigen daher dazu, größer zu sein. Alternativ werden typischerweise Mobiltelefonhandgeräte mit nur einer Hand benutzt, und daher neigen sie dazu, kleiner zu sein. Beim Integrieren mehrerer Vorrichtungen ist es eine wichtige Aufgabe, die angemessene Grundfläche der Vorrichtung zu bestimmen. Beispielsweise glauben manche, dass PDAs zu groß sind, um sie als Telefon zu verwenden, während Mobiltelefone zu klein sind, um sie als PDA zu verwenden. Konstrukteure müssen üblicherweise die Hauptverwendung der Vorrichtung berücksichtigen und die Grundfläche in Richtung dieser Verwendung ausrichten. Obwohl es verschiedene Grundflächen gibt, gibt es typischerweise minimale und maximale Grundflächen. Wenn die Grundfläche zu groß oder zu klein ist, kann es schwierig sein, die Vorrichtung zu verwenden.
  • Aufgrund ihrer Größe werden die kleineren Vorrichtungen typischerweise in einer Tasche platziert, während es die größeren Vorrichtungen nicht werden. Ein Medienabspielgerät ist ein Beispiel einer handgehaltenen Vorrichtung, welche zur Platzierung in einer Tasche des Benutzers dimensioniert ist. Indem sie im Taschenformat ist, muss der Benutzer die Vorrichtung nicht direkt tragen und daher kann die Vorrichtung fast überall dahin mitgenommen werden, wohin der Benutzer reist (z. B. ist der Benutzer nicht beschränkt durch Tragen einer großen, sperrigen und oft schweren Vorrichtung, wie bei einem Laptop- oder Notebook-Computer).
  • Üblicherweise wird es bevorzugt, obwohl nicht nötig, dass handgehaltene Vorrichtungen des hier offenbarten Typs Abmessungen von etwa 12,7 cm × 7,62 cm × 2,54 cm (5 Inches × 3 Inches × 1 Inch) und vielleicht etwa 10,41 cm × 6,10 cm × 1,90 cm (4,1 Inches × 2,4 Inches × 0,75 Inches) haben.
  • C. VOLLBILDSCHIRMANZEIGE
  • Weil die Grundfläche einer multifunktionalen handgehaltenen Vorrichtung im Wesentlichen durch die beabsichtigte Hauptverwendung der Vorrichtung festgelegt ist, wird es für Konstrukteure wichtig, ein angemessenes Layout für die UI (Benutzerschnittstelle [user interface]) zu bestimmen. Beispielsweise können manche Vorrichtungen besser mit einer beschränkten Anzahl von Tasten und einer großen Anzeige funktionieren, während andere besser mit einer großen Anzahl von Tasten oder einer kompletten Tastatur und einer kleinen Anzeige arbeiten können.
  • Eine bevorzugte multifunktionale handgehaltene Vorrichtung kann mit einer vollen Bildschirmanzeige oder einer beinahe vollen Bildschirmanzeige konfiguriert sein. Eine Vollbildschirmanzeige nimmt im Wesentlichen die ganze vordere Oberfläche der Vorrichtung ein. Die Anzeige kann sich von Rand zu Rand ausdehnen, oder kann innerhalb eine kleine Einfassung des Gehäuses an dem Rand des Gerätes passen. Die Vollbildschirnianzeige kann 90% oder mehr der vorderen Oberfläche des Gehäuses für eine handgehaltene elektronische Vorrichtung einnehmen.
  • Die Vollbildschirmanzeige kann eine Vielzahl von verschiedenen Konfigurationen haben, abhängig von der Gesamtgrundfläche der Vorrichtung. Wenn die Vorrichtung breit ist, kann die Vollbildschirmanzeige ein traditionelles Seitenverhältnis von ungefähr 4:3 haben. Wenn die Vorrichtung gestreckt ist, kann die Vollbildschirmanzeige ein Seitenverhältnis haben, das panoramaartiger ist, wie 16:9.
  • D. BEGRENZTE ANZAHL VON MECHANISCHEN BETÄTIGUNGSGLIEDERN
  • Um eine Vollbildschirmanzeige zu beherbergen, ist die multifunktionale handgehaltene Vorrichtung vorzugsweise mit einer begrenzten Anzahl von physikalischen Tasten konfiguriert. Weil eine begrenzte Anzahl von physikalischen Tasten bereitgestellt wird, verwendet die handgehaltene Vorrichtung vorzugsweise einen Berührungsbildschirm als die Haupteingabevorrichtung. Berührungsbildschirme sind transparente berührungsempfindliche Vorrichtungen, welche über Anzeigen positioniert werden. Sie arbeiten typischerweise in Verbindung mit einer GUI (grafische Benutzerschnittstelle [graphical user interface]), welche auf der Anzeige dargestellt wird. Beispielsweise kann die GUI eine Taste auf dem Bildschirm darstellen und der Berührungsbildschirm kann detektieren, wenn ein Benutzer die Taste auf dem Bildschirm drückt (z. B. seine Finger oder Schreibstift über der Taste auf dem Bildschirm platziert). Berührungsbildschirme und GUIs werden unten detaillierter beschrieben.
  • Die handgehaltene Vorrichtung kann nur mit querfunktionalen physikalischen Tasten konstruiert sein, das heißt, es gibt keine Tasten, die individuellen Vorrichtungen zugeordnet sind. Diese Art von Tasten kann Ein-/Ausschalttasten und Halteschalter beinhalten. In anderen Ausführungsformen kann die handgehaltene Vorrichtung gar keine physikalischen Tasten beinhalten. In manchen Ausführungsformen sind die physikalischen Tasten nur auf die Seiten und hintere Oberfläche der handgehaltenen Vorrichtung begrenzt. In anderen Ausführungsformen sind die physikalischen Tasten der handgehaltenen Vorrichtung auf den oberen und unteren Abschnitt der Seiten begrenzt, so dass es keine Tasten in den Bereichen der Seiten gibt, wo ein Benutzer die Vorrichtung physisch stützen würde (d. h. Haltebereich). In noch weiteren Ausführungsformen können sich die physikalischen Tasten auf der vorderen Oberfläche befinden, aber nur in dem Einfassungsbereich, der die Anzeige umgibt. In manchen Ausführungsformen können sich die Tasten nur auf der oberen und unteren Oberfläche der Vorrichtung befinden.
  • 3 ist eine perspektivische Ansicht einer multifunktionalen handgehaltenen Vorrichtung 120 mit einem im Wesentlichen Vollbildschirm und mit einer begrenzten Anzahl von Tasten. Es gibt keine physikalischen Tasten auf den vorderen und seitlichen Oberflächen 124 und 126. Die vordere Oberfläche wird ganz für die Anzeige 122 verwendet. Des Weiteren, weil die Seiten 126 zum Greifen der Vorrichtung 120 verwendet werden, kann es vorgezogen werden, die Seiten ohne Tasten zu lassen, um zufällige Aktionen zu verhindern, im Falle, dass ein Benutzer unbeabsichtigterweise eine Taste drückt, während er die Vorrichtung stützt. Obwohl die obere Oberfläche 128 und untere Oberfläche 130 typischerweise verwendet werden würden, um die Vorrichtung zu halten, sind diese Oberflächen nicht ideale Plätze für Tasten, die oft betätigt werden, weil es ungünstig wäre, diese Tasten zu erreichen, wenn die Vorrichtung mit einer Hand betätigt wird.
  • Die obere Oberfläche 128 kann für Tasten reserviert werden, welche begrenzte Aktivität und allgemeine Funktionen haben, die querfunktional sind, zum Beispiel Ein-/Ausschalt- und Halteschalter. Die oberen und unteren Oberflächen 128 und 130 sind auch gut geeignet zur Platzierung von Eingabe-/Ausgabe (I/O) und Kommunikationsanschlüssen. Die obere Oberfläche 128 kann zum Beispiel eine Kopfhörer-/Mikrofonbuchse und eine Antenne beinhalten und die untere Oberfläche 130 kann Strom- und Datenanschlüsse beinhalten.
  • In manchen Fällen kann es wünschenswert sein, Tasten in den oberen und unteren Bereichen der Seitenflächen 126 anzuordnen, wo sie der greifenden Hand nicht im Weg sind. Dies kann insbesondere gut geeignet sein für gestreckte Vorrichtungen, die größer sind als die Breite der greifenden Hand. Wie in 4 gezeigt, beinhaltet die handgehaltene Vorrichtung 120 eine Taste 140 in dem oberen Bereich der Seitenfläche 126 der handgehaltenen Vorrichtung 120. Da die Taste 140 sich in dem oberen Bereich befindet, neigt sie dazu, der greifenden Hand nicht im Weg zu sein, und daher wird eine zufällige Aktivierung im Wesentlichen vermieden. Die obere Taste kann konfiguriert sein, um die Funktionalität der multifunktionalen Vorrichtung zu schalten, d. h. Taste 140 kann Schalter 110 der 2 sein. Beispielsweise wird durch Drücken der Taste 140 eine neue Vorrichtungsfunktionalität aktiviert und die gegenwärtige Vorrichtungsfunktionalität wird deaktiviert. Obwohl der Begriff Taste verwendet wird, sollte anerkannt werden, dass die Taste 140 auch einer Wählscheibe, einem Rad, einem Schalter und/oder dergleichen entsprechen kann.
  • Üblicherweise würde es bevorzugt werden, obwohl nicht nötig, die Anzahl der physikalischen Tasten auf acht oder weniger, oder vielleicht fünf oder weniger, zu begrenzen.
  • III. ANPASSUNGSFÄHIGKEIT
  • Um die Anzahl von physikalischen Bedienelementen auf der Vorrichtung zu begrenzen (dadurch den Anzeigebereich zu vergrößern), ist die multifunktionale handgehaltene Vorrichtung vorzugsweise anpassungsfähig, d. h. die Vorrichtung ist imstande, ihre UI zu verändern, darauf basierend, wie die Vorrichtung verwendet werden soll. Beispielsweise, wenn eine Mobiltelefonfunktionalität der multifunktionalen Vorrichtung verwendet werden soll, verändert sich die UI, um das Mobiltelefon aufzunehmen. Alternativ, wenn der PDA-Aspekt der multifunktionalen Vorrichtung verwendet werden soll, verändert sich die UI, um den PDA aufzunehmen, und so weiter. Im Wesentlichen ist die multifunktionale Vorrichtung imstande, ihre Benutzerschnittstelle neu zu konfigurieren, basierend auf dem Zustand oder Modus der Vorrichtung.
  • Anpassungsfähigkeit kann erreicht werden durch neues Zuweisen der Funktionen der begrenzten Anzahl von physikalischen Tasten für jede Gerätefunktionalität. Beispielsweise kann eine Taste eine Funktion ausführen, wenn eine erste Vorrichtung aktiviert ist, und eine andere, wenn eine andere aktiviert ist. Während dies funktionieren mag, leidet es unter physikalischen Begrenzungen (d. h. die Anzahl der Tasten) und kann für den Benutzer verwirrend sein (der sich die verschiedenen Tastenbedeutungen merken muss).
  • Alternativ kann Anpassungsfähigkeit erreicht werden durch virtuelles Einbeziehen der physikalischen Eingaben für jede Funktionalität in die GUI in Verbindung mit einem Berührungsbildschirm. Dies erlaubt es der GUI sich an die, egal welche, ausgewählte Vorrichtung anzupassen, und der Berührungsbildschirm kann Eingaben entsprechend der GUI empfangen. Mit einer GUI für jede Funktionalität passt sich die UI für die handgehaltene Vorrichtung so an, dass die Multifunktionsvorrichtung in Wirklichkeit eine bestimmte Vorrichtung wird. Wenn beispielsweise die Mobiltelefonfunktionalität ausgewählt wird, stellt die GUI einen Satz von virtuellen und veränderbaren Bedienelementen dar, die ähnlich aussehen wie die physikalischen Bedienelemente, welche typischerweise auf einem Mobil telefon verwendet werden, wie zum Beispiel ein Tastenfeld, Funktionstasten und möglicherweise ein Navigationsfeld.
  • Die gesamte Anzeige kann verwendet werden, um diese Information darzustellen, oder nur ein Teil der Anzeige kann für die GUI-Bedienelemente verwendet werden. In dem letzteren Fall, mit Bezug auf 5-8, kann die GUI 150 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt werden. Der Standardbereich 152 stellt dar, was normalerweise auf der Anzeige 122 bei Verwendung einer bestimmten Vorrichtung angezeigt würde. Das heißt, dass die Standard-GUI-Bildschirme, welche mit der ausgewählten Vorrichtung verknüpft sind, in dem Standardbereich angezeigt werden. Beispielsweise kann in dem Fall eines PDA ein Hauptmenü (Fenster mit einem Satz von Piktogrammen), Kalender, Adressbuch oder Terminkalender in dem Standardbereich 152 angezeigt werden. Andererseits stellt der Bedienbereich 154 die physikalischen Bedienelemente virtuell dar, welche normalerweise physikalisch auf einer bestimmten Vorrichtung angeordnet wären. Das heißt, dass die virtuellen Bedienelemente, welche die physikalischen Bedienelemente nachahmen, in dem Bedienbereich 154 angezeigt werden. Beispielsweise kann in dem Fall eines PDA der Bedienbereich 154 virtuelle Darstellungen eines Handschrifterkennungsbereiches, eines Navigationsfeldes und der Standardfunktionstasten beinhalten.
  • Die Standard- und Bedienbereiche 152 und 154 können an irgendeiner Position auf der Anzeige 122 (oben, unten, Seiten, Mitte, etc.) positioniert werden. Beispielsweise, wie in 5 gezeigt, können sie vertikal relativ zueinander (einer über dem anderen) positioniert werden, oder, wie in 6 gezeigt, können sie horizontal relativ zueinander (Seite an Seite) positioniert werden. Diese Konfigurationen können entweder in Hoch-(bzw. Portrait-) oder Quer (bzw. Landschafts-) modi verwendet werden. Beispielsweise kann in Fällen, in denen die Vorrichtung im Quermodus verwendet wird, der Standardbereich 152 auf einer Seite angeordnet werden, und der Bedienbereich kann auf der gegenüber liegenden Seite angeordnet werden. Querausrichtung kann beispielsweise die einhändige Bedienung vereinfachen. In manchen Fällen basiert die Seite, auf welcher die Bedienelemente angezeigt werden, auf der Händigkeit des Benutzers. Beispielsweise können die Bedienelemente auf der rechten Seite für rechthändige Benutzer angeordnet werden, und die Bedienelemente können auf der linken Seite für linkshändige Benutzer angeordnet werden. Alternativ können die Bedienelemente auf beiden Seiten angeordnet werden, wie in 7 gezeigt. Diese Anordnung ist insbesondere gut geeignet zum Spiele spielen. Des Weiteren kann die Menge an Fläche, die jedem Teil zugeordnet wird, weithin variieren. Beispielsweise kann der Bildschirm gleichmäßig unterteilt sein, und in anderen Fällen macht ein oder der andere Teil eine größere Menge der Anzeige aus. In manchen Fällen wird der Standardbereich 154 maximiert, um den normalen Sichtbereich der Anzeige zu vergrößern.
  • Wenn eine bestimmte Funktionalität zur Verwendung ausgewählt wird, lädt die handgehaltene Vorrichtung die Software für die ausgewählte Funktionalität und konfiguriert die GUI 150 einschließlich des Standardbereichs 152 und des Bedienbereichs 154. Die Bedienelemente in dem Bedienbereich 154 können daher verwendet werden, um das zu steuern, was im Standardbereich 152 angezeigt wird. In manchen Fällen kann sich der Bedienbereich 154 sogar entsprechend der Erfordernisse jedes angezeigten Fensters der bestimmten Vorrichtung verändern.
  • Alternativ, wie in 8 gezeigt, können virtuelle Bedienelemente 160 über den Standardbereich 152 gelegt werden, so dass der Standardbereich 152 ganz die gesamte Anzeige 122 benutzen kann. Tatsächlich können die virtuellen Bedienelemente 160 so wie erforderlich auftauchen und verschwinden. Beispielsweise kann der Benutzer den Bildschirm berühren, und dies kann die Vorrichtung dazu führen, die Bedienelemente über einem Teil der Anzeige anzuzeigen, einschließlich was auch immer bereits angezeigt wird. Beispiele für virtuelle Bedienelemente, welche in dieser Weise funktionieren, können in U.S.-Patentanmeldung Nr. 11/038,590 mit dem Titel "Mode-Based Graphical User Interfaces for Touch Sensitive Input Devices", angemeldet am 18. Januar 2005, gefunden werden.
  • A. GUI BASIEREND AUF FUNKTIONALITÄT
  • 9-17 stellen verschiedene Beispiele von GUIs für verschiedene Zustände oder Modi der multifunktionalen Vorrichtung dar.
  • 9 ist eine Darstellung einer GUI 170, welche in einem PDA-Modus verwendet wird. Wie gezeigt, ist die GUI in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereichs 154 befinden sich ein virtuelles Handschriftfeld 172, vier virtuelle Tasten 174 und ein virtuelles Navigationsfeld 176.
  • 10 ist eine Darstellung einer GUI 180, welche in einem Mobiltelefonmodus verwendet wird. Wie gezeigt, ist die GUI 180 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereiches 154 befinden sich ein virtuelles Tastenfeld 182, ein virtuelles Navigationsfeld 184 und zwei virtuelle Tasten 186.
  • 11 ist eine Darstellung einer GUI 190, welche in einem Musikabspielgerätmodus verwendet wird. Wie gezeigt, ist die GUI 190 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereiches 154 befinden sich ein virtuelles Scrollrad 192 und fünf virtuelle Tasten 194. Zusätzliche Details zu einem virtuellen Scrollrad werden in U.S.-Patentanmeldung Nr. 11/038,590 mit dem Titel "Mode-Based Graphical User Interfaces for Touch Sensitive Input Devices", angemeldet am 18. Januar 2005, bereitgestellt.
  • 12 ist eine Darstellung einer GUI 200, welche in einem Videoabspielgerätmodus verwendet wird. Wie gezeigt, ist die GUI 200 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereiches 154 befinden sich eine Mehrzahl von virtuellen Tasten 202. Alternativ können die Bedienelemente so wie erforderlich auftauchen oder verschwinden, da das Video abspielgerät hauptsächlich in Zusammenhang mit einem Vollbildschirmansichtmodus verwendet wird.
  • 13 ist eine Darstellung einer GUI 210, welche in einem Spielabspielgerätmodus verwendet wird. Wie gezeigt, ist die GUI 210 in einen Standardbereich 152 und zwei Bedienbereiche 154A und 154B auf den Seiten des Standardbereichs 152 unterteilt. Der linksseitige Bedienbereich 154A beinhaltet ein Navigations- oder Richtungsfeld 212, und der rechtsseitige Bedienbereich beinhaltet vier virtuelle Tasten 214 (oder umgekehrt, abhängig von den bestimmten Bedürfnissen des Benutzers, links- oder rechtshändig).
  • 14 ist eine Darstellung einer GUI 220, welche in einem Kameramodus verwendet wird. Wie gezeigt, ist die GUI 220 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Der Standardbereich 152 kann den Sucher repräsentieren. Innerhalb des Bedienbereiches 154 befinden sich verschiedene Tasten 222, einschließlich beispielsweise Bildklick, Zoom, Blitz, etc. Ein Navigationsfeld 224 kann auch beinhaltet sein, so dass die Bilder durchgescrollt werden können oder zur Menünavigation.
  • 15 ist eine Darstellung einer GUI 230, welche in einem GPS-Empfänger-Modus verwendet wird. Wie gezeigt, ist die GUI 230 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereiches 154 befinden sich verschiedene Tasten 222, einschließlich beispielsweise Zoom, Schwenk, etc. Ein Navigationsfeld 224 kann auch beinhaltet sein.
  • 16 ist eine Darstellung einer GUI 240, welche in einem Handtopmodus verwendet wird. Wie gezeigt, ist die GUI 240 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereiches 154 befindet sich eine virtuelle Tastatur 242.
  • 17 ist eine Darstellung einer GUI 250, welche in einem Fernbedienungsmodus verwendet wird. Wie gezeigt, ist die GUI 250 in einen Standardbereich 152 und einen Bedienbereich 154 unterteilt. Innerhalb des Bedienbereiches 154 befinden sich verschiedene Knöpfe und Tasten 252, welche mit dem Steuern entfernten Vorrichtung verknüpft sind, wie einem Fernseher (TV), DVD-Spieler, MV-Verstärker, VHS, CD-Spieler, etc.
  • B. SCHALTEN ZWISCHEN VORRICHTUNGEN (GUI)
  • Bevor eine bestimmte Vorrichtungsfunktionalität verwendet werden kann, muss sie typischerweise zur Verwendung ausgewählt werden. Die Auswahl kann auf viele verschiedene Arten sein. Beispielsweise kann die Auswahl über ein Hauptmenü getroffen werden, welches veränderbare Tasten oder Piktogramme beinhaltet, die, wenn ausgewählt, die Vorrichtungsfunktionalität aktivieren, welche mit der veränderbaren Taste verknüpft ist. Während der Aktivierung wird die GUI für diese bestimmte Vorrichtung auf der Anzeige sichtbar gemacht (siehe 9-17) und die Software, die mit der Vorrichtung verknüpft ist, wird installiert, geladen oder aktiviert. Von diesem Punkt an arbeitet die multifunktionale Vorrichtung wie die ausgewählte Vorrichtung.
  • 18 stellt eine beispielhafte Hauptmenü-GUI 260 einer multifunktionalen Vorrichtung dar. Wie gezeigt, beinhaltet die GUI 260 Piktogramme/Tasten 262 zum Starten jeder der verschiedenen Vorrichtungsfunktionalitäten. In diesem bestimmten Beispiel beinhaltet die Hauptmenüseite 260 eine PDA-Taste 262A, eine Mobiltelefontaste 262B, eine Musikabspielgerättaste 262C, eine Spielgerättaste 262D, eine Videoabspielgerättaste 262E, eine GPS-Taste 262F, eine Fernbedienungstaste 262G, eine Kamerataste 262H und eine Handtoptaste 262I. Die verschiedenen Tasten 262 sind virtuelle Tasten. Wenn eine Taste gedrückt wird, wird die Hauptseite für die ausgewählte Funktionalität (z. B. wie in 9-17 gezeigt) auf der Anzeige sichtbar gemacht. Um eine andere Vorrichtung auszuwählen, wählt der Benutzer einfach eine veränderbare Rückkehrtaste 264, welche sich in der GUI jeder Vorrichtung befindet, um zu der Hauptmenüseite 260 zurückzukehren und wählt danach die gewünschte Funktionalität in der Hauptmenüseite 260 aus.
  • Die Auswahl von alternativen Funktionalitäten kann auch erreicht werden durch Blättern (oder Scrollen) durch die verschiedenen GUIs, bis die gewünschte GUI gefunden wird. Beispielsweise können die verschiedenen GUIs schrittweise sichtbar gemacht werden, Seite nach Seite (oder Rahmen nach Rahmen), wenn ein nächstes (Blätter)-Befehlssignal erzeugt wird (z. B. Diashow-Effekt). Der Übergang zwischen Seiten kann weithin variieren. Der Übergang kann von Seite zu Seite, oben nach unten, oder Mitte zu Mitte sein. Der Übergang kann auch Ein- und Ausblenden, Rein- und Rausspringen, oder Vergrößern oder Verringern beinhalten. Das Befehlssignal kann durch eine physikalische oder virtuelle Taste oder Rad erzeugt werden. Bei Verwendung einer Taste kann jedes Drücken verursachen, dass eine neue Seite angezeigt wird. Bei Verwendung eines Rads kann ein vorbestimmter Rotationsbetrag verursachen, dass eine neue Seite angezeigt wird.
  • Das Befehlssignal kann auch auf eine Vielzahl anderer Weisen erzeugt werden. Beispielsweise kann das Befehlssignal auch durch Gestiken, welche auf dem Berührungsbildschirm initiiert werden, erzeugt werden. Beispielsweise kann das Rutschen eines Fingers (oder Schreibstifts) über die Anzeige verursachen, dass eine neue Seite angezeigt wird. Wenn nach rechts gerutscht, kann die nächste Seite angezeigt werden. Wenn nach links gerutscht, kann die vorhergehende Seite angezeigt werden. Das Befehlssignal kann auch durch 3D-Vorrichtungsgestiken erzeugt werden, wenn die gesamte handgehaltene Vorrichtung räumlich bewegt wird. Beispielsweise kann ein Schütteln der Vorrichtung verursachen, dass eine neue Seite angezeigt wird.
  • Das Befehlssignal kann auch durch Kräfte erzeugt werden, welche auf die Vorrichtung angewendet werden. Beispielhaft kann ein Quetschen der Vorrichtung verursachen, dass eine neue Seite angezeigt wird. Das Befehlssignal kann auch durch Erkennen der Ausrichtung der Vorrichtung erzeugt werden, entweder relativ zum Boden, wie von Beschleunigungsmessern erkannt, oder relativ zu einer Kornpassrichtung, angezeigt durch einen internen Kompass. Beispielsweise wird, wenn die Vorrichtung bei 0 Grad ist, eine erste Seite angezeigt, bei 90 Grad wird eine zweite Seite angezeigt, bei 180 Grad wird eine dritte Seite angezeigt und bei 270 Grad wird eine vierte Seite angezeigt.
  • Das Befehlssignal kann auch durch Überwachen der Stimme eines Benutzers (d. h. Spracherkennung) erzeugt werden. Wenn der Benutzer "TELEFON" ruft, wird die mit dem Telefon verknüpfte Seite angezeigt, wenn der Benutzer "PDA" ruft, wird die mit dem PDA verknüpfte Seite angezeigt.
  • Das Befehlssignal kann auch durch Überwachen eingehender Signale von anderen Systemen (egal ob drahtlos übertragen oder über ein Kabel) erzeugt werden. Beispielsweise kann, wenn ein Anruf empfangen wird, die Vorrichtung automatisch das System als ein Telefon konfigurieren. Alternativ kann sie nur ein Bedienfeld zum Annehmen oder Weiterleiten eines Anrufes darstellen.
  • Als eine Alternative zum Integrieren von Funktionalitäten kann die Vorrichtung konfiguriert sein, um die verschiedenen Modi getrennt zu halten. Das heißt, dass die Vorrichtung die Funktionalität nicht zusammenfügt (integrierte Schichten und GUIs), sondern sie statt dessen getrennt voneinander hält. In manchen Fällen kann, dadurch, dass verschiedene Funktionalitäten getrennt gehalten werden, die Benutzerverwirrung verringert werden.
  • C. BETREIBEN WENIGSTENS ZWEIER FUNKTIONALITÄTEN GLEICHZEITIG
  • Vorzugsweise kann der Benutzer in der Lage sein, zwei oder mehr Vorrichtungsfunktionalitäten gleichzeitig zu aktivieren. In einem solchen Fall wird die Software für die mehreren Funktionalitäten gleichzeitig aktiviert, und die Anzeige arbeitet in einem geteilten Bildschirmmodus, in dem der Bildschirm in verschiedene Abschnitte geparst wird, wobei jeder Abschnitt eine bestimmte Vorrichtungs-GUI beinhaltet. Im Allgemeinen würde dies erfordern, dass die GUI für jede Funktionalität auf den Bildschirm passt. Der Multifunktionsmodus kann auf viele Arten ausgewählt werden. In einer Implementierung, wenn der Benutzer gleichzeitig zwei oder mehr Vorrichtungspiktogramme berührt, aktiviert die Vorrichtung die mehreren Vorrichtungsfunktionalitäten und macht die angemessenen GUIs auf dem Bildschirm sichtbar.
  • D. KONFIGURIERBARE GUI (BENUTZERPRÄFERENZEN)
  • Die GUI-Bedienfelder für jede Vorrichtungsfunktionalität können durch den Benutzer konfigurierbar sein. Beispielsweise kann der Benutzer seine eigene UI für jede Vorrichtung entwerfen oder individualisieren, und den verschiedenen Elementen der UI Funktionen zuweisen. Die Funktionen können Initiieren von Befehlen, Auswählen eines Punktes, Öffnen einer Datei oder eines Dokumentes, Starten eines Programmes, Ausführen von Anweisungen, Ansehen eines Menüs auf dem Anzeigebildschirm, etc. beinhalten. Die Parameter, die durch den Benutzer konfigurierbar sind, können Auswählen der Anzahl und des Typs von GUI-Elementen (Tasten) als auch der Position der GUI-Elemente auf der Seite beinhalten. In manchen Fällen kann das System eine Entwurfspalette beinhalten, welche es einem Benutzer erlaubt, das UI-Layout zu überarbeiten und/oder zu individualisieren, das heißt, der Benutzer kann schnell und komfortabel ein vorkonfiguriertes oder vorgegebenes Layout überarbeiten und Änderungen daran vornehmen. Wenn einmal geändert, wird das modifizierte Layout automatisch gespeichert und dadurch verwendet, um zukünftige Ereignisse zu behandeln.
  • IV. EINGABEVORRICHTUNGEN
  • Es gibt etliche Probleme bei gegenwärtigen Eingabevorrichtungen für handgehaltene Computer. Beispielsweise gibt es keinen realistischen Weg, um all die dedi zierten physikalischen Tasten einzubauen, welche für jede Vorrichtung benötigt werden, weil mehr und mehr Tasten auf einen kleinen Raum passen müssen. Ein verwandtes Problem tritt dadurch auf, dass, wenn mehr physikalische Tasten in die Vorrichtung aufgenommen werden, die Tasten näher zusammenkommen müssen, wodurch die Geschicklichkeit des Benutzers herausgefordert wird. Des Weiteren, da physikalische Tasten herausstehen, werden sie oft zufällig aktiviert während der normalen Verwendung oder während die Vorrichtung transportiert wird, zum Beispiel in der Tasche eines Benutzers. Schließlich können eine große Anzahl von kleinen physikalischen Tasten für den Benutzer verwirrend sowie ästhetisch unangenehm sein.
  • Um dieses und andere Probleme zu überwinden, werden eine Vielzahl von alternativen Eingabeanordnungen vorgeschlagen (zusätzlich oder anstatt von physikalischen Tasten, Schaltern, etc.). Die Grundidee ist es, die Anzahl an physikalischen und mechanischen Eingabemechanismen zu reduzieren (und daher die Menge an dediziertem Raum, welcher auf der Oberfläche der Vorrichtung benötigt wird) und/oder die physikalischen und mechanischen Eingabemechanismen gänzlich zu beseitigen. Durch Reduzieren oder Beseitigen der physikalischen Eingabevorrichtungen kann die Anzeige der elektronischen Vorrichtung maximiert werden oder alternativ kann die Größe der elektronischen Vorrichtung maximiert werden. Des Weiteren ist eine solche Vorrichtung ästhetisch angenehmer. In manchen Fällen kann die handgehaltene Vorrichtung konfiguriert werden, so dass es erscheint, dass sie nur eine Anzeige und keine dedizierten physikalischen Eingabevorrichtungen aufweist.
  • Die alternativen Eingabemittel können auch optisch verborgen werden, so dass sie dem Benutzer nicht sichtbar sind. Als Ergebnis kann es erscheinen, dass die elektronische Vorrichtung nur eine Anzeige ohne sichtbare Tasten, Schalter, etc. aufweist. Eine solche Vorrichtung ist ästhetisch angenehmer (z. B. kann glatte Oberflächen ohne Unterbrechungen, Lücken oder Linien umfassen), und kann in man chen Fällen kleiner gemacht werden, ohne Bildschirmgröße und Eingabefunktionalität zu opfern.
  • A. BERÜHRUNGSBILDSCHIRM
  • Eine besonders geeignete Eingabeanordnung ist ein Berührungsbildschirm. Ein Berührungsbildschirm zusammen mit einer GUI kann als die Haupteingabeanordnung für eine handgehaltene Vorrichtung konfiguriert werden. Ein Berührungsbildschirm ist im Wesentlichen ein transparentes Eingabefeld, welches vor der Anzeige positioniert wird. Ein Berührungsbildschirm erzeugt Eingabesignale, wenn ein Objekt wie ein Finger oder Schreibstift die Oberfläche des Berührungsbildschirmes berührt oder darüber bewegt wird. In den meisten Fällen erlauben Berührungsbildschirme einem Benutzer, Auswahlen zu treffen und Bewegungen in einer GUI zu initiieren durch einfaches Berühren des Anzeigebildschirmes über einen Finger. Beispielsweise kann ein Benutzer eine Auswahl treffen durch direktes Zeigen auf ein grafisches Objekt, welches auf dem Anzeigebildschirm angezeigt wird entsprechend einer Taste auf dem Bildschirm zum Ausführen bestimmter Aktionen in der handgehaltenen elektronischen Vorrichtung. Im Allgemeinen erkennt der Berühuungsbildschirm die Berührung und Position der Berührung auf der Anzeige, und eine Steuerung der handgehaltenen elektronischen Vorrichtung interpretiert die Berührung und führt danach eine Aktion aus, basierend auf dem Berührungsereignis. Es gibt verschiedene Arten von Berührungsbildschirmtechnologien, einschließlich resistiv, kapazitiv, infrarot und oberflächenakustischer Wellen.
  • Ein bevorzugter Berührungsbildschirm für einen multifunktionalen handgehaltenen Computer ist ein Mehrpunkt-kapazitiver-Berührungsbildschirm. Ein solcher Berührungsbildschirm umfasst mehrere unabhängige und räumlich unterschiedliche Abtastpunkte, Knoten oder Bereiche, die überall auf dem Berührungsbildschirm positioniert sind. Die Abtastpunkte sind über den Berührungsbildschirm verteilt, wobei jeder Abtastpunkt eine andere Position auf der Oberfläche des Be rühnungsbildschirmes repräsentiert. Die Abtastpunkte können auf einem Raster oder einem Pixelfeld positioniert sein, wo jeder Abtastpunkt imstande ist, ein Signal zu erzeugen. Ein Signal wird jedes Mal erzeugt, wenn ein Objekt über einem Abtastpunkt positioniert wird. Wenn ein Objekt über mehreren Abtastpunkten platziert wird oder wenn das Objekt zwischen oder über mehrere Abtastpunkte bewegt wird, können mehrere Signale erzeugt werden. Die Abtastpunkte bilden normalerweise die Berührungsbildschirmebene auf ein Koordinatensystem ab, wie ein Kartesisches Koordinatensystem oder Polarkoordinatensystem. Ein Beispiel eines solchen Berührungsbildschirmes ist in U.S.-Patentanmeldung Nr. 10/840,862 mit dem Titel "Multipoint Touch Screen", angemeldet am 6. März 2004, offenbart.
  • B. BERÜHRUNGSEMPFINDLICHES GEHÄUSE
  • Eine handgehaltene elektronische Vorrichtung kann auch eine oder mehrere beinhaltend eine berührungsempfindliche Oberfläche des Vorrichtungsgehäuses selber einschließen, welche entweder eine große Oberfläche zum Verfolgen von Berührungseingaben oder kleinere dedizierte Bereiche bereitstellt, wie Berührungstasten zum Ausführen dedizierter Funktionen. Solche Oberflächen können sich auf jeder Oberfläche des Gehäuses, jeder Seite des Gehäuses, jedem Bereich jeder Seite des Gehäuses, oder an dedizierten Positionen auf der Oberfläche des Gehäuses. befinden. Beispielsweise können sich die Berührungsbereiche auf den Seiten oder der hinteren Oberfläche des Gehäuses befinden und können sich sogar in der Einfassung befinden, welche sich auf der vorderen Oberfläche des Gehäuses befindet. In all diesen Fällen wird ein großer Bereich der vorderen Oberfläche des Gehäuses für die Anzeige aufgespart, so dass der Sichtbereich der handgehaltenen elektronischen Vorrichtung maximiert werden kann. Die berührungsempfindlichen Oberflächen des Gehäuses können die Form von einem oder mehreren Berührungsfeldern annehmen, welche innerhalb des Gehäuses positioniert sind. Die berührungsempfindliche Oberfläche kann alternativ oder zusätzlich direkt durch das Gehäuse bereitgestellt werden. Das heißt, dass die berührungsempfindlichen Komponenten integriert oder eingeschlossen in oder angeordnet unter dem Gehäuse sein können, so dass das Gehäuse selber die berührungsempfindliche Vorrichtung ist (anstatt ein separates Berührungsfeld zu benutzen). Ähnlich einem Berührungsfeld erkennt das berührungsempfindliche Gehäuse die Berührung und Position einer Berührung auf der Oberfläche und eine Steuerung der handgehaltenen elektronischen Vorrichtung interpretiert die Berührung und führt danach eine Aktion aus, basierend auf dem Berührungsereignis. Berührungsoberflächen sind grundsätzlich auf dieselbe Weise konstruiert wie ein Berührungsbildschirm, außer dass die Oberflächen nicht im Wesentlichen transparent sein müssen.
  • Beispielhaft kann das berührungsempfindliche Gehäuse üblicherweise einem berührungsempfindlichen Gehäuse entsprechen, welches detaillierter in U.S.-Patentanmeldung Nr. 11/115,539 mit dem Titel "Hand-Held Electronic Device with Multiple Touch Sensing Devices", angemeldet am 26. April 2005, beschrieben ist.
  • C. ANZEIGEBETÄTIGUNGSGLIED
  • Eine handgehaltene multifunktionale elektronische Vorrichtung kann auch ein Anzeigebetätigungsglied beinhalten, was eine Eingabevorrichtung ist, welche die Anzeige der handgehaltenen Vorrichtung mechanisch benutzt, um Eingaben in die Vorrichtung bereitzustellen (anstatt elektrisch, wie mit einem Berührungsbildschirm). Das Anzeigebetätigungsglied kann separat oder zusammen mit dem Berührungsbildschirm benutzt werden. Das Anzeigebetätigungsglied kann eine bewegliche Anzeige beinhalten, welche verursacht, dass ein oder mehrere Eingabesignale erzeugt werden, wenn bewegt. Die Eingabesignale können dann benutzt werden, um Befehle zu initiieren, Auswahlen zu treffen oder Bewegungen in einer Anzeige zu steuern.
  • Die bewegliche Anzeige kann konfiguriert sein, dass sie sich relativ zu dem Rahmen versetzt, gleitet, schwenkt und/oder rotiert. Die Anzeige ist typischerweise relativ zu einem Rahmen oder Gehäuse beweglich, welches die Anzeige in ihren verschiedenen Positionen beweglich unterstützt. In manchen Fällen ist die Anzeige beweglich an einen Rahmen gekoppelt und in anderen Fällen hält der Rahmen eine schwebende Anzeige beweglich zurück.
  • Die Eingabesignale können durch (einen) Bewegungsanzeiger erzeugt werden, der/die die Bewegungen der Anzeige überwacht und Signale erzeugt, welche bezeichnend sind für solche Bewegungen. Der Detektionsmechanismus kann zum Beispiel ein oder mehrere Schalter, Sensoren, Kodierer und/oder dergleichen sein. Jeder geeignete mechanische, elektrische und/oder optische Schalter, Sensor oder Kodierer kann verwendet werden. Beispielsweise können Taktschalter, kraftempfindliche Widerstände, Drucksensoren, Näherungssensoren, Infrarotsensoren, mechanische oder optische Kodierer und/oder dergleichen verwendet werden. Die Bewegungsanzeiger können unterhalb der Anzeige oder auf den Seiten der Anzeige wie geeignet angeordnet werden. Alternativ oder zusätzlich können diese Bewegungsanzeiger an die Anzeige oder manche Komponenten der Anzeige angebracht werden.
  • Ein beispielhaftes Anzeigebetätigungsglied ist in U.S.-Patentanmeldung Nr. 11/057,050 mit dem Titel "Display Actuator", angemeldet am 11. Februar 2005, offenbart.
  • D. DRUCK- ODER KRAFTFÜHLENDE VORRICHTUNGEN
  • Die oben beschriebene multifunktionale handgehaltene elektronische Vorrichtung kann weiterhin kraft- oder druckfühlende Vorrichtungen beinhalten, wie eine kraftfühlende Anzeige oder Gehäuse.
  • 1. Kraftempfindliche Anzeige
  • Eine kraftempfindliche Anzeige verursacht, dass ein oder mehrere Eingabesignale erzeugt werden, wenn Druck auf den Anzeigebildschirm der Vorrichtung ausgeübt wird. Die Eingabesignale können benutzt werden, um Befehle zu initiieren, Auswahlen zu treffen oder Bewegungen in einer Anzeige zu steuern. Solche Anzeigen stellen üblicherweise eine kleine Menge an Flex bereit (nicht wahrnehmbar für den Benutzer), so dass jegliche darauf ausgeübte Kräfte durch eine Kraftdetektionsanordnung gemessen werden können, welche üblicherweise unterhalb der Anzeige vorgesehen ist. Die Kraftdetektionsanordnung überwacht die auf die Anzeige ausgeübten Kräfte und erzeugt dafür bezeichnende Signale. Die Kraftdetektionsanordnung kann einen oder mehrere Kraftsensoren beinhalten, wie kraftempfindliche Widerstände, kraftempfindliche Kondensatoren, Kraftmesszellen, Druckplatten, piezoelektrische Wandler, Dehnungsmesser, etc. Die Kraftsensoren können auf der Rückseite der Anzeige oder auf einer strukturellen Plattform angebracht sein, welche sich innerhalb des Gehäuses der Vorrichtung befindet. Wenn eine Kraft auf die Anzeige angewendet wird, wird sie durch die Anzeige zu dem Kraftsensor übertragen, welcher sich unterhalb der Anzeige befindet.
  • 19 ist eine seitliche Aufrissansicht, im Querschnitt, einer handgehaltenen Vorrichtung 300 einschließlich einer kraftempfindlichen Anzeige 302. Die kraftempfindliche Anzeige 302 beinhaltet eine Anzeige 308 und einen oder mehrere Kraftsensoren 310, welche unterhalb der Anzeige 308 angeordnet sind (zwischen der Anzeige und einer strukturellen Plattform 306). In den meisten Fällen beinhaltet die kraftempfindliche Anzeige 302 eine Mehrzahl von Sensoren 310, welche in einem Feld ausgelegt sind. Beispielsweise können die Sensoren 310 Seite an Seite in Zeilen und Spalten angeordnet sein. Die Kraftsensoren 310 messen die Kraftmenge, welche auf die Anzeige angewendet wird, und wenn eine gewünschte Kraftschwelle erreicht wird, wird ein Steuersignal erzeugt. In manchen Fällen wird ein Elastomer 312 zwischen der Anzeige und der strukturellen Plattform platziert, um zu helfen, die Kraft, die auf die Oberfläche der Anzeige ausgeübt wird, zu den Kraftsensoren zu übertragen, welche unter der Anzeige angeordnet sind.
  • Kraftfühlen kann zusammen mit einem Berührungsbildschirm vorgesehen sein, um zwischen leichten und harten Berührungen zu unterscheiden. Die Bestimmung darüber, ob eine Berührung entweder eine leichte Berührung oder eine harte Berührung ist, kann gemacht werden durch Überwachen der Kraft mit den Kraftsensoren und Vergleichen der Kraft mit einer vorbestimmten Schwelle. Wenn die Kraftschwelle nicht überstiegen wird, wird die Berührung als leichte Berührung angesehen. Wenn die Kraftschwelle überstiegen wird, wird die Berührung als harte Berührung angesehen. Jede Art von Berührung kann benutzt werden, um verschiedene Aspekte der Vorrichtung zu steuern. Leichte Berührungen können mit passiven Ereignissen verknüpft sein, wie Navigation (z. B. Cursorsteuerungsscrolling, Schwenken, Zoom, Rotation, etc.) und harte Berührungen können mit aktiven Ereignissen verknüpft sein, wie Auswahlen oder Befehle (z. B. Tastendruck).
  • 20 stelle eine Eingabevorrichtung 320 dar, welche berührungsfühlende und kraftfühlende Vorrichtungen kombiniert, um x-, y- und z-Komponenten bei Berührung bereitzustellen. Die berührungsfühlende Vorrichtung stellt Positionsfühlen bereit in den x- und y-Richtungen, und die kraftfühlende Vorrichtung stellt Kraftfühlen bereit in die z-Richtung. Diese Vorrichtungen kooperieren, um x-, y-Position- und z-Druckinformation auszugeben, immer wenn es eine Berührung auf der Berührungsoberfläche gibt.
  • 21 ist eine seitliche Aufrissansicht einer Eingabe-/Ausgabevorrichtung 330, welche eine Anzeige 332 mit Berührungsbildschirm 334 und einem kraftfühlenden Mechanismus 336 kombiniert. Der Berührungsbildschirm 334 stellt hochaufgelöste Berührungspositionen bereit, und der kraftfühlende Mechanismus 336 stellt ein Maß bereit, wo die Kraft herkommt, sowie die Gesamtkraft. Der Berührungsbildschirm 334 ist über der Anzeige 332 angeordnet, und der kraftfühlende Mechanismus 336 ist unter der Anzeige 332 angeordnet, obwohl andere Anordnungen möglich sind.
  • Kraftfühlende Mechanismen 336 können auch weithin variieren. In der dargestellten Ausführungsform basiert der kraftfühlende Mechanismus 336 auf Kapazität, und insbesondere Eigenkapazität. Der dargestellte kraftfühlende Mechanismus 336 wird aus verschiedenen Schichten gebildet, einschließlich einer Elektrodenschicht 338, einer Elastomerschicht 340 und einer leitenden Schicht 342.
  • Elektrodenschicht 338 beinhaltet eine Mehrzahl von räumlich getrennten Elektroden 339, welche über dem Boden der Anzeige 332 hinweg positioniert sind. Elektroden 339 sind typischerweise in einem Feld aus Zeilen und Spalten positioniert, obwohl oft Konfigurieren möglich sind. Jede Anzahl von Elektroden kann verwendet werden.
  • Die Elastomerschicht 340 beinhaltet ein oder mehrere elastische Elemente 341, welche zwischen der Elektrodenschicht 338 und der leitenden Schicht 342 positioniert sind. Die elastischen Elemente 341 erlauben es, dass sich die Anzeige 332 mit einer begrenzten Menge an Versetzung nach innen bewegt. In einer Implementierung sind die elastischen Elemente 441 Silikonstücke mit einer Dicke von etwa 0,2 mm.
  • Die leitende Schicht 342 nimmt typischerweise die Form einer geerdeten Metallplatte 343 an. Eine kapazitive Schaltung wird zwischen jeder der Elektroden 339 und der geerdeten Metallplatte 343 gebildet. Wenn ein Benutzer auf der Anzeige 332 hinunterdrückt, verursacht die darauf ausgeübte Kraft, dass sich die Anzeige 332 gegen das elastische Element 341 nach innen versetzt, wodurch die elastischen Elemente komprimiert werden. Dies erzeugt eine Veränderung in der Kapazität zwischen den Elektroden 339 und der Metallplatte 343. Diese Veränderung der Kapazität wird durch eine Steuerschaltung erkannt, welche operativ mit jeder der Elektroden 339 gekoppelt ist. Kapazitätsfühlende Schaltungen sind in den verschiedenen beinhalteten Referenzen offenbart.
  • 22 ist eine seitliche Aufrissansicht einer Eingabevorrichtung 350, welche über einer Anzeige positioniert sein kann. Die Eingabevorrichtung 350 kombiniert Berührungsfühlen und Kraftfühlen in einer einzigen Vorrichtung. In dieser Ausführungsform wird sowohl Berührungsfühlen als auch Kraftfühlen durch beidseitige Kapazität bereitgestellt. Wie gezeigt, wird die Eingabevorrichtung 350 aus verschiedenen Schichten gebildet, einschließlich einer oberen Bewegungsschicht 352, einer mittleren Fühlschicht 354 und einer unteren Bewegungsschicht 356. Des Weiteren ist die mittlere Fühlschicht 354 auf einer Elastomerschicht 358 positioniert, welche zwischen der mittleren Fühlschicht 354 und der unteren Bewegungsschicht 356 angeordnet ist. Die oberen und unteren Bewegungsschichten 353 und 356 beinhalten eine Mehrzahl von räumlich getrennten Linien in Zeilen und die mittlere Fühlschicht 354 beinhaltet eine Mehrzahl von räumlich getrennten Linien in Spalten. Die oberen und mittleren Schichten 352 und 354 bilden daher ein Raster und die unteren und mittleren Schichten 356 und 354 bilden ein Raster.
  • Während des Betriebes werden die Linien der oberen Schicht 352 abgetastet, und danach werden die Linien der unteren Schicht 356 abgetastet (oder umgekehrt). Wenn es eine Berührung gibt, stellt die beidseitige Kapazität, welche zwischen der oberen Bewegungsschicht 352 und der mittleren Fühlschicht 354 gemessen wird, die x- und y-Position der Berührung bereit. Zusätzlich stellt die beidseitige Kapazität, welche zwischen der unteren Bewegungsschicht 356 und der mittleren Fühlschicht 354 gemessen wird, den Betrag der Kraft der Berührung bereit. Diese bestimmte Anordnung stellt ein gesamtes Kraftbild bereit, welches auf ein gesamtes Berührungsbild überlagert wird. Die Eingabevorrichtung, einschließlich der Berührungsschichten und der Kraftschichten, kann in ähnlicher Weise betrieben werden, wie die Verfahren, welche in der U.S.-Patentanmeldung Nr. 10/840,862 mit dem Titel "Multipoint Touch Screen", angemeldet am 6. Mai 2004, beschrieben sind.
  • 2. Kraftempfindliches Gehäuse
  • Die handgehaltene Vorrichtung kann auch ein kraftempfindliches Gehäuse beinhalten. Das kraftempfindliche Gehäuse stellt Eingaben bereit, wenn Kräfte auf das Gehäuse der handgehaltenen Vorrichtung ausgeübt werden. Ein kraftempfindliches Gehäuse ist einem kraftempfindlichen Bildschirm in diesem Punkt ähnlich. Das Gehäuse stellt eine kleine Menge an Flex bereit (möglicherweise nicht wahrnehmbar für den Benutzer), so dass jegliche darauf ausgeübte Kräfte an eine Kraftdetektionsanordnung verteilt werden können, welche sich innerhalb des Gehäuses befindet. Die Kraftdetektionsanordnung überwacht die Kräfte auf dem Gehäuse und erzeugt dafür bezeichnende Signale. Wie bei der oben diskutierten kraftempfindlichen Anzeige kann der Kraftdetektionsmechanismus einen oder mehrere Kraftsensoren beinhalten, welche in dem Gehäuse angeordnet sind, wie kraftempfindliche Widerstände, kraftempfindliche Kondensatoren, Kraftmesszellen, Druckplatten, piezoelektrische Wandler, Dehnungsmesser und/oder dergleichen. Wenn eine Kraft auf das Gehäuse angewandt wird (Quetschen oder Stoßen des Gehäuses), wird sie durch das Gehäuse zu dem Kraftsensor übertragen, welcher sich innerhalb des Gehäuses befindet.
  • Die kraftempfindlichen Bereiche des Gehäuses können sich auf jeder Oberfläche des Gehäuses, jeder Seite des Gehäuses, jedem Bereich jeder Seite des Gehäuses oder an dedizierten Positionen auf der Oberfläche der Gehäuses befinden. Die Seiten des Gehäuses sind ideale Stellen zum Implementieren eines Quetschmerkmals. Dies, weil die Finger des Benutzers typischerweise auf einer Seite der Vorrichtung und der Daunen auf der anderen positioniert ist, und daher die Hand die Seiten über eine Kneifaktion leicht quetschen kann. Weil es so komfortabel ist, das Quetschmerkmal zu aktivieren, muss besondere Acht gegeben werden beim Entwerfen des Quetschmerkmals, so dass es nicht zufällig aktiviert wird während der normalen Verwendung. Daher muss die Vorrichtung in der Lage sein, zwischen leichtem und hartem Quetschen zu unterscheiden. Wenn das Quetschmerkmal implementiert wird unter Verwendung von kraftempfindlichen Widerständen (FSRs [force sensitive resistors]), welche eine Abnahme des Widerstandes mit einem Anstieg der Kraft aufweisen, welche auf die aktive Oberfläche angewendet wird, kann eine Komparatorschaltung verwendet werden, um ein Signal auszugeben, zum Anzeigen der Aktivierung, wenn eine vorher festgelegte Kraftschwelle erreicht ist.
  • 23 ist eine Seitenansicht, im Querschnitt, einer handgehaltenen Vorrichtung 370, welche ein Quetschmerkmal beinhaltet. Wie gezeigt, beinhaltet die Vorrichtung 370 ein Gehäuse 372 und eine Stützplattform 374 innerhalb des Gehäuses 372. Zwischen der Stützplattform 374 und der inneren Oberfläche des Gehäuses 372 gibt es ein Paar Kraftsensoren 376. Wenn eine Kraft auf das Gehäuse 372 ausgeübt wird, wie zum Beispiel durch die Kneifnatur der Hand, biegt sich das Gehäuse 372 unter dem Druck nach Innen. Dies verursacht, dass die Kraftsensoren 376 zwischen dem Gehäuse 372 und der Stützplattform 374 eingeklemmt sind. Die Kraftsensoren 376 messen den Betrag der ausgeübten Kraft, und wenn eine gewünschte Kraftschwelle erreicht ist, erzeugen die Kraftsensoren 376 ein Steuersignal. Zum Beispiel kann, als ein Ergebnis des Eingeklemmtseins, ein kraftempfindlicher Sensor einen verringerten Widerstand aufweisen, und wenn eine gewünschte Schwelle erreicht ist, wird ein Steuersignal erzeugt.
  • Das kraftempfindliche Gehäuse ist zusammen mit einem berührungsempfindlichen Gehäuse, wie oben diskutiert, vorgesehen.
  • E. BEWEGUNGSBETÄTIGTE EINGABEVORRICHTUNG
  • Die handgehaltene elektronische Vorrichtung kann auch eine bewegungsbetätigte Eingabevorrichtung beinhalten. Die bewegungsbetätigte Eingabevorrichtung stellt Eingaben bereit, wenn die handgehaltene Vorrichtung in Bewegung ist oder in einer bestimmten Ausrichtung platziert wird. Eine bewegungsbetätigte Eingabevorrichtung beinhaltet typischerweise einen Bewegungssensor, wie einen Beschleunigungsmesser, welcher die Bewegung der Vorrichtung entlang der x-, y- und/oder z-Achse überwacht und dafür bezeichnende Signale erzeugt. Der Bewe gungssensor kann zum Beispiel einen Beschleunigungsmesser beinhalten. Alternativ könnte der Bewegungssensor ein Ausrichtungssensor sein, wie ein elektronischer Kompass, welcher es der Vorrichtung erlaubt, ihre Ausrichtung in einer im Allgemeinen horizontalen Ebene zu bestimmen. Die Bewegungssensoren können an dem Gehäuse oder an irgendeiner anderen strukturellen Komponente, welche sich innerhalb des Gehäuses der Vorrichtung befindet, angebracht sein. Wenn Bewegung auf die Vorrichtung angewendet wird (Gestikulieren, Schütteln, Handwinken, etc.), wird sie durch das Gehäuse zu dem Bewegungssensor übertragen.
  • Da Bewegungssensoren typischerweise alle Bewegungen messen, nicht nur beabsichtigte Bewegung, muss die beabsichtigte Bewegungsinformation typischerweise von den anderen Bewegungsinformationen getrennt werden, um ein genaues Befehlssignal zu erzeugen. Beispielsweise werden Bewegungen in großem Umfang, wie Schütteln der Vorrichtung, hauptsächlich Niederfrequenzinformationen erzeugen. Umgekehrt werden Bewegungen in kleinem Umfang, wie Vibrationen, hauptsächlich Hochfrequenzinformationen erzeugen. Die Hochfrequenzinformationen können herausgefiltert werden, wodurch nur Niederfrequenzinformationen übrig gelassen werden, welche für die Bewegungen in großem Umfang bezeichnend sind (z. B. Schütteln). Die gefilterten Informationen können dann in ein Steuersignal umgewandelt werden.
  • 24 ist eine Seitenansicht, im Querschnitt, einer handgehaltenen elektronischen Vorrichtung 380. Die handgehaltene Vorrichtung 380 beinhaltet einen Beschleunigungsmesser 382, welcher an einem Gehäuse 384 der handgehaltenen Vorrichtung 380 angebracht ist. Wenn die Vorrichtung 380 durch den Benutzer umherbewegt wird, erkennt der Beschleunigungsmesser 382 die Bewegung, und eine Steuerung der handgehaltenen elektronischen Vorrichtung 380 interpretiert die Bewegung und führt danach eine Aktion basierend auf dem Bewegungsereignis aus.
  • F. MECHANISCHE BETÄTIGUNGSGLIEDER
  • Während man gerne alle oberflächenmontierten Betätigungsglieder beseitigen würde, wie Tasten oder Räder, ist dies praktisch manchmal unmöglich. Daher kann die handgehaltene Vorrichtung irgendeine Anzahl von oberflächenmontierten Betätigungsgliedern beinhalten. Vorzugsweise sind diese Betätigungsglieder allen integrierten Vorrichtungen gemein. Das heißt, ihre Bedeutung ist dieselbe, unabhängig davon, welche Vorrichtungsfunktionalität aktiviert ist. Es wird auch bevorzugt, dass die oberflächenmontierten Betätigungsglieder auf Oberflächen außer der vorderen Oberfläche, welche den Sichtbereich der Anzeige beherbergt, platziert werden, obwohl dies nicht erforderlich ist.
  • Ein besonders nützliches Betätigungsglied ist ein Halteschalter. Der Halteschalter kann konfiguriert sein, um die Haupteingabemittel, zum Beispiel den Berührungsbildschirm, zu aktivieren und zu deaktivieren. Dies erlaubt es einem Benutzer, ungewollte Eintragungen zu verhindern, zum Beispiel, wenn die Vorrichtung in der Tasche eines Benutzers aufgehoben wird. In einer Implementierung kann der Halteschalter auf der oberen Oberfläche platziert werden, wo er der greifenden Hand nicht im Weg ist, aber in einer Position zum einfachen Zugriff (im Gegensatz zu der unteren Oberfläche). Der Halteschalter kann nicht nur den Berührungsbildschirm deaktivieren, sondern auch mechanische Betätigungsglieder und andere Eingabe und andere Eingabevorrichtungen.
  • Ein weiteres besonders nützliches mechanisches Betätigungsglied ist ein Ein/Ausschaltschalter. Wenn der Ein-/Ausschaltschalter angeschaltet wird, wird die Vorrichtung hochgefahren und ist bereit. Wenn der Ein-/Ausschaltschalter ausgeschaltet wird, wird die Vorrichtung runtergefahren. In einer Implementierung kann der Ein-/Ausschaltschalter auf der oberen Oberfläche platziert werden, der greifenden Hand nicht im Weg, aber in einer Position zum einfachen Zugriff (im Gegensatz zu der unteren Oberfläche).
  • Ein weiteres nützliches mechanisches Betätigungsglied ist ein Navigationsfeld. Das Navigationsfeld ist typischerweise bei vielen handgehaltenen Vorrichtungen beinhaltet. Die Funktionalität des Navigationsfeldes kann entsprechend dem gegenwärtigen Betriebsmodus der Vorrichtung verändert werden. In dem Fall eines Musikabspielgerätes zum Beispiel können den Richtungstasten Abspielen/Pause, Nächstes, Vorhergehendes und Lautstärke hoch und runter zugewiesen werden. Andere zuweisbare Tasten können auch auf der Vorrichtung enthalten sein.
  • Ein noch weiteres nützliches mechanisches Betätigungsglied ist ein Schaltbetätigungsglied. Ein Schaltbetätigungsglied kann konfiguriert sein, um die Funktionalität der Vorrichtung zu verändern, das heißt, durch Aktivieren des Schaltbetätigungsgliedes schaltet die Funktionalität oder der Zustand der Vorrichtung von einem Modus in einen anderen. Das Schaltbetätigungsglied kann weithin variieren.
  • Beispielsweise kann das Schaltbetätigungsglied eine Wählscheibe oder Rad sein. Durch stufenweises Rotieren des Rades wird die Vorrichtung stufenweise von einer Vorrichtung zu einer anderen geschaltet (üblicherweise in irgendeiner vorbestimmten Reihenfolge). Eine volle Rotation jeder Vorrichtung durchläuft üblicherweise die gesamte Gruppe integrierter Vorrichtungen. Das Rad oder die Wählscheibe kann beispielsweise wie ein Scrollrad arbeiten. Obwohl die Anordnung weithin variieren kann, kann das Schaltrad in dem oberen Bereich der Seiten der Vorrichtung platziert werden. Durch Platzieren des Rades hier, kann der Daumen eines Benutzers dazu benutzt werden, das Rad einfach zu rotieren. Beispielsweise kann der Daumen des Benutzers aus der Greifaktion ausgestreckt werden, so dass das Rad rotiert werden kann.
  • Alternativ kann das Schalterbetätigungsglied eine Taste sein. Durch wiederholtes Drücken der Taste wird die Vorrichtung von einer Vorrichtung zu einer anderen geschaltet (üblicherweise in irgendeiner vorbestimmten Reihenfolge). Obwohl die Anordnung weithin variieren kann, kann die Schalttaste in dem oberen Bereich der Seiten der Vorrichtung angeordnet werden. Durch Anordnen der Taste hier, kann der Daumen oder Zeigefinger eines Benutzers benutzt werden, um die Taste einfach zu drücken.
  • Die handgehaltene Vorrichtung kann auch jedes kommerziell verfügbare Berührungsfeld beinhalten. Mehrere Beispiele für Berührungsfelder können in U.S.-Patentanmeldung Nr. 10/188,182 mit dem Titel "Touch Pad for Handheld Device", angemeldet am 1. Juli 2002, U.S.-Patentanmeldung Nr. 10/722,948 mit dem Titel "Touch Pad for Handheld Device", angemeldet am 25. November 2003, und U.S.-Patentanmeldung Nr. 10/643,256 mit dem Titel "Movable Touch Pad with Added Functionality", angemeldet am 18. August 2003, gefunden werden.
  • In einer weiteren Ausführungsform kann die handgehaltene Vorrichtung ein Scrollrad beinhalten. Scrollräder können in jeder Funktionalität verwendet werden, um durch ein Fenster zu scrollen.
  • G. MIKROFON
  • Die handgehaltene Vorrichtung kann auch ein Mikrofon beinhalten, welches Audiogeräusche aufnimmt. Das Mikrofon kann zusammen mit einem Mobiltelefon verwendet werden, um Geräusche zu übertragen, wie die Stimme des Benutzers. Das Mikrofon kann auch verwendet werden, um Geräusche aufzunehmen oder Sprachbefehle in die handgehaltene Vorrichtung einzugeben. Zum Beispiel kann unter Verwendung von Spracherkennungssoftware die handgehaltene Vorrichtung imstande sein, Sprachbefehle zu erkennen und damit verknüpfte Steuersignale zu erzeugen. Das Mikrofon kann in der unteren Oberfläche der handgehaltenen Vorrichtung oder möglicherweise in der vorderen unteren Einfassung angeordnet werden. Diese bestimmte Konfiguration ist gut geeignet zum Aufnehmen der Stimme eines Benutzers während eines Telefongespräches.
  • H. BILDSENSOR
  • Eine handgehaltene elektronische Vorrichtung kann auch einen Bildsensor oder linsenverwandte Komponenten beinhalten, so dass die handgehaltene Vorrichtung wie eine Kamera arbeiten kann. Der Bildsensor kann beispielsweise eine Ladungskopplungselement (CCD [charge coupled device])-Kamera beinhalten.
  • I. EINGABEVORRICHTUNGSFUNKTIONALITÄT
  • 1. BERÜHRUNGSGESTIKEN
  • Eine handgehaltene elektronische Vorrichtung kann entworfen werden, um Berührungsgestiken zu erkennen, welche auf einen Berührungsbildschirm und/oder eine berührungsempfindliche Oberfläche des Gehäuses angewendet werden, um dadurch Aspekte der handgehaltenen elektronischen Vorrichtung zu steuern. Gestiken sind eine stylisierte Interaktion mit einer Eingabevorrichtung, welche auf eine oder mehrere bestimmte Rechenoperationen abgebildet wird. Die Gestiken können durch verschiedene Hand- und Fingerbewegungen erfolgen. Gestiken umfassen üblicherweise einen Kontaktakkord, zum Beispiel einen oder mehrere Finger, und eine mit dem Akkord verknüpfte Bewegung. Alternativ oder zusätzlich können die Gestiken mit einem Schreibstift erfolgen. In all diesen Fällen empfängt die Eingabevorrichtung, das heißt, der Berührungsbildschirm und/oder die berührungsempfindliche Oberfläche) die Gestiken, und eine Steuerung der handgehaltenen elektronischen Vorrichtung führt Anweisungen aus, um mit den Gestiken verknüpfte Operationen auszuführen. Die handgehaltene elektronische Vorrichtung kann ein Berührungsgestikbetriebsprogramm beinhalten, welches Teil des Betriebssystems oder eine separate Anwendung sein kann. Das Gestikbetriebsprogramm beinhaltet üblicherweise einen Satz von Anweisungen, welcher das Auftreten von Gestiken erkennt und einen oder mehrere Softwareagenten über die Gestiken und/oder welche Aktion(en) als Antwort auf die Gestiken vorgenommen werden sollen informiert. Beispielsweise sind Gestiken, welche verwendet werden können, detaillierter in U.S.-Patentanmeldung Nr. 10/903,964 mit dem Titel "Gestures for Touch Sensitive Input Devices", angemeldet am 30. Juli 2004, und U.S.-Patentanmeldung Nr. 11/038,590 mit dem Titel "Mode-Based Graphical User Interfaces for Touch Sensitive Input Devices", angemeldet am 18. Januar 2005, offenbart.
  • 2. 3D-RÄUMLICHE GESTIKEN
  • Entsprechend einer Ausführungsform kann die handgehaltene elektronische Vorrichtung entworfen sein, um 3D-räumliche Gestiken zu erkennen, welche von einem Beschleunigungsmesser gemessen werden, und um Aspekte der handgehaltenen elektronischen Vorrichtung basierend auf den 3D-räumlichen Gestiken zu steuern. Räumliche Gestiken sind stylisierte Bewegungen der Vorrichtung selber, welche auf eine oder mehrere bestimmte Rechenoperationen abgebildet werden. Die 3D-räumlichen Gestiken können durch verschiedene Hand- und Armbewegungen erfolgen, wie zum Beispiel Schütteln, Winken und dergleichen. Der Beschleunigungsrnesser misst die Bewegung, welche zu den 3D-räumlichen Gestiken gehört, und eine Steuerung erkennt die Bewegung als eine 3D-räumliche Gestik und führt danach Anweisungen aus, um mit den 3D-räumlichen Gestiken verknüpfte Operationen auszuführen. Die handgehaltene elektronische Vorrichtung kann ein Betriebsprogramm für 3D-räumliche Gestiken beinhalten, welches Teil des Betriebssystems oder eine separate Anwendung sein kann. Das Gestikbetriebsprogramm beinhaltet üblicherweise einen Satz von Anweisungen, welcher das Auftreten von Gestiken erkennt und einen oder mehrere Softwareagenten über die Gestiken und/oder welche Aktion(en) als Antwort auf die Gestiken vorgenommen werden sollen informiert.
  • Eine beispielhafte 3D-Gestik ist das Schütteln der Vorrichtung. Schütteln kann verursachen, dass die handgehaltene Vorrichtung verursacht, dass die Vorrichtung zwischen Modi oder Zuständen umschaltet. Alternativ kann Schütteln der handgehaltenen Vorrichtung verursachen, dass ein Auswahlereignis auftritt. Beispielsweise kann in dem Fall eines Medienabspielgerätes Schütteln der Vorrich tung verursachen, dass die Vorrichtung zufällig ein Bild oder ein Lied aus einer Gruppe von Bildern oder Liedern auswählt. Alternativ kann Schütteln der Vorrichtung verursachen, dass die Vorrichtung das nächste Bild oder Lied in einer Reihenfolge von Liedern auswählt.
  • Andere Gestiken können das Versetzen oder Rotieren der Vorrichtung beinhalten. Versetzen der handgehaltenen Vorrichtung (während sie nach oben zeigt) von Seite zu Seite kann verwendet werden, um Schwenken oder Scrollen in der Vorrichtung zu initiieren, oder Rauf- und Runterbewegen der Vorrichtung (während sie nach oben zeigt) kann verwendet werden, um Zoomen zu initiieren. Rotieren der Vorrichtung kann verwendet werden, um zu verursachen, dass die Vorrichtung Modi oder Zustände verändert. In manchen Fällen zum Beispiel kann die Ausrichtung der Vorrichtung einem bestimmten Modus entsprechen. Beispielsweise kann ein erster Modus mit 0 Grad verknüpft sein, ein zweiter Modus kann mit 90 Grad verknüpft sein, ein dritter Modus kann mit 180 Grad verknüpft sein und ein vierter Modus kann mit 270 Grad verknüpft sein. In all diesen Fällen kann die Vorrichtung konfiguriert sein, um den angezeigten Bereich aufrecht zu halten, wenn die Vorrichtung gedreht wird. Das heißt, dass sie ein aufrechtes Bild beibehält, egal in welcher Ausrichtung sich das Gerät befindet.
  • Die 3D-räumlichen Gestiken können sogar auf komplexeren Bewegungen basieren, wie Zeichensprache, Schreibbewegungen, etc.
  • 3. AUSFÜHREN EINER AKTION BASIEREND AUF MEHREREN EINGABEN
  • Weil die Vorrichtung mehrere Eingabemodi haben kann, kann die handgehaltene Vorrichtung konfiguriert sein, um gleichzeitig Eingaben von verschiedenen Eingabevorrichtungen zu empfangen und Aktionen auszuführen, basierend auf den mehreren gleichzeitigen Eingaben. Die Eingaben, welche kombiniert werden können, um neue Befehle zu erzeugen, können ausgewählt werden aus Sprache, 2D- Berührungsgestiken, 3D-räumlichen Gestiken, Betätigungsgliedern, etc. Zum Beispiel kann dieses Merkmal hilfreich sein, wenn Anrufe über Sprachauswahl getätigt werden. Ein Anrufer kann "TOM" verbalisieren, was verursacht, dass die Vorrichtung "TOM"-Telefonnummer wählt. Wenn "TOM" mehrere Telefonnummern hat, kann ein Benutzer den Sprachbefehl "TOM" mit einer 3D-räumlichen Gestik verbinden, wie Schütteln, um Toms zweite Telefonnummer auszuwählen. Verschiedene andere Möglichkeiten werden vom Fachmann erkannt werden.
  • 4. UNTERSCHEIDEN ZWISCHEN WEICHEN UND HARTEN BERÜHRUNGEN
  • Wie oben bemerkt, vereinfacht Kraftfühlen zusammen mit Berührungsfühlen zwei unterschiedliche Arten der Interaktionen, leichte Berührungen und harte Berührungen. Harte Berührungen können verwendet werden, um passive Aktionen auszuführen, wie Navigieren durch Inhalte und Inhaltsmanipulation, üblicherweise ohne zu verursachen, dass ein Hauptereignis auftritt. Beispiele eines passiven Ereignisses beinhalten Bewegen eines Cursors, Scrollen, Schwenken, etc. Harte Berührungsinteraktionen können verwendet werden, um Tasten auf dem Bildschirm auszuwählen oder Befehle zu initiieren (z. B. zu verursachen, dass eine bedeutende Veränderung auftritt).
  • 25 ist ein Diagramm eines Berührungsverfahrens 400 zum Implementieren dieser Technik. Das Verfahren 400 beginnt bei Block 402, wo ein oder mehrere Berührungen detektiert werden. Die Berührungen beinhalten nicht nur x- und y-Komponenten, sondern auch z-Komponenten. Die x- und y-Komponenten können von einer berührungsfühlenden Vorrichtung geliefert werden, wie ein Berührungsbildschirm, Berührungsfeld oder Berührungsgehäuse. Die z-Komponente kann durch Kraftsensoren oder Anzeigebetätigungsglieder, welche sich hinter der Berührungsoberfläche der berührungsfühlenden Vorrichtung befinden, bereitgestellt werden.
  • Auf den Block 402 folgend geht das Verfahren weiter zu Block 404, wo eine Bestimmung gemacht wird, ob die Berührung eine leichte oder harte Berührung ist. Die Bestimmung basiert üblicherweise auf der Kraft oder denn Druck der Berührung (z-Komponente). Beispielsweise, wenn die Kraft der Berührung kleiner ist als eine vorbestimmte Schwelle, dann wird die Berührung als eine leichte Berührung angesehen, und wenn die Kraft der Berührung größer ist als die vorbestimmte Schwelle, dann wird die Berührung als eine harte Berührung angesehen. Wenn bestimmt wird, dass die Berührung eine leichte Berührung ist, geht das Verfahren weiter zu Block 406, wo eine mit der Berührung verknüpfte passive Aktion initiiert wird. Wenn bestimmt wird, dass die Berührung eine harte Berührung ist, wird eine mit der Berührung verknüpfte aktive Aktion ausgeführt (Block 408).
  • Das Berührungsverfahren kann zusätzlich einen Block beinhalten, wo die eine oder die mehreren Berührungen klassifiziert werden als eine erstrangige Berührung oder eine zweitrangige Berührung. Erstrangige Berührungen sind Berührungen, welche beabsichtigt sind, um eine Aktion zu verursachen, während zweitrangige Berührungen Berührungen sind, welche nicht beabsichtigt sind, eine Aktion zu verursachen. Gestiken sind Beispiele erstrangiger Berührungen, während ein Daumen, der über einer Berührungsfläche positioniert wird, um die Vorrichtung zu halten, ein Beispiel einer zweitrangigen Berührung ist. Sobald die Berührungen klassifiziert sind als erstrangige oder zweitrangige, werden die zweitrangigen Berührungen herausgefiltert, und die Bestimmung, ob eine Berührung eine leichte oder eine harte Berührung ist, wird mit den erstrangigen Berührungen vorgenommen.
  • 5. BEISPIEL EINES NEUEN BERÜHRUNGSVOKABULARS
  • Der z-Druck, welcher auf die berührungsfühlende Vorrichtung angewendet wird, kann mit den x- und y-Positionen der Berührung kombiniert werden, um ein neues Berührungsvokabular zu bilden. Wie anerkannt werden sollte, haben bis zu diesem Zeitpunkt Berührungsvokabulare nur x- und y-Positionen beinhaltet, nicht z-Druck. Ein vorgeschlagenes Berührungsvokabular beinhaltet eine Vielzahl an Variablen, einschließlich des UI-Modus, der Kraft der Berührung (z. B. leicht oder hart), der Anzahl der benutzten Finger, ob es eine Bewegung während der Berührung gibt oder nicht, die Dauer der Berührung, und die Berührungsposition, von denen alle oder manche kombiniert werden können, um eine Vielzahl an Verhaltensweisen und Benutzerfeedback zu bilden.
  • Der UI-Modus ist üblicherweise mit dem Modus oder Zustand der Vorrichtung verwandt. Jede Vorrichtung beinhaltet eine Vielzahl an Zuständen und jeder Zustand kann einen unterschiedlichen UI-Modus benötigen. Ein Medienabspielgerät (ein Modus) kann zum Beispiel einen Satz an hierarchischen Schichten (Zustände) beinhalten, wobei jede Schicht eine unterschiedliche UI benötigt.
  • Wie oben bemerkt, kann die Kraft der Berührung zum Beispiel als leicht oder hart beschrieben werden. Eine leichte Berührung kann auftreten, wenn ein Benutzer die Oberfläche der Berührungsoberfläche leicht berührt, das heißt, der Finger schwebt auf der Oberfläche und wird hauptsächlich in die x- und y-Richtungen bewegt. Eine harte Berührung kann auftreten, wenn ein Benutzer auf die Berührungsfläche mit einer bestimmten Kraftmenge drückt, das heißt, der Finger wird hauptsächlich in die z-Richtung gegen die Berührungsfläche bewegt.
  • Eine Bewegung während der Berührung wird benutzt, um zu beschreiben, ob der Finger stationär geblieben ist während eines Berührungsereignisses oder sich wesentlich bewegt hat in der X-Y-Ebene (z. B. Translation, Rotation, etc.). Die Bewegung kann als überhaupt nicht vorhanden oder als ein Wischen oder Drehen in irgendeine bestimmte Richtung beschrieben werden. Beispielhaft kann das Wischen nach oben, unten, rechts, links oder irgendeine Kombination davon sein, und das Drehen kann im Uhrzeigersinn oder gegen den Uhrzeigersinn sein.
  • Die Dauer ist definiert als der Zeitbetrag, die der Finger an irgendeinem Punkt bleibt. Die Dauer kann variabel sein oder sie kann Zustände beinhalten, wie kurz und lang. Die Berührungsposition kann ein zufälliger Punkt oder eine bestimmte Position sein, wie eine Taste auf dem Bildschirm.
  • 26 ist ein zusätzliches Berührungsverfahren 500, welches diese Technik implementiert. Das Verfahren beginnt bei Block 502, wenn eine oder mehrere Berührungen detektiert werden. Danach wird in Block 504 der UI-Modus bestimmt. In Block 506 wird eine Bestimmung vorgenommen, ob die Berührungen leichte Berührungen oder harte Berührungen sind. Alternativ könnten die Blöcke 502 und 504 umgekehrt sein, was effektiv zu einer Instanz des Berührungsverfahrens für jeden Modus rührt. In Block 508 wird die Anzahl an bestimmten Berührungen (z. B. Finger) bestimmt. In Block 510 wird eine Bestimmung vorgenommen, ob die Berührungen stationär oder in Bewegung sind. In Block 512 wird die Dauer der Berührungen bestimmt. In Block 514 werden die Positionen der Berührungen bestimmt. Auf die Blöcke 502-514 folgend geht das Verfahren weiter zu Block 516, wo eine Aktion ausgeführt wird basierend auf dem UI-Modus, dem Druck der Berührung, der Anzahl der Berührungen, ob die Berührung sich bewegt oder nicht, der Dauer der Berührung, und der Berührungsposition. Die Aktionen können passiv oder aktiv sein, abhängig von den Werten jeder Eigenschaft.
  • Ein Beispiel eines Berührungsvokabulars, welches mit einem Musikabspielgerät verknüpft ist, ist in 27A-E gezeigt.
  • V. AUSGABEVORRICHTUNGEN
  • A. ANZEIGE
  • Die Hauptausgabe einer handgehaltenen elektronischen Vorrichtung ist typischerweise eine Anzeige. Die Anzeige stellt visuelle Informationen in der Form von Text, Zeichen oder Grafiken bereit. Die Anzeige ist üblicherweise eine Flachfeldvorrichtung, obwohl andere Arten von Anzeigen verwendet werden können. Die Anzeige kann eine Flüssigkristallanzeige (LCD [liquid crystal display]) sein, wie eine Zeichen-LCD, welche imstande ist, Text und Symbole darzustellen, oder eine grafische LCD, welche imstande ist, Bilder, Video und grafische Benutzerschnittstellen (GUI [graphical user interface]) darzustellen. Alternativ kann die Anzeige einer Anzeige basierend auf organischen lichtemittierenden Dioden (OLED [organic light emitting diodes]) entsprechen, oder einer Anzeige, die auf elektronischen Tinten basiert.
  • Vorzugsweise kann die Anzeige konfiguriert sein, um die vordere Oberfläche des Gehäuses im Wesentlichen auszufüllen. Die Anzeige kann sich von einem Rand des Gehäuses zu dem gegenüberliegenden Rand des Gehäuses ausdehnen, das Gehäuse kann eine kleine Einfassung beinhalten, welche die Ränder der Anzeige umgibt. In beiden Fällen bildet die Anzeige einen wesentlichen Teil der vorderen Oberfläche der handgehaltenen elektronischen Vorrichtung, wodurch jeglicher Raum für Tasten oder Schalter, welche mit einer konventionellen Benutzerschnittstelle verknüpft sind, beseitigt wird.
  • Wie oben erwähnt, kann die Anzeige neben dem Ausgeben von visuellen Informationen auch als eine Eingabevorrichtung funktionieren. Zum Beispiel kann ein Berührungsschirm über der Anzeige positioniert werden, und/oder Sensoren können unterhalb der Anzeige angeordnet werden, um zu fühlen, wenn die Vorrichtung gedrückt oder anderweitig bewegt wird. In den meisten Fällen benötigt der kleine Formfaktor der handgehaltenen Vorrichtungen eine zentrale Anordnung der Eingabeschnittstellen, um die Bedienung zu erlauben, während sie herumgetragen und durch die Hand benutzt werden. Der Anzeigebereich stellt eine zentrale Position bereit, auf welche mit sowohl der linken als auch rechten Hand zugegriffen werden kann.
  • Der Anzeigebereich kann durch mehr als eine Anzeige gebildet werden. Beispielsweise kann der Anzeigebereich durch ein Anzeigenpaar gebildet werden, welche Seite an Seite oder eine über der anderen ist. Eine erste Anzeige kann verwendet werden, um den Standardbildschirm darzustellen, und eine zweite An zeige kann verwendet werden, um den Bedienbildschirm darzustellen, wie oben mit Bezug auf 5-8 beschrieben. Des Weiteren kann eine erste Anzeige eine konventionelle Anzeige sein, während die zweite Anzeige ein Anzeigebetätigungsglied sein kann. Des Weiteren kann eine erste Anzeige von einer ersten Art sein und eine zweite Anzeige kann von einer zweiten Art sein. Beispielsweise kann die erste Anzeige eine LCD sein, während die zweite Anzeige eine auf elektronischen Tinten basierende Anzeige sein kann.
  • Die Entscheidung, verschiedene Arten zu benutzen, kann auf der Tatsache basieren, dass eine der Anzeigen einem Standardsichtbereich zugeordnet sein kann, während andere einem Bedienbereich zugeordnet sein können. Weil diese zwei Bereiche verschiedene Auflösungen benötigen, kann ein Bildschirme höherer Auflösung in dem Standardbereich verwendet werden, während ein Bildschirm niedrigerer Auflösung in dem Bedienbereich verwendet werden kann. Alternativ oder zusätzlich kann eine der Anzeigen ausgewählt werden, um den Batterieverbrauch zu verringern, insbesondere in dem Bedienbereich, wo eine niedrigere Auflösung akzeptabel ist. In manchen Fällen können, obwohl zwei verschiedene Anzeigen verwendet werden, die darauf angezeigten Bilder kombiniert werden, um ein einziges einheitliches Bild zu bilden.
  • B. LAUTSPRECHER
  • Eine handgehaltene Vorrichtung kann auch einen Lautsprecher beinhalten. Lautsprecher sind Komponenten, welche von einem Verstärker elektronische Signale aufnehmen, die Audioinformationen repräsentieren, und diese in Schallwellen umwandeln. Die Lautsprecher können verwendet werden, um Musik zu hören in Zusammenhang mit einer Musikabspielgerätfunktionalität, oder um einem eingehenden Anruf zuzuhören in Zusammenhang mit einer Mobiltelefonfunktionalität. Der Lautsprecher kann auf der oberen Oberfläche platziert werden oder möglicherweise auf der vorderen oberen Einfassung der handgehaltenen Vorrichtung.
  • Diese Anordnung funktioniert insbesondere gut, wenn die Vorrichtung als ein Mobiltelefon verwendet wird.
  • C. ANZEIGER (LED)
  • Eine handgehaltene Vorrichtung kann auch einen oder mehrere Anzeiger beinhalten, welche Benutzerfeedback bereitstellen oder mit der Vorrichtung verknüpfte Ereignisse angeben. Die Ereignisse können sich auf Signale, Bedingungen oder Status der Vorrichtung beziehen. Beispielsweise stellen die Anzeiger den Status der Batterielebensdauer bereit oder warnen einen Benutzer, wenn es einen eingehenden Anruf gibt. Die Anzeiger, welche Lichtquellen beinhalten, wie lichtemittierende Dioden (LED [light emitting diodes]), werden typischerweise beleuchtet, wenn ein Ereignis eintritt, und nicht beleuchtet, wenn das Ereignis beendet wird. Des Weiteren kann ein Anzeiger an- und ausgeschaltet werden (blinken) oder mit zunehmender oder abnehmender Intensität zirkulieren, und in manchen Fällen kann er sogar Farben wechseln, um detailliertere Informationen über das überwachte Ereignis bereitzustellen.
  • Die Anzeiger können konventionelle Anzeiger sein, welche typischerweise einen kleinen klaren Plastikeinsatz beinhalten, welcher sich vor der LED befindet, und welcher innerhalb einer Öffnung in dem Gehäuse eingesetzt ist, was zur Folge hat, dass er auf der Oberfläche des Gehäuses vorhanden ist. Die LED selber kann auch in der Öffnung des Gehäuses angeordnet sein, anstatt, dass ein Einsatz benutzt wird. Alternativ kann der Anzeiger konfiguriert sein, um die Oberfläche des Gehäuses nicht zu unterbrechen. In dieser Konfiguration ist die Lichtquelle ganz innerhalb des Gehäuses angeordnet, und ist konfiguriert, um einen Teil des Gehäuses zu beleuchten, was zur Folge hat, dass das Gehäuse sein Aussehen verändert, das heißt seine Farbe wechselt.
  • D. VORRICHTUNGEN FÜR AUDIO-/TAKTILES FEEDBACK
  • Die handgehaltene Vorrichtung kann Lautsprecher oder Summer beinhalten, um dem Benutzer Audiofeedback zu geben. Diese können ähnlich den oben beschriebenen Anzeigern funktionieren, oder sie können verwendet werden, um das Gefühl des Betätigens eines GUI-Elementes zu verbessern, wie eine veränderbare Taste oder ein Scrollrad. Beispielsweise kann der Lautsprecher konfiguriert sein, um ein "Klick" geräusch auszugeben, wenn ein Benutzer auf eine virtuelle Taste drückt oder ein virtuelles Scrollrad dreht. Dieses bestimmte Merkmal verbessert das Benutzererlebnis und bewirkt, dass die virtuelle UI mehr wie eine physikalische UI empfunden wird.
  • Die handgehaltene Vorrichtung kann auch einen Haptikmechanismus beinhalten. Haptik ist die Wissenschaft des Anwendens von taktilem Empfinden und Steuern zur Interaktion mit Computeranwendungen. Haptik erlaubt dem Benutzer im Wesentlichen, Informationen zu fühlen, das heißt, Signale werden an die Hand gesendet. Die Haptikmechanismen können weithin variieren. Sie können Motoren, Vibratoren, Elektromagnete, etc. beinhalten, von denen alle imstande sind Kraftfeedback bereitzustellen in der Form einer Vibration oder eines Schütteins. Die Haptikmechanismen können ähnlich den oben beschriebenen Indikatoren funktionieren (warnen), oder sie können verwendet werden, um das Gefühl des Betätigens eines GUI-Elementes zu verbessern, wie eine veränderbare Taste oder ein Scrollrad. Beispielsweise kann der Haptikmechanismus konfiguriert sein, um zu vibrieren, wenn ein Benutzer auf eine virtuelle Taste drückt oder ein virtuelles Scrollrad dreht. Dieses bestimmte Merkmal verbessert das Benutzererlebnis und verursacht, dass die virtuelle UI mehr wie eine physikalische UI empfunden wird. Haptik kann auch gleichzeitig mit Aktionen auf dem Bildschirm verwendet werden. Zum Beispiel kann, während Filmen oder Spiele spielen, der Haptikmechanismus die angezeigte Aktion simulieren. Zum Beispiel kann der Haptikmechanismus Kraftfeedback in der Form einer Vibration bereitstellen, wenn ein Auto während eines Filmes oder Spieles explodiert.
  • In Fällen, in denen Haptik verwendet wird, um das Gefühl des Betätigens eines GUI-Elementes zu verbessern, wie eine veränderbare Taste oder ein Scrollrad, kann sich der Haptikmechanismus im Bereich der Anzeige und weiter unterhalb der Anzeige befinden, um Kraftfeedback direkt unterhalb der Benutzeraktion bereitzustellen. Tatsächlich können mehrere Haptikmechanismen regional über die Anzeige hinweg verwendet werden, um das Gefühl weiter zu verbessern. Es wird im Allgemeinen geglaubt, dass je näher die Vibration an der Benutzeraktion ist, desto größer der haptische Effekt ist. In einer Implementierung werden die Haptikmechanismen in einem Feld unterhalb der Anzeige verteilt. Das heißt, dass sie räumlich getrennt sind und an verschiedenen Positionen platziert sind. Beispielhaft können sie in einem 2×2-, 2×4-, 4×4-, 4×8-, 8×8-Feld und so weiter unterhalb der Anzeige positioniert sein.
  • Audio- und/oder taktiles Feedback kann verwendet werden, um einen Benutzer zu warnen, dass eine Benutzereingabe gemacht wurde. Beispielhaft kann, als Antwort auf das Berühren einer virtuellen Taste auf der GUI, die Haptik Kraftfeedback bereitstellen in der Form einer Vibration, und der Lautsprecher kann Audiofeedback bereitstellen in der Form eines Klickens. Das taktile Audiofeedback kann verwendet werden in Verbindung mit einem Eingabeereignis, einschließlich Berührungsereignissen, Bewegungsereignissen, Quetschereignissen. Das Feedback kann Informationen bereitstellen, so dass der Benutzer weiß, dass sie tatsächlich eine Eingabe implementierten (simuliert das Audio- und taktile Gefühl einer Taste oder eines Schalters). In einer Implementierung ist das Feedback an das Kraftniveau gebunden, welches auf die kraftfühlenden Vorrichtungen angewendet wird. Zum Beispiel kann, wenn eine bestimmte Kraftschwelle erreicht wird, die Audiofeedbackvorrichtung einen "Klick" auf das Drücken hin erzeugen und ein "Klock" auf das Loslassen hin. Die verwendete Kraftschwelle kann ähnlich der Schwelle sein, welche verwendet wird, um zu bestimmen, ob eine Berührung eine leichte oder harte Berührung ist. Das "Klick" und "Klock" kann verwendet werden, um ein Tastenklicken zu simulieren, wenn eine harte Berührung gemacht wird.
  • VI. KOMMUNIKATIONSVORRICHTUNGEN
  • A. VERKABELT
  • Die handgehaltene Vorrichtung kann auch ein oder mehrere Verbindungsglieder beinhalten zum Empfangen und Übertragen von Daten an und von der Vorrichtung. Beispielhaft kann die Vorrichtung eine oder mehrere Audiobuchsen, Videobuchsen, Datenanschlüsse, Andockanschlüsse, etc. beinhalten. Die handgehaltene Vorrichtung kann auch ein oder mehrere Verbindungsglieder beinhalten zum Empfangen und Übertragen von Energie an und von der handgehaltenen Vorrichtung.
  • Die handgehaltene Vorrichtung kann eine Kopfhörer-/Mikrofonbuchse und einen Datenanschluss beinhalten. Die Buchse ist imstande, einen Lautsprecher- und/oder Mikrofonstecker zu empfangen, so dass Audio in die Vorrichtung eingegeben oder von der Vorrichtung ausgegeben werden kann. Der Datenanschluss ist imstande, eine Datensteckerkabelanordnung zu empfangen, welche zum Übertragen und Empfangen von Daten an und von einer Hostvorrichtung konfiguriert ist, wie ein Universalcomputer (z. B. Desktopcomputer, tragbarer Computer). Zum Beispiel kann der Datenanschluss verwendet werden, um Daten raufzuladen oder runterzuladen auf und von der handgehaltenen Vorrichtung. Solche Daten können Lieder und Abspiellisten, Audiobücher, elektronische Bücher, Fotos, Adressbücher, Dokumente, Termine, etc. in die handgehaltene Vorrichtung einschließen. Der Datenanschluss kann ein PS/2-Anschluss, serieller Anschluss, paralleler Anschluss, Netzwerkschnittstellenanschluss, USB-Anschluss, Firewireanschluss, etc. sein. Die handgehaltene Vorrichtung kann auch einen Energieanschluss beinhalten, welche eine Energiestecker/Kabelanordnung empfängt, welche zum Liefern von Energie an die handgehaltene Vorrichtung konfiguriert ist. In manchen Fällen kann der Datenanschluss sowohl als Daten- als auch als Energieanschluss dienen durch Verwenden von entweder Standard- oder proprietären Verbindungsgliedern.
  • B. DRAHTLOS
  • Um Daten drahtlos zu senden und zu empfangen, benötigt die Vorrichtung im Allgemeinen einen Sender, einen Empfänger (oder einen Transceiver) und irgendeine Art von Antenne. Die drahtlose Kommunikationsverbindung kann Bluetooth, WiFi (802.11), IR (Infrarot), etc. entsprechen. Die Antenne kann voll innerhalb der Vorrichtung enthalten sein oder sie können sich außerhalb der Vorrichtung erstrecken. Die Antenne kann eine Vielzahl von Formen annehmen, abhängig von der verwendeten Frequenz, etc. Ein Beispiel sei eine robuste Gummiente, welche aus einem in Gummi verkleidetem, zusammengerollten Element besteht. Alternativ kann die Antenne auf einer Leiterkarte innerhalb der Vorrichtung gedruckt sein.
  • Die handgehaltene Vorrichtung kann auch einen Radiotransceiver beinhalten zur Kommunikation über ein zellulares Netzwerk oder einen GPS-Empfänger.
  • C. VERÄNDERN DER UI BASIEREND AUF EMPFANGENEN KOMMUNIKATIONSSIGNALEN
  • Eine handgehaltene elektronische Vorrichtung kann konfiguriert sein, um aktiv nach Signalen in der umliegenden Umgebung zu suchen und ihren Modus basierend auf dem Signal zu verändern. Das heißt, dass die Vorrichtung versucht, den Modus an das Signal anzupassen. Wenn die Vorrichtung ein Telefonsignal über das zellulare Netzwerk empfängt, kann die Vorrichtung sich in ein Telefon verwandeln, das heißt, der Telefonmodus wird aktiviert oder relativ zu den anderen Moden nach vorne gebracht. Wenn eine Vorrichtung eine E-Mail empfängt, kann die Vorrichtung sich in ein E-Mail-Endgerät verwandeln. Als ein weiteres Beispiel kann, wenn ein Benutzer in einen Raum mit Heimkino geht, die Vorrichtung Signale von einer Mediensteuereinheit empfangen und sich selber in eine Fernbedienung verwandeln, einschließlich der Funktionalität, die verschiedenen Vorrich tungen des Heimkinos (Fernseher, Verstärker, DVD, Licht) zu steuern. In anderen Fällen kann die Vorrichtung Signale erkennen, welche in physischen Läden übertragen werden, und verwandelt sich selber in eine Vorrichtung, welche gut geeignet für diesen Laden ist. Zum Beispiel kann die Vorrichtung in einer Bank in einen Taschenrechner wechseln oder ein Geldprogramm sichtbar machen, oder die Vorrichtung kann sich in einem Lebensmittelladen in eine Geldzahlvorrichtung verwandeln oder eine Einkaufsliste sichtbar machen.
  • VII. ANDERE KOMPONENTEN DER HANDGEHALTENEN VORRICHTUNG
  • Die handgehaltene Vorrichtung kann zusätzlich eine oder mehrere der folgenden Hardwarekomponenten beinhalten: eine Steuerung (z. B. Mikroprozessor, DSP, A/D, D/A, Wandler, Codes), Speicher (z. B. RAM, ROM, Festkörper (Flash), Festplatte (Micro-Drive), Speicher (SD-Kartenschlitze, Mini-DVD), Batterie (z. B. Lithiumionen), etc.
  • VIII. GESAMTBLOCKDIAGRAMM
  • 28 ist ein Blockdiagramm einer beispielhaften handgehaltenen Vorrichtung 600. Die handgehaltene Vorrichtung 600 beinhaltet typischerweise eine Steuerung 602 (z. B. CPU), welche konfiguriert ist, um Anweisungen auszuführen und Operationen auszuführen, welche mit der handgehaltenen Vorrichtung verknüpft sind. Beispielsweise kann, unter Verwendung von Anweisungen, welche zum Beispiel aus denn Speicher abgerufen werden, die Steuerung 602 den Empfang und die Manipulation von Eingabe- und Ausgabedaten zwischen Komponenten der handgehaltenen Vorrichtung 600 steuern. Die Steuerung 602 kann als ein einzelner Chip, mehrere Chips oder mehrere elektrische Komponenten implementiert sein. Zum Beispiel können verschiedene Architekturen verwendet werden für die Steuerung 602, einschließlich dediziertem oder eingebettetem Prozessor, Einzweckprozessor, Controller, ASIC, etc. Beispielhaft kann die Steuerung Mikroprozesso ren, DSP, A/D-Wandler, D/A-Wandler, Komprimierung, Dekomprimierung, etc. beinhalten.
  • In den meisten Fällen arbeitet die Steuerung 602 zusammen mit einem Betriebssystem, um Computercode auszuführen und Daten zu erzeugen und zu benutzen. Das Betriebssystem kann wohl bekannten Betriebssystemen entsprechen, wie OS/2, DOS, Unix, Linux und Palm OS, oder alternativ Betriebssystemen für spezielle Zwecke, wie diejenigen, welche für Vorrichtungstypen für Anwendungen für begrenzte Zwecke verwendet werden. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks 604 befinden, welcher operativ mit der Steuerung 602 gekoppelt ist. Speicherblock 604 stellt im Allgemeinen einen Ort bereit, um Computercode und Daten zu speichern, welche von der handgehaltenen Vorrichtung verwendet werden. Beispielhaft kann der Speicherblock 604 Nur-Lese-Speicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), Festplattenlaufwerk (z. B. ein Mico-Drive), Flashspeicher, etc. beinhalten. Zusammen mit dem Speicherblock 604 kann die handgehaltene Vorrichtung eine austauschbare Speichervorrichtung beinhalten, wie ein Abspielgerät für optische Scheiben, welches DVDs empfängt und abspielt, oder Kartenschlitze zum Empfangen von Medien wie Speicherkarten (oder Speicherstiften). Weil der Formfaktor der handgehaltenen Vorrichtung klein ist, kann das optische Laufwerk nur für Mini-DVDs konfiguriert sein.
  • Die handgehaltene Vorrichtung 600 beinhaltet auch verschiedene Eingabevorrichtungen 606, welche operativ mit der Steuerung 602 gekoppelt sind. Die Eingabevorrichtungen 606 sind konfiguriert, um Daten von der Außenwelt in die handgehaltene Vorrichtung 600 zu übertragen. Wie gezeigt, können die Eingabevorrichtungen 606 sowohl Dateneingabemechanismen als auch Datenerfassungsmechanismen entsprechen. Insbesondere können die Eingabevorrichtungen 606 berührungsfehlende Vorrichtungen 608 beinhalten, wie Berührungsbildschirme, Berührungsfelder und berührungsfühlende Oberflächen, mechanische Betätigungsglieder 610, wie Tasten oder Räder oder Halteschalter (611), bewegungsfehlende Vorrichtungen 612, wie Beschleunigungsmesser, kraftfühlende Vorrichtungen 614, wie kraftfühlende Anzeigen und Gehäuse, Bildsensoren 616, und Mikrofone 618. Die Eingabevorrichtungen 606 können ein klickbares Anzeigebetätigungsglied 619 beinhalten.
  • Die handgehaltene Vorrichtung 600 beinhaltet auch verschiedene Ausgabevorrichtungen 620, die operativ mit der Steuerung 602 verbunden sind. Die Ausgabevorrichtungen 620 sind konfiguriert, um Daten von der handgehaltenen Vorrichtung 600 an die Außenwelt zu übertragen. Die Ausgabevorrichtungen 620 können eine Anzeige 622 beinhalten, wie eine LCD, Lautsprecher oder Buchsen 624, Vorrichtungen 626 mit Audio-/taktilem Feedback, Lichtanzeiger 628, und dergleichen.
  • Die handgehaltene Vorrichtung 600 kann auch verschiedene Kommunikationsvorrichtungen 630 beinhalten, welche operativ mit der Steuerung 602 gekoppelt sind. Die Kommunikationsvorrichtungen 630 können zum Beispiel sowohl verdrahtete als auch drahtlose Verbindungsfähigkeit beinhalten, ausgewählt aus Eingabe/Ausgabe (I/O)-Anschlüssen 632, wie IR-, USB- oder Firewireanschlüsse, GPS-Empfänger 634 und einen Radioempfänger 636.
  • Die handgehaltene Vorrichtung 600 kann auch eine Batterie 650 und möglicherweise ein Ladesystem 652 beinhalten. Die Batterie kann über einen Transformator und ein Netzkabel oder über eine Hostvorrichtung oder über eine Andockstation geladen werden. In den Fällen einer Andockstation kann das Laden über elektrische Anschlüsse oder möglicherweise über ein Induktionsladungsmittel, welches nicht fordert, dass eine physikalisch-elektrische Verbindung gemacht wird, übertragen werden.
  • Die verschiedenen Aspekte, Merkmale, Ausführungsformen oder Implementierungen der oben beschriebenen Erfindung können alleine oder in verschiedenen Kombinationen verwendet werden. Die Verfahren dieser Erfindung können durch Software, Hardware oder eine Kombination aus Hardware und Software implementiert werden. Die Erfindung kann auch als computerlesbarer Code auf einem computerlesbaren Medium ausgeführt werden. Das computerlesbare Medium ist irgendeine Datenspeichervorrichtung, welche Daten speichern kann, welche danach von einem Computersystem gelesen werden können, einschließlich sowohl Übertragungs- als auch Nichtübertragungsvorrichtungen, wie oben definiert. Beispiele des computerlesbaren Mediums beinhalten Nur-Lese-Speicher, Speicher mit wahlfreiem Zugriff, CD-ROMs, Flashspeicherkarten, DVDs, Magnetband, optische Datenspeichervorrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkgekoppelte Computersysteme verteilt sein, so dass der computerlesbare Code in einer verteilten Art und Weise gespeichert und ausgeführt wird.
  • Während diese Erfindung hinsichtlich mehrerer bevorzugter Ausführungsformen beschrieben wurde, gibt es Abänderungen, Permutationen und Äquivalente, welche in den Umfang dieser Erfindung fallen. Es sollte bemerkt werden, dass es viele alternative Wege gibt, die Verfahren und Vorrichtungen der vorliegenden Erfindung zu implementieren. Es wird daher beabsichtigt, dass die folgenden angehängten Ansprüche so interpretiert werden, dass sie alle solche Änderungen, Permutationen und Äquivalente beinhalten, wie sie in den wahren Geist und Umfang der vorliegenden Erfindung fallen.

Claims (9)

  1. Handgehaltene elektronische Vorrichtung, aufweisend: eine berühmngsempfindliche Eingabeoberfläche; eine Verarbeitungseinheit, welche mit der berührungsempfindlichen Eingabeoberfläche operativ verbunden ist, wobei die Verarbeitungseinheit im Stande ist, Angaben zu empfangen, welche mit Berührungseingaben von einem Benutzer verknüpft sind, und eine vom Benutzer angeforderte Aktion aus einer oder mehreren der Angaben zu bestimmen, eine Anzeigevorrichtung, welche mit der Verarbeitungseinheit operativ gekoppelt ist, und konfiguriert ist, eine Benutzerschnittstelle darzustellen, wobei die Anzeigevorrichtung wenigstens teilweise mit der berührungsempfindlichen Eingabeoberfläche überlappt; und einen physikalischen Eingabemechanismus, welcher von der berührungsempfindlichen Eingabeoberfläche unabhängig ist, wobei der physikalische Eingabemechanismus eine erste Operation in der elektronischen Vorrichtung bewirkt, und die berührungsempfindliche Eingabeoberfläche gleichzeitig eine zweite Operation in der elektronischen Vorrichtung bewirkt.
  2. Vorrichtung gemäß Anspruch 1, wobei die erste Operation und die zweite Operation unabhängig voneinander sind.
  3. Vorrichtung gemäß Anspruch 1, wobei die erste Operation Lautstärkeregelung ist und die zweite Operation Scrollen oder Schwenken ist.
  4. Vorrichtung gemäß Anspruch 3, wobei das Scrollen oder Schwenken während eines Intemetzugriffs durchgeführt wird.
  5. Vorrichtung gemäß Anspruch 2 oder Anspruch 3, wobei der physikalische Eingabemechanismus ein Schalter ist.
  6. Handgehaltene elektronische Vorrichtung, aufweisend: eine berührungsempfindliche Eingabeoberfläche; eine Verarbeitungseinheit, welche mit der berührungsempfindlichen Eingabeoberfläche operativ verbunden ist, wobei die Verarbeitungseinheit im Stande ist, Angaben zu empfangen, welche mit Berührungseingaben verknüpft sind, und eine vom Benutzer angeforderte Aktion aus einer oder mehreren der Angaben zu bestimmen; eine Anzeigevorrichtung, welche mit der Verarbeitungseinheit operativ gekoppelt ist und konfiguriert ist, eine Benutzerschnittstelle darzustellen, wobei die Anzeigevorrichtung wenigstens teilweise mit der berührungsempfindlichen Oberfläche überlappt; und einen physikalischen Eingabemechanismus, welcher von der berührungsempfindlichen Eingabeoberfläche unabhängig ist, wobei der physikalische Eingabemechanismus angepasst ist, um eine erste Operation in der elektronischen Vorrichtung zu bewirken, und die berührungsempfindliche Eingabeoberfläche angepasst ist, um gleichzeitig eine zweite Operation in der elektronischen Vorrichtung zu bewirken.
  7. Elektronische Vorrichtung gemäß Anspruch 6, wobei die Verarbeitungseinheit programmiert ist, um die elektronische Vorrichtung zu veranlassen, aktiv nach Telefongesprächssignalen in einer umliegenden Umgebung zu suchen, und, basierend auf dem Vorhandensein von Telefongesprächssignalen, zu einer Benutzerschnittstelle oder einem mit einem Telefon verknüpften Betriebsmodus zu wechseln.
  8. Vorrichtung gemäß Anspruch 6, wobei die erste Operation und die zweite Operation unabhängig voneinander sind.
  9. Vorrichtung gemäß Anspruch 6, wobei die erste Operation Lautstärkeregelung ist und die zweite Operation Scrollen oder Schwenken ist.
DE212006000028U 2005-03-04 2006-03-03 Multifunktionale Handgehaltene Vorrichtung Expired - Lifetime DE212006000028U1 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US65877705P 2005-03-04 2005-03-04
US60/658,777 2005-03-04
US66334505P 2005-03-16 2005-03-16
US60/663,345 2005-03-16
PCT/US2006/008349 WO2006094308A2 (en) 2005-03-04 2006-03-03 Multi-functional hand-held device

Publications (1)

Publication Number Publication Date
DE212006000028U1 true DE212006000028U1 (de) 2007-12-20

Family

ID=36936660

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202006020369U Expired - Lifetime DE202006020369U1 (de) 2005-03-04 2006-03-03 Multifunktionale handgehaltene Vorrichtung
DE212006000028U Expired - Lifetime DE212006000028U1 (de) 2005-03-04 2006-03-03 Multifunktionale Handgehaltene Vorrichtung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE202006020369U Expired - Lifetime DE202006020369U1 (de) 2005-03-04 2006-03-03 Multifunktionale handgehaltene Vorrichtung

Country Status (10)

Country Link
US (4) US20080088602A1 (de)
EP (2) EP1877889A2 (de)
JP (8) JP5550211B2 (de)
KR (15) KR20160150116A (de)
CN (2) CN103336562A (de)
AU (4) AU2006218381B8 (de)
CA (1) CA2600326A1 (de)
DE (2) DE202006020369U1 (de)
HK (7) HK1122461A2 (de)
WO (1) WO2006094308A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042527A1 (de) * 2010-10-15 2012-04-19 Siemens Aktiengesellschaft Gerät mit einer Anzeige- und Bedieneinheit
DE102011052636A1 (de) * 2011-08-12 2013-02-14 Medion Ag Eingabeeinrichtung zur Fernsteuerung von elektronischen Geräten

Families Citing this family (450)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7714880B2 (en) * 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7620915B2 (en) * 2004-02-13 2009-11-17 Ludwig Lester F Electronic document editing employing multiple cursors
JP2006323690A (ja) * 2005-05-19 2006-11-30 Sony Corp 検索装置,プログラム及び検索方法
JP4696734B2 (ja) * 2005-07-06 2011-06-08 ソニー株式会社 コンテンツデータ再生装置及びコンテンツデータ再生方法
TWM280066U (en) * 2005-07-08 2005-11-01 Pchome Online Inc Internet protocol phone having stereo female connector
US20070126731A1 (en) * 2005-12-06 2007-06-07 Sabram Stephen R Graphical architecture for handheld measurement system
US7882435B2 (en) * 2005-12-20 2011-02-01 Sony Ericsson Mobile Communications Ab Electronic equipment with shuffle operation
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8352323B2 (en) * 2007-11-30 2013-01-08 Blaze Mobile, Inc. Conducting an online payment transaction using an NFC enabled mobile communication device
US8068605B2 (en) * 2006-03-07 2011-11-29 Sony Ericsson Mobile Communications Ab Programmable keypad
US8144125B2 (en) 2006-03-30 2012-03-27 Cypress Semiconductor Corporation Apparatus and method for reducing average scan rate to detect a conductive object on a sensing device
US8059015B2 (en) 2006-05-25 2011-11-15 Cypress Semiconductor Corporation Capacitance sensing matrix for keyboard architecture
US8040321B2 (en) 2006-07-10 2011-10-18 Cypress Semiconductor Corporation Touch-sensor with shared capacitive sensors
US20080030456A1 (en) * 2006-07-19 2008-02-07 Sony Ericsson Mobile Communications Ab Apparatus and Methods for Providing Motion Responsive Output Modifications in an Electronic Device
US8493323B2 (en) * 2006-08-02 2013-07-23 Research In Motion Limited System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device
US8139026B2 (en) * 2006-08-02 2012-03-20 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8736557B2 (en) 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
KR101144423B1 (ko) 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
EP2126667B1 (de) * 2006-12-27 2020-06-24 Immersion Corporation Virtuelle arretierungen durch vibrotaktil-rückmeldung
KR100831721B1 (ko) 2006-12-29 2008-05-22 엘지전자 주식회사 휴대단말기의 디스플레이 장치 및 방법
US7802201B2 (en) 2006-12-29 2010-09-21 Research In Motion Limited System and method for panning and zooming an image on a display of a handheld electronic device
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US8020441B2 (en) 2008-02-05 2011-09-20 Invensense, Inc. Dual mode sensing for vibratory gyroscope
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US7924271B2 (en) 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US7796872B2 (en) 2007-01-05 2010-09-14 Invensense, Inc. Method and apparatus for producing a sharp image from a handheld device containing a gyroscope
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8250921B2 (en) 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US7934423B2 (en) 2007-12-10 2011-05-03 Invensense, Inc. Vertically integrated 3-axis MEMS angular accelerometer with integrated electronics
US8141424B2 (en) 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US8047075B2 (en) 2007-06-21 2011-11-01 Invensense, Inc. Vertically integrated 3-axis MEMS accelerometer with electronics
US8508039B1 (en) 2008-05-08 2013-08-13 Invensense, Inc. Wafer scale chip scale packaging of vertically integrated MEMS sensors with electronics
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US8058937B2 (en) 2007-01-30 2011-11-15 Cypress Semiconductor Corporation Setting a discharge rate and a charge rate of a relaxation oscillator circuit
US20080204463A1 (en) * 2007-02-27 2008-08-28 Adam Cybart Adaptable User Interface and Mechanism for a Title Portable Electronic Device
US20080207254A1 (en) * 2007-02-27 2008-08-28 Pierce Paul M Multimodal Adaptive User Interface for a Portable Electronic Device
US20080249682A1 (en) * 2007-04-06 2008-10-09 Visteon Global Technologies, Inc. Touch control bezel for display devices
TWI351638B (en) * 2007-04-27 2011-11-01 Htc Corp Touch-based tab navigation method and related devi
US8902152B2 (en) 2007-04-30 2014-12-02 Motorola Mobility Llc Dual sided electrophoretic display
US8144126B2 (en) 2007-05-07 2012-03-27 Cypress Semiconductor Corporation Reducing sleep current in a capacitance sensing system
US8621348B2 (en) * 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
US20080300016A1 (en) * 2007-05-31 2008-12-04 Vocollect, Inc. Aural feedback apparatus for user controls
US9052817B2 (en) * 2007-06-13 2015-06-09 Apple Inc. Mode sensitive processing of touch data
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US9122092B2 (en) 2007-06-22 2015-09-01 Google Technology Holdings LLC Colored morphing apparatus for an electronic device
US8258986B2 (en) 2007-07-03 2012-09-04 Cypress Semiconductor Corporation Capacitive-matrix keyboard with multiple touch detection
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8432365B2 (en) 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
JP5184018B2 (ja) * 2007-09-14 2013-04-17 京セラ株式会社 電子機器
CN101801706B (zh) * 2007-09-14 2015-11-25 德尔菲技术公司 用于车载仪表的控制面板
CN104219560B (zh) * 2007-09-18 2018-05-25 汤姆森许可贸易公司 机顶盒的用户界面
TW200920105A (en) * 2007-10-31 2009-05-01 Mitac Int Corp Handheld device having independently operating camera and method thereof
US8253686B2 (en) * 2007-11-26 2012-08-28 Electronics And Telecommunications Research Institute Pointing apparatus capable of providing haptic feedback, and haptic interaction system and method using the same
US8116831B2 (en) 2007-11-29 2012-02-14 Motorola Mobility, Inc. Hand-held communication device with auxiliary input apparatus, and method
EP2071441A1 (de) 2007-12-03 2009-06-17 Semiconductor Energy Laboratory Co., Ltd. Mobiltelefon
US8122237B2 (en) * 2007-12-06 2012-02-21 Symbol Technologies, Inc. Device and method for adjusting a converged device having barcode reading and RFID functionalities
TWI362673B (en) 2007-12-31 2012-04-21 Htc Corp Touch sensor keypad with tactile feedback mechanisms
US8413075B2 (en) 2008-01-04 2013-04-02 Apple Inc. Gesture movies
US8327272B2 (en) * 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8059232B2 (en) 2008-02-08 2011-11-15 Motorola Mobility, Inc. Electronic device and LC shutter for polarization-sensitive switching between transparent and diffusive states
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8717305B2 (en) * 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8174502B2 (en) * 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US20090225026A1 (en) * 2008-03-06 2009-09-10 Yaron Sheba Electronic device for selecting an application based on sensed orientation and methods for use therewith
KR100952699B1 (ko) * 2008-03-10 2010-04-13 한국표준과학연구원 촉각센서를 이용한 터치스크린장치의 풀브라우징 표시방법
US9003315B2 (en) 2008-04-01 2015-04-07 Litl Llc System and method for streamlining user interaction with electronic content
US8624844B2 (en) 2008-04-01 2014-01-07 Litl Llc Portable computer with multiple display configurations
US8612888B2 (en) 2008-04-01 2013-12-17 Litl, Llc Method and apparatus for managing digital media content
JP5448370B2 (ja) * 2008-05-20 2014-03-19 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、記憶媒体
US8584048B2 (en) * 2008-05-29 2013-11-12 Telcordia Technologies, Inc. Method and system for multi-touch-based browsing of media summarizations on a handheld device
US8171410B2 (en) * 2008-05-29 2012-05-01 Telcordia Technologies, Inc. Method and system for generating and presenting mobile content summarization
TWI510080B (zh) * 2008-06-16 2015-11-21 Imu Solutions Inc 家庭娛樂中心與其操作方法
KR20100000514A (ko) * 2008-06-25 2010-01-06 엘지전자 주식회사 터치 스크린이 구비된 영상표시기기 및 그의 제어 방법
KR101493089B1 (ko) * 2008-07-10 2015-02-12 주식회사 케이티 터치 입력 인식 장치의 사용자 인터페이스 제공 방법 및이를 수행하는 터치 입력 인식 장치
EP3206381A1 (de) 2008-07-15 2017-08-16 Immersion Corporation Systeme und verfahren zum abbilden von nachrichteninhalten auf virtuelle physikalische eigenschaften für vibrotaktile nachrichtenübermittlung
US20100037180A1 (en) * 2008-08-08 2010-02-11 At&T Intellectual Property I, L.P. Touch Screen Remote Control with Dynamic Keypad Layouts
DE102008037750B3 (de) * 2008-08-14 2010-04-01 Fm Marketing Gmbh Verfahren zur Fernsteuerung von Multimediageräten
US20100042564A1 (en) * 2008-08-15 2010-02-18 Beverly Harrison Techniques for automatically distingusihing between users of a handheld device
US7969287B2 (en) * 2008-08-18 2011-06-28 Visteon Global Technologies, Inc. Haptic effect control system
KR101467881B1 (ko) * 2008-08-18 2014-12-02 엘지전자 주식회사 적어도 2개의 디스플레이 영역을 가지는 휴대 단말기 및 그제어방법
US8341557B2 (en) * 2008-09-05 2012-12-25 Apple Inc. Portable touch screen device, method, and graphical user interface for providing workout support
US20100060588A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Temporally separate touch input
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
KR101522883B1 (ko) * 2008-10-07 2015-05-26 엘지전자 주식회사 휴대단말기 및 휴대단말기의 제어방법
US8255825B2 (en) * 2008-10-07 2012-08-28 Microsoft Corporation Content aware adaptive display
TWI372994B (en) * 2008-10-21 2012-09-21 Altek Corp Pressure detection module, and touch panel with pressure detection module
JP5228796B2 (ja) * 2008-10-28 2013-07-03 ソニー株式会社 携帯情報端末、ホールド状態切替方法およびホールド状態切替プログラム
JP4853507B2 (ja) 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20100110020A1 (en) * 2008-10-31 2010-05-06 Sprint Communications Company L.P. Virtual press number pad
US8856690B2 (en) * 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
US8487639B1 (en) 2008-11-21 2013-07-16 Cypress Semiconductor Corporation Receive demodulator for capacitive sensing
US20100129782A1 (en) * 2008-11-25 2010-05-27 Sony Corporation And Sony Electronics Inc. Electronic book with enhanced features
US8502787B2 (en) * 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
KR101530546B1 (ko) * 2008-11-28 2015-06-23 삼성전자주식회사 휴대 단말기의 입력 장치 및 방법
GB2466077A (en) * 2008-12-15 2010-06-16 Symbian Software Ltd Emulator for multiple computing device inputs
US20100153313A1 (en) * 2008-12-15 2010-06-17 Symbol Technologies, Inc. Interface adaptation system
US20100166404A1 (en) * 2008-12-31 2010-07-01 Lombardi Michael J Device and Method Using a Touch-Detecting Surface
KR20100083028A (ko) * 2009-01-12 2010-07-21 삼성전자주식회사 사용자 인터페이스를 갖는 이동식 저장 장치 및 그 사용자 인터페이스 제어 방법
JP4880003B2 (ja) * 2009-01-20 2012-02-22 シャープ株式会社 情報処理装置、制御方法及びプログラム
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US7870496B1 (en) 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
KR101538705B1 (ko) * 2009-01-29 2015-07-22 삼성전자주식회사 휴대단말의 기능 제어 방법 및 시스템
TWI378382B (en) * 2009-02-13 2012-12-01 Htc Corp Method, apparatus and computer program product for preventing on-screen buttons from being mistakenly touched
US8296675B2 (en) * 2009-03-09 2012-10-23 Telcordia Technologies, Inc. System and method for capturing, aggregating and presenting attention hotspots in shared media
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8866500B2 (en) * 2009-03-26 2014-10-21 Cypress Semiconductor Corporation Multi-functional capacitance sensing circuit with a current conveyor
US9325661B2 (en) * 2009-03-30 2016-04-26 Avaya Inc. System and method for managing a contact center with a graphical call connection metaphor
US20100268762A1 (en) * 2009-04-15 2010-10-21 Wyse Technology Inc. System and method for scrolling a remote application
US9448815B2 (en) * 2009-04-15 2016-09-20 Wyse Technology L.L.C. Server-side computing from a remote client device
US9553953B2 (en) 2009-04-15 2017-01-24 Dell Products L.P. Method and apparatus for extending capabilities of a virtualization domain to support features available in a normal desktop application
US10244056B2 (en) * 2009-04-15 2019-03-26 Wyse Technology L.L.C. Method and apparatus for transferring remote session data
US9189124B2 (en) * 2009-04-15 2015-11-17 Wyse Technology L.L.C. Custom pointer features for touch-screen on remote client devices
US9578113B2 (en) 2009-04-15 2017-02-21 Wyse Technology L.L.C. Method and apparatus for transferring remote session data
US8676926B2 (en) * 2009-04-15 2014-03-18 Wyse Technology L.L.C. System and method for handling remote drawing commands
US8742885B2 (en) 2009-05-01 2014-06-03 Apple Inc. Directional touch remote
US20150208012A1 (en) * 2009-05-15 2015-07-23 Tara Chand Singhal Multi-purpose handheld electronic command and control device with ergonomic features
JP5782431B2 (ja) * 2009-05-27 2015-09-24 オブロング・インダストリーズ・インコーポレーテッド 空間動作システムと共に用いるための空間マルチモード制御デバイス
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20100312368A1 (en) * 2009-06-05 2010-12-09 Anthony Rodriguez Aural Audio Player
US8464182B2 (en) * 2009-06-07 2013-06-11 Apple Inc. Device, method, and graphical user interface for providing maps, directions, and location-based information
EP2437213A1 (de) * 2009-06-16 2012-04-04 Intel Corporation Kameraanwendungen in einer tragbaren Vorrichtung
US8407623B2 (en) * 2009-06-25 2013-03-26 Apple Inc. Playback control using a touch interface
CA2761700C (en) * 2009-07-24 2014-12-02 Research In Motion Limited Method and apparatus for a touch-sensitive display
US9147210B2 (en) * 2009-07-29 2015-09-29 Paypal, Inc. System and a machine-readable medium for processing an on-line payment without authenticating the user
US12106354B2 (en) 2009-07-29 2024-10-01 Paypal, Inc. No authentication payment and seamless authentication
JP2011039765A (ja) * 2009-08-11 2011-02-24 Nec Corp 機能起動装置および機能起動方法
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
KR20110031797A (ko) * 2009-09-21 2011-03-29 삼성전자주식회사 휴대 단말기의 입력 장치 및 방법
US20110074827A1 (en) * 2009-09-25 2011-03-31 Research In Motion Limited Electronic device including touch-sensitive input device and method of controlling same
US8780055B2 (en) 2009-10-02 2014-07-15 Blackberry Limited Low power wakeup detection circuit and a portable electronic device having a low power wakeup detection circuit
KR101069496B1 (ko) * 2009-10-09 2011-09-30 엘지이노텍 주식회사 전자책
US20110087963A1 (en) * 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
US20110105186A1 (en) * 2009-10-29 2011-05-05 Research In Motion Limited Systems and methods for providing direct and indirect navigation modes for touchscreen devices
US8432367B2 (en) 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
CN103903418A (zh) * 2009-12-14 2014-07-02 义隆电子股份有限公司 多功能触控板遥控器及其操控方法
US8570297B2 (en) * 2009-12-14 2013-10-29 Synaptics Incorporated System and method for measuring individual force in multi-object sensing
KR20110069476A (ko) * 2009-12-17 2011-06-23 주식회사 아이리버 사용자 그립 상태를 반영하여 조작가능한 핸드헬드 전자기기 및 조작방법
CN102103452A (zh) * 2009-12-17 2011-06-22 深圳富泰宏精密工业有限公司 飞点控制系统及飞点控制方法
WO2011076248A1 (en) * 2009-12-21 2011-06-30 Promethean Limited Multi-point contacts with pressure data on an interactive surface
US9564075B2 (en) * 2009-12-30 2017-02-07 Cyweemotion Hk Limited Electronic control apparatus and method for responsively controlling media content displayed on portable electronic device
US8456297B2 (en) * 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8862576B2 (en) * 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
JP2011145829A (ja) * 2010-01-13 2011-07-28 Buffalo Inc 操作入力装置
US8334840B2 (en) 2010-01-19 2012-12-18 Visteon Global Technologies, Inc. System and method of screen manipulation using haptic enable controller
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110191692A1 (en) * 2010-02-03 2011-08-04 Oto Technologies, Llc System and method for e-book contextual communication
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US8463316B2 (en) * 2010-02-17 2013-06-11 Harris Corporation Communication device with a multi-functional control
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
JP5403271B2 (ja) * 2010-02-24 2014-01-29 日本電気株式会社 携帯端末装置、計算方法、及び計算プログラム
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
JP2011198009A (ja) * 2010-03-19 2011-10-06 Sony Corp 入力機能付き電気光学装置
US9323756B2 (en) * 2010-03-22 2016-04-26 Lenovo (Singapore) Pte. Ltd. Audio book and e-book synchronization
US8781420B2 (en) 2010-04-13 2014-07-15 Apple Inc. Adjustable wireless circuitry with antenna-based proximity detector
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US9122735B2 (en) * 2010-04-30 2015-09-01 Lenovo (Singapore) Pte. Ltd. Method and apparatus for modifying a transition to an altered power state of an electronic device based on accelerometer output
US20130050129A1 (en) * 2010-05-04 2013-02-28 Nokia Corporation Responding to touch inputs
CN102971035B (zh) * 2010-05-07 2016-03-02 马奎特紧急护理公司 用于呼吸设备的用户界面
US8532585B2 (en) 2010-05-11 2013-09-10 Harris Corporation Electronic device with rotary knob multi-functional control
US8736560B2 (en) * 2010-05-14 2014-05-27 Blackberry Limited Electronic device including tactile touch-sensitive display and method of controlling same
US9262073B2 (en) 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
CN201725304U (zh) * 2010-05-28 2011-01-26 深圳富泰宏精密工业有限公司 触控式透明键盘
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US8762890B2 (en) 2010-07-27 2014-06-24 Telcordia Technologies, Inc. System and method for interactive projection and playback of relevant media segments onto the facets of three-dimensional shapes
CN102375659A (zh) * 2010-08-19 2012-03-14 联想(北京)有限公司 一种显示方法及终端
JP5573487B2 (ja) 2010-08-20 2014-08-20 ソニー株式会社 情報処理装置、プログラム及び操作制御方法
EP2612212A1 (de) * 2010-08-30 2013-07-10 Telefonaktiebolaget L M Ericsson (publ) Verfahren zum start von anwendungen je nach geräteausrichtung und zugehörige elektronische vorrichtungen
US9538229B2 (en) * 2010-09-15 2017-01-03 Verizon Patent And Licensing Inc. Media experience for touch screen devices
TW201214237A (en) * 2010-09-16 2012-04-01 Asustek Comp Inc Touch display device and control method thereof
GB2497383A (en) 2010-09-24 2013-06-12 Qnx Software Systems Ltd Alert display on a portable electronic device
GB2496803A (en) 2010-09-24 2013-05-22 Research In Motion Ltd Transitional view on a portable electronic device
EP2434389B1 (de) * 2010-09-24 2019-01-23 BlackBerry Limited Tragbare elektronische Vorrichtung und Kontrollverfahren dafür
US8743082B2 (en) * 2010-10-18 2014-06-03 Qualcomm Mems Technologies, Inc. Controller architecture for combination touch, handwriting and fingerprint sensor
US20120102439A1 (en) * 2010-10-22 2012-04-26 April Slayden Mitchell System and method of modifying the display content based on sensor input
US9164581B2 (en) 2010-10-22 2015-10-20 Hewlett-Packard Development Company, L.P. Augmented reality display system and method of display
US8854802B2 (en) 2010-10-22 2014-10-07 Hewlett-Packard Development Company, L.P. Display with rotatable display screen
WO2012068551A1 (en) * 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
JP2012133453A (ja) * 2010-12-20 2012-07-12 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN102566806A (zh) * 2010-12-20 2012-07-11 联胜(中国)科技有限公司 触控面板及具有此触控面板的触控显示面板
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
KR101743505B1 (ko) 2010-12-28 2017-06-05 삼성전자주식회사 전자기기의 터치 입력 방법 및 장치
US10042546B2 (en) 2011-01-07 2018-08-07 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen
JP2012168932A (ja) 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US8970230B2 (en) * 2011-02-28 2015-03-03 Cypress Semiconductor Corporation Capacitive sensing button on chip
TWI483171B (zh) * 2011-03-10 2015-05-01 Chi Mei Comm Systems Inc 檔案管理系統及方法
US8872773B2 (en) 2011-04-05 2014-10-28 Blackberry Limited Electronic device and method of controlling same
US9268441B2 (en) 2011-04-05 2016-02-23 Parade Technologies, Ltd. Active integrator for a capacitive sense array
EP2508969A1 (de) * 2011-04-05 2012-10-10 Research In Motion Limited Elektronische Vorrichtung und Steuerungsverfahren dafür
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US8897897B2 (en) 2011-05-25 2014-11-25 Remote Technologies, Inc. Companion control interface for smart devices
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US10180722B2 (en) * 2011-05-27 2019-01-15 Honeywell International Inc. Aircraft user interfaces with multi-mode haptics
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US10149005B2 (en) 2011-06-20 2018-12-04 Enseo, Inc. Set-top box with enhanced content and system and method for use of same
US8650600B2 (en) 2011-06-20 2014-02-11 Enseo, Inc. Set top/back box, system and method for providing a remote control device
US11051065B2 (en) 2011-06-20 2021-06-29 Enseo, Llc Television and system and method for providing a remote control device
US10148998B2 (en) * 2011-06-20 2018-12-04 Enseo, Inc. Set-top box with enhanced functionality and system and method for use of same
JP2011227917A (ja) * 2011-06-24 2011-11-10 Kyocera Corp 携帯端末
US8775966B2 (en) 2011-06-29 2014-07-08 Motorola Mobility Llc Electronic device and method with dual mode rear TouchPad
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9541966B2 (en) * 2011-09-07 2017-01-10 Htc Corporation Systems and methods for utilizing acceleration event signatures
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
CN102999198B (zh) * 2011-09-16 2016-03-30 宸鸿科技(厦门)有限公司 触摸面板边缘持握触摸的检测方法和装置
US9106651B2 (en) * 2011-09-19 2015-08-11 Qualcomm Incorporated Sending human input device commands over internet protocol
JP5707619B2 (ja) * 2011-09-22 2015-04-30 トヨタ車体株式会社 入力装置
WO2013040824A1 (zh) * 2011-09-23 2013-03-28 Xu Minglu 采用虚拟边框的平板电脑
US8836654B2 (en) * 2011-10-04 2014-09-16 Qualcomm Incorporated Application window position and size control in (multi-fold) multi-display devices
KR101286638B1 (ko) * 2011-10-06 2013-07-22 도시바삼성스토리지테크놀러지코리아 주식회사 탈부착이 가능한 컨트롤러를 구비한 멀티미디어 장치
TWI447678B (zh) * 2011-10-24 2014-08-01 Hon Hai Prec Ind Co Ltd 整合式遙控器
DE102011120265A1 (de) * 2011-12-01 2013-06-06 Jürgen Habenstein Digitalkamera
US9182869B2 (en) 2011-12-16 2015-11-10 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
DE102011056940A1 (de) 2011-12-22 2013-06-27 Bauhaus Universität Weimar Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
CN103257807A (zh) * 2012-02-17 2013-08-21 林卓毅 移动通讯装置的状态切换方法及可携式电子装置
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
CN103324329B (zh) * 2012-03-23 2016-07-06 联想(北京)有限公司 一种触摸控制方法和装置
JP5537743B2 (ja) 2012-04-19 2014-07-02 パナソニック株式会社 携帯電子機器
US9024910B2 (en) 2012-04-23 2015-05-05 Qualcomm Mems Technologies, Inc. Touchscreen with bridged force-sensitive resistors
DE102012008681A1 (de) * 2012-04-28 2013-10-31 Audi Ag Multifunktions-Bedieneinrichtung, insbesondere für ein Kraftfahrzeug
DE112013002288T5 (de) 2012-05-03 2015-04-16 Apple Inc. Momentkompensierter Biegebalkensensor zur Lastmessung auf einer Biegebalken-gestützten Plattform
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
JP2015519656A (ja) 2012-05-09 2015-07-09 アップル インコーポレイテッド ユーザインタフェースオブジェクトを移動し、ドロップするためのデバイス、方法及びグラフィカルユーザインタフェース
EP3185116B1 (de) 2012-05-09 2019-09-11 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bereitstellung von taktilem feedback für auf einer benutzeroberfläche durchgeführte operationen
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
EP3096218B1 (de) 2012-05-09 2018-12-26 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten
CN104321736B (zh) 2012-05-21 2018-11-13 三星电子株式会社 用于通过使用触摸屏来控制用户界面的方法和装置
EP2859427B1 (de) * 2012-06-12 2019-08-07 BlackBerry Limited Elektronische vorrichtung und anzeigesteuerungsverfahren dafür
US10437392B2 (en) 2012-07-05 2019-10-08 Samsung Electronics Co., Ltd. Apparatus and method for detecting hard and soft touch by using acoustic sensors
CN103593078B (zh) * 2012-08-14 2017-02-15 宸鸿科技(厦门)有限公司 触控面板
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
CN102902467B (zh) * 2012-09-13 2015-03-18 广东欧珀移动通信有限公司 一种终端设备的文本光标定位方法及其终端设备
EP2901256B1 (de) * 2012-09-25 2021-02-24 Nokia Technologies Oy Verfahren und anzeigevorrichtung mit taktiler rückkopplung
US20140085217A1 (en) * 2012-09-27 2014-03-27 Htc Corporation Electronic apparatus and control method thereof
JP2014081732A (ja) * 2012-10-15 2014-05-08 Ntt Docomo Inc 携帯電子機器及び表示方法
US9582122B2 (en) * 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
JP6150141B2 (ja) * 2012-11-20 2017-06-21 日本電気株式会社 携帯電子機器、その制御方法及びプログラム
US10735106B2 (en) * 2012-12-10 2020-08-04 Apple Inc. Mobile device with ultrasound ranging
WO2014097930A1 (ja) * 2012-12-17 2014-06-26 三菱電機株式会社 映像処理装置および映像処理システム
US9983715B2 (en) 2012-12-17 2018-05-29 Apple Inc. Force detection in touch devices using piezoelectric sensors
US9645678B2 (en) * 2012-12-18 2017-05-09 Seiko Epson Corporation Display device, and method of controlling display device
JP2014126949A (ja) * 2012-12-25 2014-07-07 Kyocera Corp 携帯端末装置、画面制御方法およびプログラム
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
EP2939098B1 (de) 2012-12-29 2018-10-10 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zum übergang zwischen berührungseingabe und anzeigenausgabe
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102000253B1 (ko) 2012-12-29 2019-07-16 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
DE112013001305B4 (de) 2013-01-06 2024-08-22 Intel Corporation Ein Verfahren, eine Vorrichtung und ein System zur verteilten Vorverarbeitung von Berührungsdaten und Anzeigebereichsteuerung
KR102004884B1 (ko) * 2013-01-07 2019-07-29 삼성전자주식회사 전자 장치에서 움직이는 사진 제어 장치 및 방법
CN104035648A (zh) * 2013-03-04 2014-09-10 联想(北京)有限公司 状态切换的方法及电子终端
WO2014149023A1 (en) 2013-03-15 2014-09-25 Rinand Solutions Llc Force sensing of inputs through strain analysis
CN103197887B (zh) * 2013-03-23 2016-06-08 苏州佳世达电通有限公司 手持式电子装置
CN104102335B (zh) * 2013-04-15 2018-10-02 中兴通讯股份有限公司 一种手势控制方法、装置和系统
JP2014222388A (ja) * 2013-05-13 2014-11-27 信越ポリマー株式会社 発光型静電容量式入力装置
US10073587B2 (en) 2013-05-29 2018-09-11 Beijing Lenovo Software Ltd. Information prompt method and electronic apparatus
CN104216640B (zh) * 2013-05-29 2019-12-24 联想(北京)有限公司 物理按键位置提示方法及电子设备
JP5634617B1 (ja) * 2013-05-30 2014-12-03 株式会社東芝 電子機器および処理方法
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
KR20150007910A (ko) 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
KR20150019165A (ko) * 2013-08-12 2015-02-25 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
TWI545471B (zh) 2013-09-03 2016-08-11 蘋果公司 用於使用者介面物件操縱之電腦實施方法、非暫時性電腦可讀儲存媒體及電子器件
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US9537935B2 (en) 2013-09-30 2017-01-03 Eric Trent Dryden Consumer PC in the cloud
WO2015057936A1 (en) * 2013-10-18 2015-04-23 Citrix Systems, Inc. Providing enhanced application interoperability
CN105684177B (zh) * 2013-10-28 2019-05-21 苹果公司 基于压电的力感测
US20150153854A1 (en) * 2013-12-03 2015-06-04 Lenovo (Singapore) Pte. Ltd. Extension of wearable information handling device user interface
KR102131828B1 (ko) * 2013-12-03 2020-07-09 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
AU2015100011B4 (en) 2014-01-13 2015-07-16 Apple Inc. Temperature compensating transparent force sensor
US9578239B2 (en) * 2014-01-17 2017-02-21 Htc Corporation Controlling method for electronic apparatus with one switch button
US20160328077A1 (en) * 2014-01-31 2016-11-10 Hewlett-Packard Development Company, L.P. Touch sensor
WO2015123322A1 (en) 2014-02-12 2015-08-20 Apple Inc. Force determination employing sheet sensor and capacitive array
US9398456B2 (en) 2014-03-07 2016-07-19 Apple Inc. Electronic device with accessory-based transmit power control
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
CA2950185A1 (en) * 2014-05-28 2015-12-03 Sioux Automation Center Inc Electronic remote contol mixing system, associated devices and methods
US9798399B2 (en) * 2014-06-02 2017-10-24 Synaptics Incorporated Side sensing for electronic devices
JP6050282B2 (ja) * 2014-06-09 2016-12-21 富士フイルム株式会社 電子機器
US9444425B2 (en) 2014-06-20 2016-09-13 Apple Inc. Electronic device with adjustable wireless circuitry
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
TWI647608B (zh) 2014-07-21 2019-01-11 美商蘋果公司 遠端使用者介面
WO2016022204A1 (en) 2014-08-02 2016-02-11 Apple Inc. Context-specific user interfaces
WO2016027779A1 (ja) * 2014-08-22 2016-02-25 シャープ株式会社 タッチパネル装置
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
TWI676127B (zh) 2014-09-02 2019-11-01 美商蘋果公司 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體
CN110072131A (zh) 2014-09-02 2019-07-30 苹果公司 音乐用户界面
KR102255143B1 (ko) 2014-09-02 2021-05-25 삼성전자주식회사 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
CN115665320B (zh) 2014-09-02 2024-10-11 苹果公司 电子设备、存储介质和用于操作电子设备的方法
US10082892B2 (en) 2014-09-02 2018-09-25 Apple Inc. Button functionality
DE202014011147U1 (de) * 2014-10-16 2018-02-16 "Durable" Hunke & Jochheim Gmbh & Co. Kommanditgesellschaft Beleuchtungssystem
US9652057B2 (en) * 2014-12-31 2017-05-16 Synaptics Incorporated Top mount clickpad module for bi-level basin
KR20160099399A (ko) * 2015-02-12 2016-08-22 엘지전자 주식회사 와치 타입 단말기
US10108269B2 (en) 2015-03-06 2018-10-23 Align Technology, Inc. Intraoral scanner with touch sensitive input
US10006937B2 (en) 2015-03-06 2018-06-26 Apple Inc. Capacitive sensors for electronic devices and methods of forming the same
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
TWI575414B (zh) * 2015-04-01 2017-03-21 晨星半導體股份有限公司 操作模式判斷方法、觸碰點位置判斷方法以及觸控控制電路
CN106162928A (zh) 2015-04-03 2016-11-23 松翰科技股份有限公司 信息传输系统及方法
CN104935725B (zh) * 2015-04-23 2016-07-27 努比亚技术有限公司 移动终端及其利用虚拟边框区域实现功能调节的方法
US10372212B2 (en) 2015-05-29 2019-08-06 Google Llc Techniques for simulated physical interaction between users via their mobile computing devices
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
CN104866207A (zh) * 2015-06-09 2015-08-26 努比亚技术有限公司 一种获取应用程序辅助信息的方法及装置
WO2016201235A1 (en) 2015-06-10 2016-12-15 Nextinput, Inc. Ruggedized wafer level mems force sensor with a tolerance trench
JP6686129B2 (ja) * 2015-07-03 2020-04-22 華為技術有限公司Huawei Technologies Co.,Ltd. 端末装置に適用される作動方法及び端末装置
US9612170B2 (en) 2015-07-21 2017-04-04 Apple Inc. Transparent strain sensors in an electronic device
US10055048B2 (en) 2015-07-31 2018-08-21 Apple Inc. Noise adaptive force touch
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
EP3347700A4 (de) 2015-09-07 2019-04-17 Mobileodt Ltd. Handhaltbare mobile vorrichtung zur detektion von biologischem beweis
US9874965B2 (en) 2015-09-11 2018-01-23 Apple Inc. Transparent strain sensors in an electronic device
JP2017058719A (ja) * 2015-09-14 2017-03-23 株式会社東海理化電機製作所 操作装置
US9886118B2 (en) 2015-09-30 2018-02-06 Apple Inc. Transparent force sensitive structures in an electronic device
CN106610777A (zh) * 2015-10-23 2017-05-03 小米科技有限责任公司 启动应用程序的方法、装置及移动终端
US11182068B2 (en) * 2015-10-27 2021-11-23 Verizon Patent And Licensing Inc. Method and system for interacting with a touch screen
CN105573545A (zh) * 2015-11-27 2016-05-11 努比亚技术有限公司 一种手势校准方法、装置及手势输入处理方法
CN105320408B (zh) * 2015-11-27 2018-09-21 福建捷联电子有限公司 可调式局部触控模组及其触控控制方法
CN106814903B (zh) * 2015-12-01 2020-01-14 小米科技有限责任公司 功能键的触控方法和装置
CN105653027B (zh) * 2015-12-24 2019-08-02 小米科技有限责任公司 页面缩放方法及装置
CN105511683B (zh) * 2015-12-31 2019-03-12 厦门天马微电子有限公司 一种触控显示装置
US11335302B2 (en) * 2016-01-15 2022-05-17 Google Llc Adaptable user interface with dual screen device
CN106997264B (zh) * 2016-01-26 2020-11-24 百度在线网络技术(北京)有限公司 一种变换图片排版的方法及装置
KR102456154B1 (ko) 2016-01-29 2022-10-19 삼성디스플레이 주식회사 센서, 터치 센서 및 표시 장치
CN206848977U (zh) * 2016-02-19 2018-01-05 苹果公司 一种电子设备以及用于电子设备的电容式力传感器
NZ720939A (en) * 2016-03-02 2017-12-22 Resene Paints Ltd Touch sensitive control system for non-electronic display substrate surfaces
US10006820B2 (en) 2016-03-08 2018-06-26 Apple Inc. Magnetic interference avoidance in resistive sensors
CN105808145A (zh) * 2016-03-28 2016-07-27 努比亚技术有限公司 一种实现图像处理的方法及终端
US10209830B2 (en) 2016-03-31 2019-02-19 Apple Inc. Electronic device having direction-dependent strain elements
KR101853961B1 (ko) * 2016-04-19 2018-06-20 (주)휴맥스 포스 입력의 식별 서비스 제공 장치 및 방법
KR101886209B1 (ko) * 2016-04-19 2018-08-08 (주)휴맥스 미디어 서비스 제공 장치 및 방법
JP2019521423A (ja) * 2016-05-27 2019-07-25 ノースウェスタン ユニバーシティ ハプティックタッチスクリーン及びそれを動作させる方法
EP3465390A4 (de) * 2016-05-27 2019-12-25 Tanvas, Inc. Haptischer berührungsbildschirm und verfahren zum betrieb davon
RU170022U1 (ru) * 2016-06-10 2017-04-12 Вячеслав Александрович Матвеев Боковой сенсор тройного назначения
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
KR102521192B1 (ko) 2016-06-28 2023-04-13 삼성전자주식회사 전자 장치 및 그의 동작 방법
KR102544780B1 (ko) 2016-07-04 2023-06-19 삼성전자주식회사 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
KR102574139B1 (ko) 2016-07-07 2023-09-05 삼성전자주식회사 무선 충전 모드를 변경하는 장치 및 방법
KR102499364B1 (ko) 2016-07-08 2023-02-14 삼성디스플레이 주식회사 터치 센서
KR102552294B1 (ko) 2016-07-15 2023-07-10 삼성디스플레이 주식회사 압력 센서 및 이를 포함하는 표시 장치
KR102552283B1 (ko) 2016-07-15 2023-07-10 삼성디스플레이 주식회사 압력 센서 및 이를 포함하는 표시 장치
US9870033B1 (en) 2016-08-30 2018-01-16 Apple Inc. Sensor assemblies for electronic devices
US10133418B2 (en) 2016-09-07 2018-11-20 Apple Inc. Force sensing in an electronic device using a single layer of strain-sensitive structures
DE102016010920A1 (de) 2016-09-08 2018-03-08 Fm Marketing Gmbh Smart touch
CN109863470A (zh) * 2016-10-25 2019-06-07 株式会社半导体能源研究所 显示装置、显示模块、电子设备及触摸屏输入系统
US10379806B2 (en) 2016-11-04 2019-08-13 International Business Machines Corporation Dynamic selection for touch sensor
KR102610415B1 (ko) 2016-11-30 2023-12-08 삼성디스플레이 주식회사 터치 센서, 이를 포함하는 표시 장치 및 터치 센서의 구동 방법
KR102710628B1 (ko) * 2017-02-03 2024-09-27 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN116907693A (zh) 2017-02-09 2023-10-20 触控解决方案股份有限公司 集成数字力传感器和相关制造方法
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
US10444091B2 (en) 2017-04-11 2019-10-15 Apple Inc. Row column architecture for strain sensing
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
CN110651242B (zh) * 2017-05-16 2023-07-11 苹果公司 用于触摸输入处理的设备、方法和图形用户界面
DK179979B1 (en) 2017-05-16 2019-11-27 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR TOUCH INPUT PROCESSING
TWI612456B (zh) 2017-06-13 2018-01-21 友達光電股份有限公司 感測元件與具有感測元件的電子裝置
CN111448446B (zh) 2017-07-19 2022-08-30 触控解决方案股份有限公司 在mems力传感器中的应变传递堆叠
US10309846B2 (en) 2017-07-24 2019-06-04 Apple Inc. Magnetic field cancellation for strain sensors
US11423686B2 (en) 2017-07-25 2022-08-23 Qorvo Us, Inc. Integrated fingerprint and force sensor
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
US10776763B2 (en) 2017-09-12 2020-09-15 Paypal, Inc. System and method for performing gesture-based unified multi-marketplace transactions
US11579028B2 (en) 2017-10-17 2023-02-14 Nextinput, Inc. Temperature coefficient of offset compensation for force sensor and strain gauge
WO2019090057A1 (en) 2017-11-02 2019-05-09 Nextinput, Inc. Sealed force sensor with etch stop layer
WO2019099821A1 (en) 2017-11-16 2019-05-23 Nextinput, Inc. Force attenuator for force sensor
US11209927B2 (en) * 2017-12-11 2021-12-28 Google Llc Apparatus for sensing user input
CN108600419A (zh) * 2018-03-09 2018-09-28 广东欧珀移动通信有限公司 电子装置及其制造方法
US10936163B2 (en) 2018-07-17 2021-03-02 Methodical Mind, Llc. Graphical user interface system
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
US10782818B2 (en) 2018-08-29 2020-09-22 Apple Inc. Load cell array for detection of force input to an electronic device enclosure
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
CN109865283A (zh) * 2019-03-05 2019-06-11 网易(杭州)网络有限公司 游戏中虚拟角色面部调整方法、装置、电子设备及介质
CN109847347B (zh) * 2019-03-13 2022-11-04 网易(杭州)网络有限公司 游戏中虚拟操作的控制方法、装置、介质及电子设备
US11216149B2 (en) * 2019-03-15 2022-01-04 Samsung Electronics Co., Ltd. 360° video viewer control using smart device
CN109976637A (zh) * 2019-03-27 2019-07-05 网易(杭州)网络有限公司 对话框调整方法、对话框调整装置、电子设备及存储介质
CN111845580A (zh) * 2019-04-29 2020-10-30 北京新能源汽车股份有限公司 一种车载手势识别装置、车载中控系统及车辆
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US20200375681A1 (en) * 2019-06-03 2020-12-03 Bausch & Lomb Incorporated Detachable Finger-Activated Surgical Control Device
CN113407053B (zh) * 2019-10-15 2022-04-19 荣耀终端有限公司 一种触摸屏、电子设备、显示控制方法
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
JP2023526928A (ja) 2020-05-18 2023-06-26 アップル インコーポレイテッド 電子デバイスの現在位置を表示及び改善するためのユーザインタフェース
WO2022020778A1 (en) * 2020-07-23 2022-01-27 Control Bionics Limited Multi-modal switching controller for communication and control
US11927989B2 (en) 2020-08-11 2024-03-12 Google Llc Computing device with rotatable keyboard
WO2022049362A1 (en) * 2020-09-02 2022-03-10 Peratech Holdco Ltd Sensing device
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
USD970953S1 (en) 2021-05-03 2022-11-29 Conair Llc Toaster
USD988771S1 (en) 2021-05-03 2023-06-13 Conair Llc Toaster
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
CN115686232A (zh) * 2021-07-30 2023-02-03 致伸科技股份有限公司 应用于周边装置中的功能参数切换存储电路与操作方法
US11985375B2 (en) 2022-01-11 2024-05-14 Enseo, Llc Set-top box with enhanced functionality and system and method for use of same

Family Cites Families (193)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3798370A (en) * 1972-04-17 1974-03-19 Elographics Inc Electrographic sensor for determining planar coordinates
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4246452A (en) * 1979-01-05 1981-01-20 Mattel, Inc. Switch apparatus
US4566001A (en) * 1983-02-08 1986-01-21 Northern Telecom Limited Touch strip input for display terminal
JPS6029833A (ja) * 1983-07-28 1985-02-15 Canon Inc 画像表示装置
US4733222A (en) * 1983-12-27 1988-03-22 Integrated Touch Arrays, Inc. Capacitance-variation-sensitive touch sensing array system
CA1306539C (en) * 1984-10-08 1992-08-18 Takahide Ohtani Signal reproduction apparatus including touched state pattern recognitionspeed control
US5027690A (en) * 1986-02-12 1991-07-02 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical keyboard instruments with variable touch sensitivity
US5179648A (en) * 1986-03-24 1993-01-12 Hauck Lane T Computer auxiliary viewing system
US4896370A (en) * 1987-03-27 1990-01-23 Teletec Corporation Control system for microprocessor and software enhanced communications equipment
JPS63257824A (ja) 1987-04-15 1988-10-25 Fujitsu Ltd タツチパネル
US4806846A (en) * 1987-07-06 1989-02-21 Kerber George L High accuracy direct reading capacitance-to-voltage converter
CH672704B5 (de) * 1988-05-26 1990-06-29 Ebauchesfabrik Eta Ag
US4891508A (en) * 1988-06-30 1990-01-02 Hewlett-Packard Company Precision infrared position detector apparatus for touch screen system
CA2002912A1 (en) * 1988-11-14 1990-05-14 William A. Clough Portable computer with touch screen and computer system employing same
US4898555A (en) * 1989-03-23 1990-02-06 Bell & Howell Publication Systems Company Display screen bezel and assembly method
US5189403A (en) * 1989-09-26 1993-02-23 Home Row, Inc. Integrated keyboard and pointing device system with automatic mode change
US4933660A (en) * 1989-10-27 1990-06-12 Elographics, Inc. Touch sensor with touch pressure capability
GB2245708A (en) * 1990-06-29 1992-01-08 Philips Electronic Associated Touch sensor array systems
US5178477A (en) * 1991-06-06 1993-01-12 Gambaro Thomas L Ergonomic keyboard input device
US5594471A (en) * 1992-01-09 1997-01-14 Casco Development, Inc. Industrial touchscreen workstation with programmable interface and method
US5186646A (en) * 1992-01-16 1993-02-16 Pederson William A Connector device for computers
US5281966A (en) * 1992-01-31 1994-01-25 Walsh A Peter Method of encoding alphabetic characters for a chord keyboard
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5398310A (en) * 1992-04-13 1995-03-14 Apple Computer, Incorporated Pointing gesture based computer note pad paging and scrolling interface
US5544295A (en) * 1992-05-27 1996-08-06 Apple Computer, Inc. Method and apparatus for indicating a change in status of an object and its disposition using animation
US5592566A (en) * 1992-05-27 1997-01-07 Apple Computer, Incorporated Method and apparatus for computerized recognition
US5710844A (en) * 1992-05-27 1998-01-20 Apple Computer Method for searching and displaying results in a pen-based computer system
DE69324067T2 (de) * 1992-06-08 1999-07-15 Synaptics Inc Objekt-Positionsdetektor
US5488204A (en) * 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
KR940001227A (ko) * 1992-06-15 1994-01-11 에프. 제이. 스미트 터치 스크린 디바이스
US5565658A (en) * 1992-07-13 1996-10-15 Cirque Corporation Capacitance-based proximity with interference rejection apparatus and methods
JPH06131437A (ja) * 1992-10-20 1994-05-13 Hitachi Ltd 複合形態による操作指示方法
FR2697935B1 (fr) * 1992-11-12 1995-01-13 Sextant Avionique Terminal de communication compact et ergonomique muni de surfaces de détection de proximité.
US5612719A (en) * 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
JP3300819B2 (ja) * 1993-01-11 2002-07-08 株式会社日立製作所 現金自動取引装置
EP0626635B1 (de) * 1993-05-24 2003-03-05 Sun Microsystems, Inc. Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
US5583946A (en) * 1993-09-30 1996-12-10 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
JPH07182101A (ja) 1993-10-26 1995-07-21 Itu Res Inc グラフィック入力装置および方法、グラフィックオブジェクト操作方法、グラフィック入力信号供給方法
DE69428675T2 (de) * 1993-12-30 2002-05-08 Xerox Corp Apparat und Verfahren zur Unterstützung einer impliziten Strukturation von Freiform-Listen, Übersichten, Texten, Tabellen und Diagrammen in einem auf Handzeichen basierenden Eingabesystem und Editiersystem
CA2140164A1 (en) * 1994-01-27 1995-07-28 Kenneth R. Robertson System and method for computer cursor control
US6211860B1 (en) * 1994-07-06 2001-04-03 Hewlett-Packard Company Pressure sensitive electronic device
JPH08166866A (ja) * 1994-10-14 1996-06-25 Hitachi Ltd 対話型インターフェースを具備した編集支援システム
US5495566A (en) * 1994-11-22 1996-02-27 Microsoft Corporation Scrolling contents of a window
US5611060A (en) * 1995-02-22 1997-03-11 Microsoft Corporation Auto-scrolling during a drag and drop operation
US5611040A (en) * 1995-04-05 1997-03-11 Microsoft Corporation Method and system for activating double click applications with a single click
US6031524A (en) * 1995-06-07 2000-02-29 Intermec Ip Corp. Hand-held portable data terminal having removably interchangeable, washable, user-replaceable components with liquid-impervious seal
US6513717B2 (en) * 2000-12-07 2003-02-04 Digimarc Corporation Integrated cursor control and scanner device
US5856822A (en) * 1995-10-27 1999-01-05 02 Micro, Inc. Touch-pad digital computer pointing-device
JPH09134269A (ja) * 1995-11-10 1997-05-20 Matsushita Electric Ind Co Ltd 表示制御装置
US6100874A (en) * 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
WO1997022107A1 (en) * 1995-12-14 1997-06-19 Motorola Inc. Electronic book and graphical user interface to provide control thereof
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JP3028047U (ja) * 1996-02-16 1996-08-30 株式会社エフ・エー・システム ダイワ タッチパネルのタッチ座標検出装置
JPH09244810A (ja) * 1996-03-07 1997-09-19 Toshiba Corp タッチパネルコントローラおよびプロセス監視制御装置
US5705005A (en) 1996-05-01 1998-01-06 Davidson Textron Inc. Fabrication of multiple color, gauge, and texture interior auto components
US5956034A (en) * 1996-08-13 1999-09-21 Softbook Press, Inc. Method and apparatus for viewing electronic reading materials
JPH10149258A (ja) * 1996-11-15 1998-06-02 Omron Corp 入力操作装置
US6222528B1 (en) * 1997-03-07 2001-04-24 Cirque Corporation Method and apparatus for data input
US5931906A (en) * 1997-04-18 1999-08-03 Creative Communications Group System for creating a multimedia presentation by integrating local program materials with remotely accessible program materials
US6031518A (en) * 1997-05-30 2000-02-29 Microsoft Corporation Ergonomic input device
US6848014B2 (en) * 2001-01-23 2005-01-25 Symbol Technologies, Inc. Adapter unit for a personal digital assistant having automatically configurable application buttons
JPH11119911A (ja) * 1997-10-15 1999-04-30 Fujitsu Ten Ltd スイッチ装置
US6181322B1 (en) * 1997-11-07 2001-01-30 Netscape Communications Corp. Pointing device having selection buttons operable from movement of a palm portion of a person's hands
JPH11203044A (ja) * 1998-01-16 1999-07-30 Sony Corp 情報処理システム
JPH11215217A (ja) 1998-01-23 1999-08-06 Toshiba Corp 携帯情報端末装置
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US7808479B1 (en) * 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6347290B1 (en) * 1998-06-24 2002-02-12 Compaq Information Technologies Group, L.P. Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device
US6188391B1 (en) * 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6188393B1 (en) * 1998-10-05 2001-02-13 Sysgration Ltd. Scroll bar input device for mouse
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US6188389B1 (en) * 1998-12-10 2001-02-13 Chic Technology Corp. Third axis input device for a computer mouse
JP2000293289A (ja) * 1999-04-09 2000-10-20 Hitachi Ltd 携帯型端末装置
US6337919B1 (en) * 1999-04-28 2002-01-08 Intel Corporation Fingerprint detecting mouse
US6792165B1 (en) 1999-05-25 2004-09-14 Silverbrook Research Pty Ltd Sensing device
JP2001086233A (ja) * 1999-07-13 2001-03-30 Denso Corp 照明機能付携帯機器
US6677934B1 (en) * 1999-07-30 2004-01-13 L-3 Communications Infrared touch panel with improved sunlight rejection
US20020173721A1 (en) * 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
US6677927B1 (en) * 1999-08-23 2004-01-13 Microsoft Corporation X-Y navigation input device
US6492979B1 (en) * 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
US6504530B1 (en) * 1999-09-07 2003-01-07 Elo Touchsystems, Inc. Touch confirming touchscreen utilizing plural touch sensors
KR100367586B1 (ko) * 1999-10-08 2003-01-10 엘지전자 주식회사 평판 모니터
US6844871B1 (en) * 1999-11-05 2005-01-18 Microsoft Corporation Method and apparatus for computer input using six degrees of freedom
KR20010047975A (ko) * 1999-11-24 2001-06-15 유경운 다기능을 구비한 멀티미디어 통신 단말기 및 그 시스템
US6498601B1 (en) * 1999-11-29 2002-12-24 Xerox Corporation Method and apparatus for selecting input modes on a palmtop computer
US6179496B1 (en) * 1999-12-28 2001-01-30 Shin Jiuh Corp. Computer keyboard with turnable knob
US6844872B1 (en) * 2000-01-12 2005-01-18 Apple Computer, Inc. Computer mouse having side areas to maintain a depressed button position
US6505088B1 (en) * 2000-03-07 2003-01-07 Mental Models, Inc. Electronic controller
US7216113B1 (en) * 2000-03-24 2007-05-08 Symyx Technologies, Inc. Remote Execution of Materials Library Designs
JP2001275095A (ja) 2000-03-27 2001-10-05 Sony Corp 通信方法、通信サービス装置、通信端末装置および通信システム
WO2001076120A2 (en) * 2000-04-04 2001-10-11 Stick Networks, Inc. Personal communication device for scheduling presentation of digital content
US6340800B1 (en) * 2000-05-27 2002-01-22 International Business Machines Corporation Multiplexing control device and method for electronic systems
JP4039001B2 (ja) * 2000-05-30 2008-01-30 ソニー株式会社 電子機器
JP2001345913A (ja) * 2000-06-05 2001-12-14 Hitachi Kokusai Electric Inc 電話装置
JP2001356878A (ja) 2000-06-14 2001-12-26 Hitachi Ltd アイコン制御方法
JP4803868B2 (ja) * 2000-08-10 2011-10-26 キヤノン株式会社 情報処理装置及び機能一覧表表示方法
KR20020016080A (ko) * 2000-08-24 2002-03-04 정장호 터치 패드를 구비한 폴더형 단말기
US6995744B1 (en) * 2000-09-28 2006-02-07 Immersion Corporation Device and assembly for providing linear tactile sensations
EP2261781B1 (de) * 2000-10-27 2012-10-17 Elo Touch Solutions, Inc. Berührungsempfindlicher Bildschirm mit projektiven kapazitiven Sensoren und Kraftsensoren
JP2002140166A (ja) * 2000-11-02 2002-05-17 Kddi Corp タッチパネルディスプレイに触れた指に触感を与えるデバイス
US6853850B2 (en) * 2000-12-04 2005-02-08 Mobigence, Inc. Automatic speaker volume and microphone gain control in a portable handheld radiotelephone with proximity sensors
JP2002185630A (ja) * 2000-12-12 2002-06-28 Aiwa Co Ltd 通信端末装置
US7170488B2 (en) * 2000-12-22 2007-01-30 Logitech Europe S.A. Pointing device with solid-state roller
JP2002215304A (ja) * 2001-01-17 2002-08-02 Sharp Corp タッチパネルコンピュータ
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
JP2002229719A (ja) * 2001-02-05 2002-08-16 Matsushita Electric Ind Co Ltd タッチパネル型携帯電話機およびその機能変更操作方法
US6686904B1 (en) * 2001-03-30 2004-02-03 Microsoft Corporation Wheel reporting method for a personal computer keyboard interface
US7164412B2 (en) * 2001-03-30 2007-01-16 Ado Max Technology Co., Ltd. Key free mouse
US7385591B2 (en) * 2001-03-31 2008-06-10 Microsoft Corporation Out-of-vocabulary word determination and user interface for text input via reduced keypad keys
US7183948B2 (en) 2001-04-13 2007-02-27 3M Innovative Properties Company Tangential force control in a touch location device
JP2002342034A (ja) * 2001-05-16 2002-11-29 Fujikura Ltd タッチパネル
US6992659B2 (en) * 2001-05-22 2006-01-31 Palmone, Inc. High transparency integrated enclosure touch screen assembly for a portable hand held device
US6498590B1 (en) * 2001-05-24 2002-12-24 Mitsubishi Electric Research Laboratories, Inc. Multi-user touch surface
US6670951B2 (en) * 2001-07-03 2003-12-30 Hewlett-Packard Development Company, L.P. Methods and systems for increasing the input efficiency of personal digital assistants and other handheld stylus-engagable computing devices
CN1241109C (zh) * 2001-07-17 2006-02-08 仁宝电脑工业股份有限公司 根据压力来控制放大倍率的触碰式显示方法
US20030025738A1 (en) * 2001-07-31 2003-02-06 Eastman Kodak Company User interface including portable display for use with multiple electronic devices
JP4587616B2 (ja) * 2001-08-21 2010-11-24 シャープ株式会社 携帯端末
US6847352B2 (en) * 2001-09-06 2005-01-25 Juan J Lantigua Stress relieving mouse
JP2003122506A (ja) * 2001-10-10 2003-04-25 Canon Inc 座標入力及び操作方法指示装置
US6995752B2 (en) * 2001-11-08 2006-02-07 Koninklijke Philips Electronics N.V. Multi-point touch pad
US7009599B2 (en) * 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
JP2003157144A (ja) * 2001-11-20 2003-05-30 Sony Corp 文字入力装置、文字入力方法、文字入力プログラム格納媒体及び文字入力プログラム
JP2003162731A (ja) * 2001-11-26 2003-06-06 Victor Co Of Japan Ltd 情報処理装置
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
JP2005301322A (ja) * 2002-02-07 2005-10-27 Kathenas Inc 入力装置、携帯電話機及び携帯情報機器
JP2003241872A (ja) * 2002-02-20 2003-08-29 Ricoh Co Ltd 描画処理方法、その方法によったプログラムおよびそのプログラムを記憶した記憶媒体
US6985801B1 (en) * 2002-02-28 2006-01-10 Garmin International, Inc. Cockpit instrument panel systems and methods with redundant flight data display
US6832138B1 (en) * 2002-02-28 2004-12-14 Garmin International, Inc. Cockpit instrument panel systems and methods with redundant flight data display
JP3847641B2 (ja) * 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
GB2386707B (en) * 2002-03-16 2005-11-23 Hewlett Packard Co Display and touch screen
JP2003275484A (ja) * 2002-03-25 2003-09-30 Brother Ind Ltd ミシンの画面設定装置
US20050229103A1 (en) * 2002-03-25 2005-10-13 King David M Gui and support hardware for maintaining long-term personal access to the world
JP2003323259A (ja) * 2002-05-02 2003-11-14 Nec Corp 情報処理装置
US7746325B2 (en) * 2002-05-06 2010-06-29 3M Innovative Properties Company Method for improving positioned accuracy for a determined touch input
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
WO2003098421A1 (en) * 2002-05-16 2003-11-27 Sony Corporation Inputting method and inputting apparatus
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
JP2003344086A (ja) * 2002-05-28 2003-12-03 Pioneer Electronic Corp タッチパネル装置及び自動車用表示入力装置
US7168047B1 (en) * 2002-05-28 2007-01-23 Apple Computer, Inc. Mouse having a button-less panning and scrolling switch
US7542052B2 (en) * 2002-05-31 2009-06-02 Hewlett-Packard Development Company, L.P. System and method of switching viewing orientations of a display
US20050035955A1 (en) * 2002-06-06 2005-02-17 Carter Dale J. Method of determining orientation and manner of holding a mobile telephone
JP2004012919A (ja) * 2002-06-07 2004-01-15 Clarion Co Ltd 情報表示装置
JP2004070920A (ja) * 2002-06-11 2004-03-04 Sony Computer Entertainment Inc 情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報処理方法、及び情報処理装置
JP2004021933A (ja) * 2002-06-20 2004-01-22 Casio Comput Co Ltd 入力装置及び入力方法
US20040003947A1 (en) * 2002-07-02 2004-01-08 Kesselman Joshua D. Handheld electronic scale with touch screen
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP4207496B2 (ja) * 2002-08-22 2009-01-14 ソニー株式会社 携帯情報処理装置、情報処理方法、およびプログラム
US20040046739A1 (en) * 2002-09-11 2004-03-11 Palm, Inc. Pliable device navigation method and apparatus
JP2004110388A (ja) * 2002-09-18 2004-04-08 Sharp Corp タッチパネルを有する装置
JP2004177993A (ja) * 2002-11-22 2004-06-24 Panasonic Mobile Communications Co Ltd 圧力センサ付き携帯端末及び圧力センサ付き携帯端末により実行可能なプログラム
JP4022468B2 (ja) * 2002-12-26 2007-12-19 株式会社ワコム 入力装置、および、入力システム
JP2004226715A (ja) * 2003-01-23 2004-08-12 Nec Corp 自動天地表示制御システムと方法およびプログラム
US7170496B2 (en) * 2003-01-24 2007-01-30 Bruce Peter Middleton Zero-front-footprint compact input system
JP2004302734A (ja) * 2003-03-31 2004-10-28 Mitsubishi Electric Corp 情報端末並びにその動作切替えをコンピュータに実行させるプログラム
JP4341298B2 (ja) * 2003-05-23 2009-10-07 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4161814B2 (ja) * 2003-06-16 2008-10-08 ソニー株式会社 入力方法および入力装置
US20040263484A1 (en) * 2003-06-25 2004-12-30 Tapio Mantysalo Multifunctional UI input device for moblie terminals
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
JP2005056232A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 電子機器の取扱説明の表示方法
US7109972B2 (en) * 2003-08-08 2006-09-19 Liang Fu Adjustable pointing and control device with automatic handedness switch
US9024884B2 (en) * 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US20050048955A1 (en) * 2003-09-03 2005-03-03 Steffen Ring Method and apparatus for initiating a call from a communication device
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US20050183035A1 (en) * 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US7495659B2 (en) * 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
US6856259B1 (en) * 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
JP2005346244A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報表示装置及びその操作方法
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP2008511045A (ja) * 2004-08-16 2008-04-10 フィンガーワークス・インコーポレーテッド タッチセンス装置の空間分解能を向上させる方法
US20060073272A1 (en) * 2004-09-28 2006-04-06 Clearpath Technologies Corp. Control panel and method of manufacturing
EP1805585B1 (de) * 2004-10-08 2017-08-16 Immersion Corporation Haptische rückkopplung für eine schaltfläche und rollaktions-simulation bei berührungseingabegeräten
US7683889B2 (en) * 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US7652589B2 (en) * 2005-02-04 2010-01-26 Hewlett-Packard Development Company, L.P. Selecting a function of components based on orientation
US7441202B2 (en) * 2005-02-14 2008-10-21 Mitsubishi Electric Research Laboratories, Inc. Spatial multiplexing to mediate direct-touch input on large displays
JP4622590B2 (ja) 2005-03-08 2011-02-02 ソニー株式会社 入力装置、タッチパネル及び電子機器
JP5324440B2 (ja) * 2006-07-12 2013-10-23 エヌ−トリグ リミテッド デジタイザのためのホバリングおよびタッチ検出
US8686964B2 (en) * 2006-07-13 2014-04-01 N-Trig Ltd. User specific recognition of intended user interaction with a digitizer
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
JP5635274B2 (ja) * 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
WO2017001998A1 (en) 2015-06-30 2017-01-05 De Rezende Neto João Baptista Cardiac injury device
US10188182B2 (en) 2016-05-05 2019-01-29 M&Y Trading Corp. Clasp for beaded jewelry
US10643256B2 (en) 2016-09-16 2020-05-05 International Business Machines Corporation Configuring a self-driving vehicle for charitable donations pickup and delivery
EP3602943A1 (de) 2017-03-24 2020-02-05 Intel IP Corporation Techniken zur ermöglichung einer physikalischen abwärtsstreckensteuerkanalkommunikation
JP6521127B2 (ja) 2017-04-21 2019-05-29 株式会社タンガロイ 被覆切削工具
TWI640378B (zh) 2017-11-15 2018-11-11 鴻安國際興業有限公司 倒牙旋轉刀
CN110932673A (zh) 2018-09-19 2020-03-27 恩智浦美国有限公司 一种包含并联陷波滤波器的斩波稳定放大器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042527A1 (de) * 2010-10-15 2012-04-19 Siemens Aktiengesellschaft Gerät mit einer Anzeige- und Bedieneinheit
DE102011052636A1 (de) * 2011-08-12 2013-02-14 Medion Ag Eingabeeinrichtung zur Fernsteuerung von elektronischen Geräten

Also Published As

Publication number Publication date
US20160070399A1 (en) 2016-03-10
AU2022201036B2 (en) 2024-02-22
KR102058832B1 (ko) 2019-12-23
JP2017162482A (ja) 2017-09-14
DE202006020369U1 (de) 2008-05-21
KR20130108470A (ko) 2013-10-02
KR20200035472A (ko) 2020-04-03
KR102402377B1 (ko) 2022-05-25
AU2007100828A5 (en) 2007-09-20
JP2018063720A (ja) 2018-04-19
CA2600326A1 (en) 2006-09-08
KR101604565B1 (ko) 2016-03-17
WO2006094308A2 (en) 2006-09-08
KR102358378B1 (ko) 2022-02-08
KR102305019B1 (ko) 2021-09-27
KR101257964B1 (ko) 2013-04-30
HK1249950A1 (zh) 2018-11-16
KR101492761B1 (ko) 2015-02-12
KR20210048583A (ko) 2021-05-03
JP2022009398A (ja) 2022-01-14
AU2022201036A1 (en) 2022-03-10
AU2006218381B8 (en) 2012-02-16
KR20160104094A (ko) 2016-09-02
US20080088602A1 (en) 2008-04-17
KR20190061099A (ko) 2019-06-04
HK1122461A2 (en) 2009-05-15
EP4177708A1 (de) 2023-05-10
KR20070110114A (ko) 2007-11-15
JP2012142033A (ja) 2012-07-26
AU2006218381B2 (en) 2012-01-12
HK1219318A1 (zh) 2017-03-31
KR20180014842A (ko) 2018-02-09
KR101984833B1 (ko) 2019-06-03
EP1877889A2 (de) 2008-01-16
AU2006218381A1 (en) 2006-09-08
KR20160150116A (ko) 2016-12-28
JP5550211B2 (ja) 2014-07-16
KR101354316B1 (ko) 2014-01-22
JP2020038706A (ja) 2020-03-12
KR101690164B1 (ko) 2016-12-27
HK1199767A1 (zh) 2015-07-17
CN101432677A (zh) 2009-05-13
JP5922481B2 (ja) 2016-05-24
JP2015133722A (ja) 2015-07-23
US20180217709A1 (en) 2018-08-02
KR20150069036A (ko) 2015-06-22
JP6444758B2 (ja) 2018-12-26
KR102246065B1 (ko) 2021-04-29
KR20130019018A (ko) 2013-02-25
HK1223696A1 (zh) 2017-08-04
US20150153895A1 (en) 2015-06-04
JP2008537615A (ja) 2008-09-18
KR20220020995A (ko) 2022-02-21
KR101651975B1 (ko) 2016-08-29
CN103336562A (zh) 2013-10-02
AU2007101054A4 (en) 2007-12-13
AU2007100828B4 (en) 2010-04-22
KR20190109583A (ko) 2019-09-25
KR20150011015A (ko) 2015-01-29
HK1122460A2 (en) 2009-05-15
WO2006094308A3 (en) 2006-12-14
KR20210118964A (ko) 2021-10-01
AU2007101054B4 (en) 2010-04-22
KR102095691B1 (ko) 2020-03-31
JP2014042334A (ja) 2014-03-06
CN101432677B (zh) 2012-10-10
KR20190141268A (ko) 2019-12-23
HK1257711A1 (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
DE212006000028U1 (de) Multifunktionale Handgehaltene Vorrichtung
US20220187870A1 (en) Multi-functional hand-held device
EP3301540B1 (de) Multifunktionelle tragbare vorrichtung
AU2012202122B2 (en) Multi-functional hand-held device
AU2019261790A1 (en) Multi-functional hand-held device

Legal Events

Date Code Title Description
R409 Internal rectification of the legal status completed
R163 Identified publications notified
R207 Utility model specification

Effective date: 20080124

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20090323

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20120426

R152 Utility model maintained after payment of third maintenance fee after eight years
R152 Utility model maintained after payment of third maintenance fee after eight years

Effective date: 20140427

R071 Expiry of right