DE202015009346U1 - Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten - Google Patents

Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten Download PDF

Info

Publication number
DE202015009346U1
DE202015009346U1 DE202015009346.9U DE202015009346U DE202015009346U1 DE 202015009346 U1 DE202015009346 U1 DE 202015009346U1 DE 202015009346 U DE202015009346 U DE 202015009346U DE 202015009346 U1 DE202015009346 U1 DE 202015009346U1
Authority
DE
Germany
Prior art keywords
message
media
audio
display
offer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202015009346.9U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202015009346U1 publication Critical patent/DE202015009346U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/08Annexed information, e.g. attachments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/234Monitoring or handling of messages for tracking messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/42Mailbox-related aspects, e.g. synchronisation of mailboxes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

Elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige umfassend Mittel zum: Empfangen einer ersten Nachricht; Anzeigen einer Darstellung der ersten Nachricht auf der Anzeige, wobei geplant ist, dass die erste Nachricht gelöscht wird, wenn Ablaufkriterien erfüllt sind; Anzeigen eines Angebots zum Beibehalten der ersten Nachricht; in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Beibehalten der ersten Nachricht; und in Übereinstimmung mit einer Bestimmung, dass die Ablaufkriterien erfüllt waren, ohne dass eine Auswahl des Angebots erfasst wurde, Beenden der Anzeige der Darstellung der ersten Nachricht auf der Anzeige.

Description

  • QUERVERWEIS AUF VERWANDTE OFFENLEGUNGEN
  • Diese Anmeldung beansprucht Priorität gegenüber der U.S.-amerikanischen Patentanmeldung mit der Anmeldungsnr. 62/006,071, „MESSAGE USER INTERFACES FOR CAPTURE AND TRANSMITTAL OF MEDIA AND LOCATION CONTENT”, die am 31. Mai 2014 eingereicht wurde, der U.S.-amerikanischen Patentanmeldung mit der Anmeldungsnr. 62/047,622, „MESSAGE USER INTERFACES FOR CAPTURE AND TRANSMITTAL OF MEDIA AND LOCATION CONTENT”, die am 8. September 2014 eingereicht wurde; der internationalen Anmeldung PCT/US15/32309 „MESSAGE USER INTERFACES FOR CAPTURE AND TRANSMITTAL OF MEDIA AND LOCATION CONTENT”, die am 22. Mai 2015 eingereicht wurde, und der internationalen Anmeldung PCT/US15/32305 „MESSAGE USER INTERFACES FOR CAPTURE AND TRANSMITTAL OF MEDIA AND LOCATION CONTENT”, die am 22. Mai 2015 eingereicht wurde. Der Inhalt dieser Anmeldungen ist hier durch Bezugnahme für alle Zwecke enthalten.
  • Diese Anmeldung bezieht sich auf: die U.S.-amerikanische Patentanmeldung Patentanmeldung mit der Anmeldungsnr. 13/153,374, „MOTION PATTERN CLASSIFICATION AND GESTURE RECOGNITION”, die am 3. Juni 2011 eingereicht wurde; und die U.S.-amerikanische Patentanmeldung mit der Anmeldungsnr. 13/153,335, „MOTION-BASED DEVICE OPERATIONS”, die am 3. Juni 2011 eingereicht wurde. Der Inhalt dieser Anmeldungen ist hier durch Bezugnahme für alle Zwecke enthalten.
  • GEBIET DER ERFINDUNG
  • Die offengelegten Beispiele beziehen sich im Allgemeinen auf Benutzerschnittstellen von elektronischen Geräten.
  • Hintergrund
  • Nachrichten können eine Vielzahl von Medien, wie Audio, Video oder Bilder enthalten. Einige Systeme können es erforderlich machen, dass die Benutzer Medienanwendungen außerhalb der Messaging-Anwendung (bzw. Nachrichtenübertragungsanwendung, Messaging Application) starten, um Medien zu erfassen, zu übertragen und anzuzeigen.
  • Weiterhin kann die Einbindung von Medien in eine Nachricht es erforderlich machen, dass der Benutzer mehrere Schritte durchführt, um den Inhalt zu erfassen, den erfassten Inhalt in eine Nachricht aufzunehmen und die Nachricht an einen Empfänger zu senden. Der Empfänger kann dann mehrere Schritte durchführen müssen oder explizit eine eigene Medienanwendung starten müssen, um den Inhalt wiederzugeben oder anzuzeigen.
  • Kurzzusammenfassung
  • Zusätzlich zum Teilen von Medien können Benutzer sich ebenso wünschen, ihre Standortinformationen einfach mit einem oder mehreren anderen Benutzern in einer Nachrichtenanwendung zu teilen oder eine Audiooperation zur Kommunikation zu initiieren. Eine Nachrichtenbenutzerschnittstelle, die die schnelle Erfassung und das Senden von Medien- und Standortinformationen an einen oder mehreren Empfänger in einer Nachricht unterstützt oder eine Audiooperation initiiert, ist wünschenswert.
  • Einige Techniken zum Teilen von Medien- und Standortinformationen mithilfe von elektronischen Geräten sind jedoch im Allgemeinen aufwendig und ineffizient. Zum Beispiel verwenden bestehende Techniken in dem Umfang, dass das Teilen von Medien- und/oder Standortinformation unterstützt wird, eine komplexe und zeitaufwendige Benutzerschnittstelle, die mehrere Tastendruckvorgänge oder Tasteneingaben umfassen kann. Bestehende Techniken erfordern mehr Zeit als notwendig, verschwenden Benutzerzeit und Geräteleistung. Der letztere Aspekt ist vor allem bei akkubetriebenen Geräten wichtig.
  • In einigen Ausführungsformen ist ein ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige eingerichtet zum: Anzeigen auf der Anzeige eines Medienangebots und eines Nachrichtenbereichs zum Anzeigen von Nachrichten, die zwischen Teilnehmern in einem Nachrichtenaustausch gesendet werden; Erfassen einer Geste auf der berührungsempfindlichen Oberfläche, was das Erfassen eines Kontakts an einer Position auf der berührungsempfindlichen Oberfläche beinhaltet, die einer Position des Medienangebots (Media Affordance) auf der Anzeige entspricht; in Reaktion auf das Erfassen des Kontakts: Anzeigen eines Sendeangebots auf der Anzeige; Erfassen einer Fortsetzung der Geste, was das Erfassen einer Bewegung des Kontakts über die berührungsempfindliche Oberfläche gefolgt von einem Abheben des Kontakts von der berührungsempfindlichen Oberfläche beinhaltet; Bestimmen, ob der Kontakt an eine Position auf der berührungsempfindlichen Oberfläche bewegt wurde, die einer Position des Sendeangebots auf der Anzeige entspricht; und gemäß der Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Oberfläche bewegt wurde, die der Position des Sendeangebots entspricht, und in Reaktion auf das Erfassen des Abhebens, Senden von Medien, die in Reaktion auf wenigstens einen Teil der Geste erfasst wurden, an einen Teilnehmer im Nachrichtenaustausch.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige, welches eingerichtet ist zum Erfassen und Senden von Videos aus einer Nachrichtenanwendung, eingerichtet zum: Anzeigen auf der Anzeige eines Medienangebots und eines Nachrichtenbereichs zum Anzeigen von Nachrichten, die zwischen Teilnehmern in einem Nachrichtenaustausch gesendet werden; Erfassen einer ersten Eingabe auf der berührungsempfindlichen Oberfläche, wobei die erste Eingabe einer Position des Medienangebots auf der Anzeige entspricht; in Reaktion auf das Erfassen der ersten Eingabe, Anzeigen eines Aufzeichnungsangebots und eines Sendeangebots; Erfassen einer zweiten Eingabe auf der berührungsempfindlichen Oberfläche, wobei die zweite Eingabe einer Position des Aufzeichnungsangebots auf der Anzeige entspricht; in Reaktion auf das Erfassen der zweiten Eingabe, Beginnen der Aufzeichnung eines Videos; Erfassen einer dritten Eingabe auf der berührungsempfindlichen Oberfläche, wobei die dritte Eingabe einer Position des Sendeangebots auf der Anzeige entspricht; und in Reaktion auf das Erfassen der dritten Eingabe: Senden des aufgezeichneten Videos an einen Teilnehmer und Entfernen des Sendeangebots und des Aufzeichnungsangebots von der Anzeige.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige, welches eingerichtet ist zum Erfassen, Senden und Wiedergeben von Audionachrichten aus einer Nachrichtenanwendung eingerichtet zum: Anzeigen einer Darstellung einer ersten Audionachricht, die von einem ersten Teilnehmer in einem Nachrichtenaustausch empfangen wurde; Erfassen einer Anforderung zum Wiedergeben der ersten Audionachricht; in Reaktion auf die Erfassung der Anforderung zur Wiedergabe der Audionachricht, Wiedergeben der ersten Audionachricht; nach dem Wiedergeben der ersten Audionachricht, Erfassen eines Anhebens des Geräts; in Reaktion auf das Erfassen des Anhebens des Geräts, Aufzeichnen einer zweiten Audionachricht; und nach Aufzeichnen der zweiten Audionachricht, Senden der zweiten Audionachricht an den ersten Teilnehmer.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige, welches eingerichtet ist zum Gruppieren von Nachrichten zur Anzeige in einem Nachrichtenaustausch eingerichtet zum: Empfangen einer Mehrzahl von Nachrichten von einem ersten Teilnehmer in einem Zeitintervall; Bestimmen, ob die Mehrzahl von Nachrichten den Nachrichtengruppierungskriterien entspricht; gemäß einer Bestimmung, dass die Mehrzahl der Nachrichten die Nachrichtengruppierungskriterien nicht erfüllt, Anzeige einer Mehrzahl separater umrahmter Nachrichtenfelder, die die Mehrzahl von Nachrichten darstellen; und gemäß einer Bestimmung, dass die Mehrzahl der Nachrichten die Nachrichtengruppierungskriterien erfüllt, Anzeigen eines einzelnen umrahmten Nachrichtengruppenfelds, das die Mehrzahl von Nachrichten darstellt.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige, welches eingerichtet ist zum Löschen abgelaufener Nachrichten aus einem Nachrichtenaustausch eingerichtet zum: Empfangen einer ersten Nachricht; Anzeigen einer Darstellung der ersten Nachricht auf der Anzeige, wobei das Löschen der ersten Nachricht bei Erfüllung des Ablaufkriteriums geplant ist, Anzeigen eines Angebots zum Beibehalten der ersten Nachricht; gemäß einer Bestimmung, dass das Angebot vor Erfüllung des Ablaufkriteriums ausgewählt wurde, Beibehalten der ersten Nachricht; und gemäß einer Bestimmung, dass das Ablaufkriterium erfüllt wurde, ohne dass eine Auswahl des Angebots erfasst wurde, Beenden der Anzeige der Darstellung der ersten Nachricht auf der Anzeige.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige, welches eingerichtet ist zum Teilen von Standortinformationen eingerichtet zum: Anzeigen auf der Anzeige eines Nachrichtenbereichs zum Anzeigen von zwischen einem ersten Teilnehmer und einem zweiten Teilnehmer in einem Nachrichtenaustausch gesendeten Nachrichten; Anzeigen eines Angebots zum Teilen des Standorts, um den Standort des ersten Teilnehmers mit dem zweiten Teilnehmer zu teilen, wenn sich der Standort über wenigstens eine bestimmte Zeitspanne ändert; Erfassen einer Auswahl des Angebots zum Teilen des Standorts; und in Reaktion auf das Erfassen der Auswahl des Angebots zum Teilen des Standorts: Bereitstellen von Informationen für den zweiten Teilnehmer, die es dem zweiten Teilnehmer ermöglichen, einen aktuellen Standort des ersten Teilnehmers während wenigstens einer bestimmten Zeitspanne zu bestimmen.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einem Kamerasensor, mit einer berührungsempfindlichen Oberfläche und einer Anzeige welches eingerichtet ist zum Hinzufügen von Medien zu einem Nachrichtenaustausch eingerichtet zum: Anzeigen auf der Anzeige eines Nachrichtenbereichs zum Anzeigen eines Nachrichtenaustauschs: Empfangen einer Anforderung zum Hinzufügen von Medien zu dem Nachrichtenaustausch; in Reaktion auf das Empfangen der Anforderung Anzeigen einer Medienauswahl-Benutzerschnittstelle gleichzeitig mit wenigstens einem Teil des Nachrichtenaustauschs, wobei die Medienauswahl-Benutzerschnittstelle eine Mehrzahl von Angeboten zum Auswählen von Medien zum Hinzufügen zum Nachrichtenaustausch umfasst, wobei wenigstens eine Teilmenge der Mehrzahl von Angeboten Miniaturbilder-(Thumbnail-)Darstellungen von Medien umfasst, die zum Hinzufügen in den Nachrichtenaustausch verfügbar sind; Erfassen einer Auswahl eines entsprechenden Angebots aus der Mehrzahl von Angeboten; und in Reaktion auf das Erfassen der Auswahl des entsprechenden Angebots Auswählen entsprechender Medien zum Hinzufügen zum Nachrichtenaustausch.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einem Mikrofon, welches eingerichtet ist zum Initiieren einer Audiooperation: eingerichtet zum: Erfassen einer Änderung des Gerätekontexts basierend auf einer Bewegung des elektronischen Geräts und eines oder mehrerer Näherungssensor-Lesewerte; in Reaktion auf das Erfassen der Änderung des Gerätekontexts: Bestimmen, ob das Gerät die Audiooperationskriterien erfüllt, wobei die Audiooperationskriterien ein Kriterium umfassen, das erfüllt wird, wenn die Bewegung des elektronischen Geräts ein Bewegungskriterium erfüllt und die einen oder mehreren Näherungssensor-Lesewerte ein Näherungskriterium erfüllen; und gemäß einer Bestimmung, dass eine Änderung des Gerätekontexts das Audiooperationskriterium erfüllt, Initiieren einer Audiooperation; und gemäß einer Bestimmung, dass die Änderung des Gerätekontexts das Audiooperationskriterium nicht erfüllt, Verzicht auf die Initiierung der Audiooperation.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit wenigstens einem Mikrofon, welches eingerichtet ist zum Senden einer Audionachricht eingerichtet zum Erfassen von einer oder mehreren Bedingungen, die als Anforderung zur Aufzeichnung einer Audionachricht für einen angegebenen Kontakt interpretiert werden; in Reaktion auf das Erfassen einer oder mehrerer Bedingungen, Generieren einer Audioaufzeichnung mit dem wenigstens einen Mikrofon; Bestimmen, ob die Audioaufzeichnung die Ablehnungskriterien erfüllt; gemäß einer Bestimmung, dass das Ablehnungskriterium nicht erfüllt ist, Senden der Audioaufzeichnung an den angegebenen Kontakt; und gemäß einer Bestimmung, dass das Ablehnungskriterium erfüllt ist, Verzicht auf das Senden der Audioaufzeichnung an den angegebenen Kontakt.
  • In einigen Ausführungsformen ist ein elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige, welches eingerichtet ist zum Erfassen und Senden von Medien eingerichtet zum: Anzeigen auf der Anzeige eines Medienangebots, eines Nachrichtenerstellungsfelds und eines Nachrichtenaustauschs zwischen Teilnehmern, wobei der Nachrichtenaustausch in einem Nachrichtenbereich angezeigt wird; Erfassen eines Kontakts an einer Position auf der berührungsempfindlichen Oberfläche, die einer Position des Medienangebots auf der Anzeige entspricht; in Reaktion auf das Erfassen des Kontakts, Anzeigen einer Live-Medienvorschau in dem Nachrichtenerstellungsfeld; Erfassen eines Abhebens des Kontakts von der berührungsempfindlichen Oberfläche; in Reaktion auf das Erfassen des Abhebens, Erfassen eines neuen Bilds basierend auf der Live-Medienvorschau; und Senden des erfassten Bilds an einen Teilnehmer im Nachrichtenaustausch.
  • Beschreibung der Figuren
  • 1A ist ein Blockdiagramm, das ein tragbares multifunktionales Gerät mit einer berührungsempfindlichen Anzeige gemäß einigen Ausführungsformen darstellt.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung gemäß einigen Ausführungsformen darstellt.
  • 2 veranschaulicht ein tragbares multifunktionales Gerät mit einem Touchscreen gemäß einigen Ausführungsformen.
  • 3 ist ein Blockdiagramm eines beispielhaften multifunktionalen Geräts mit einer Anzeige und einer berührungsempfindlichen Oberfläche gemäß einigen Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einem tragbaren multifunktionalen Gerät gemäß einigen Ausführungsformen.
  • 4B veranschaulicht gemäß einigen Ausführungsformen eine beispielhafte Benutzerschnittstelle für ein multifunktionales Gerät mit einer berührungsempfindlichen Oberfläche, die von der Anzeige getrennt ist.
  • 5A veranschaulicht ein persönliches elektronisches Gerät gemäß einigen Ausführungsformen.
  • 5B ist ein Blockdiagramm, das ein persönliches elektronisches Gerät gemäß einigen Ausführungsformen darstellt.
  • 6A bis 6B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 6C bis 6D veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 7A bis 7B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 7C bis 7D veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 8 veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 9A bis 9B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 10A bis 10B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 11A bis 11B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 11C bis 11E veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 11F bis 11G veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 12A bis 12B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 13A bis 13C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 14 veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 15A bis 15B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 16A bis 16B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 17A bis 17C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 18A bis 18C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 19A bis 19B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 19C bis 19D veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 20 veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 21A bis 21B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 22A bis 22C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 22D veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 23A bis 23C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 24A bis 24C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 25A bis 25B veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 25C bis 25E veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 26 veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 27A bis 27C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 28A bis 28C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 29A bis 29C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 30 veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 31 veranschaulicht eine beispielhafte Nachrichtenbenutzerschnittstelle gemäß einigen Ausführungsformen.
  • 32A bis 32C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen gemäß einigen Ausführungsformen.
  • 33 ist ein Ablaufdiagramm, das einen Prozess zum Erfassen und Senden von Medien gemäß einigen Ausführungsformen veranschaulicht.
  • 34 ist ein Ablaufdiagramm, das einen Prozess zum Erfassen und Senden von Medien gemäß einigen Ausführungsformen veranschaulicht.
  • 35 ist ein Ablaufdiagramm, das einen Prozess zum Erfassen und Senden von Medien gemäß einigen Ausführungsformen veranschaulicht.
  • 36 ist ein Ablaufdiagramm, das einen Prozess zum Gruppieren von Nachrichten gemäß einigen Ausführungsformen veranschaulicht.
  • 37 ist ein Ablaufdiagramm, das einen Prozess zum Verwalten von Nachrichten basierend auf Ablaufkriterien gemäß einigen Ausführungsformen veranschaulicht.
  • 38 ist ein Ablaufdiagramm, das einen Prozess zum Teilen von Standortinformationen gemäß einigen Ausführungsformen veranschaulicht.
  • 39 ist ein Ablaufdiagramm, das einen Prozess zum Hinzufügen von Medien zu einem Nachrichtenaustausch gemäß einigen Ausführungsformen veranschaulicht.
  • 40 ist ein Ablaufdiagramm, das einen Prozess zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulicht.
  • 41A bis 41B sind Ablaufdiagramme, die Prozesse zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulichen.
  • 42A bis 42B sind Ablaufdiagramme, die Prozesse zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulichen.
  • 43A bis 43C sind Ablaufdiagramme, die Prozesse zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulichen.
  • 44A bis 44B sind Ablaufdiagramme, die Prozesse zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulichen.
  • 44C ist ein Ablaufdiagramm, das einen Prozess zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulicht.
  • 45A bis 45B sind Ablaufdiagramme, die Prozesse zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulichen.
  • 45C ist ein Ablaufdiagramm, das einen Prozess zum Initiieren einer Audiooperation gemäß einigen Ausführungsformen veranschaulicht.
  • 46 ist ein Ablaufdiagramm, das einen Prozess zum Senden einer Audioaufzeichnung gemäß einigen Ausführungsformen veranschaulicht.
  • 47A bis 47B sind Ablaufdiagramme, die Prozesse zum Senden einer Audiooperation gemäß einigen Ausführungsformen veranschaulichen.
  • 47C bis 47D sind Ablaufdiagramme, die Prozesse zum Senden einer Audioaufzeichnung gemäß einigen Ausführungsformen veranschaulichen.
  • 48A bis 48B sind Ablaufdiagramme, die Prozesse zum Senden einer Audioaufzeichnung gemäß einigen Ausführungsformen veranschaulichen.
  • 49 ist ein Ablaufdiagramm, das einen Prozess zum Erfassen und Senden von Medien gemäß einigen Ausführungsformen veranschaulicht.
  • 50 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 51 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 52 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 53 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 54 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 55 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 56 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 57 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 58 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • 59 veranschaulicht ein Funktionsblockdiagramm eines elektronischen Geräts gemäß einigen Ausführungsformen.
  • Detaillierte Beschreibung
  • Die folgende Beschreibung legt beispielhafte Verfahren, Parameter und Ähnliches dar. Es versteht sich jedoch, dass eine solche Beschreibung nicht als eine Einschränkung des Umfangs der vorliegenden Offenlegung gedacht ist, sondern stattdessen als Beschreibung beispielhafter Ausführungsformen dargelegt wird.
  • Es besteht ein Bedarf an elektronischen Geräten mit schnelleren, effizienteren Verfahren und Schnittstellen zum Erfassen, Senden und Wiedergeben von Medieninhalten oder Standortdaten auf tragbaren elektronischen Geräten. Zum Beispiel können Benutzerschnittstellen, die Benutzern das Erfassen und Senden von Medieninhalten in einer Messaging-Anwendung ermöglichen, die Anzahl der erforderlichen Eingaben reduzieren, um solche Inhalte zu teilen und die intellektuelle Belastung für einen Benutzer in einem Nachrichtenaustausch zu reduzieren, was die Produktivität erhöht. Weiterhin können solche Techniken die Prozessor- und Akkuleistung senken, die anderweitig durch redundante Benutzereingaben vergeudet wird.
  • Im Folgenden stellen 1A bis 1B, 2, 3, 4A bis 4B, 5A bis 5B und 50 bis 59 eine Beschreibung beispielhafter Geräte zum Durchführen der Techniken zum Erfassen, Senden und Wiedergeben oder Anzeigen von Medienobjekten oder Standortinhalten bereit. 6A bis 32C veranschaulichen beispielhafte Nachrichtenbenutzerschnittstellen von Benutzern zum Erfassen, Senden, Wiedergeben oder Anzeigen von Medienobjekten oder Standortinhalten und zum Senden aufgezeichneter Audionachrichten. 33. bis 49 sind Ablaufdiagramme, die Verfahren zum Erfassen, Senden und Wiedergeben oder Anzeigen von Medien- und Standortinhalten, zum Gruppieren von Nachrichten zur Anzeige, zum Entfernen veralteter Nachrichten aus einem Nachrichtenaustausch, zum Initiieren einer Audiooperation und zum Senden einer aufgezeichneten Nachricht veranschaulichen.
  • Obwohl die folgende Beschreibung die Begriffe „erster”, „zweiter” usw. zum Beschreiben der verschiedenen Elemente verwendet, sollen diese Elemente nicht durch diese Begriffe eingeschränkt werden. Diese Begriffe werden nur zur Unterscheidung eines Elements von einem anderen verwendet. Zum Beispiel kann eine erste Berührung auch als zweite Berührung bezeichnet werden, und ebenso kann eine zweite Berührung auch als erste Berührung bezeichnet werden, ohne vom Umfang der verschiedenen beschriebenen Ausführungsformen abzuweichen. Die erste Berührung und die zweite Berührung sind beides Berührungen, sie sind jedoch nicht die gleiche Berührung.
  • Die hier zur Beschreibung der verschiedenen beschriebenen Ausführungsformen in dem vorliegenden Dokument verwendete Terminologie dient nur dem Zweck, bestimmte Ausführungsformen zu beschreiben, und ist nicht als Einschränkung der Offenlegung gedacht. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den Ansprüchen im Anhang verwendet, sind die Singularformen „ein”, „eine” und „der”, „die”, „das” dazu gedacht, auch die Pluralformen einzuschließen, sofern dies im Kontext nicht klar anderweitig angegeben ist. Es versteht sich auch, dass der Begriff „und/oder”, wie im vorliegenden Dokument verwendet, sich auf eine beliebige und alle möglichen Kombinationen von einem oder mehreren der zugehörigen aufgeführten Elemente bezieht und diese beinhaltet. Es versteht sich weiterhin, dass die Begriffe „enthält/umfasst”, „enthaltend/umfassend”, „aufweist” oder „aufweisend” bei der Verwendung in der vorliegenden Beschreibung das Vorhandensein angegebener Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Komponenten angeben, dies aber nicht das Vorhandensein oder das Hinzufügen eines oder mehrerer Merkmale, einer oder mehrerer Ganzzahlen, einer oder mehrerer Schritte, einer oder mehrerer Operationen, eines oder mehrerer Elemente, einer oder mehrerer Komponenten und/oder Gruppen hiervon ausschließt.
  • Der Begriff „wenn” kann abhängig vom Kontext dazu ausgelegt werden, „wenn” oder „bei” oder „als Antwort auf die Bestimmung” oder „in Antwort auf das Erfassen” zu bedeuten. Ebenso können in Abhängigkeit vom Kontext die Ausdrücke „wenn bestimmt wird” oder „wenn [eine angegebene Bedingung oder Ereignis] erfasst wird” „bei der Bestimmung” oder „als Reaktion auf die Bestimmung” oder „bei Erfassen der/des [angegebenen Bedingung oder Ereignisses]” oder „in Reaktion auf das Erfassen der/des [angegebenen Bedingung oder Ereignisses]” bedeuten.
  • Ausführungsformen der elektronischen Geräte, Benutzerschnittstellen für solche Geräte und zugehörige Prozesse für die Verwendung solcher Geräte werden beschrieben. In einigen Ausführungsformen ist das Gerät ein tragbares Kommunikationsgerät, wie ein Mobiltelefon, das ebenso andere Funktionen, wie einen PDA und/oder Musikwiedergabefunktionen enthält. Zu beispielhaften Ausführungsformen von tragbaren multifunktionalen Geräten gehören, ohne darauf beschränkt zu sein, die Geräte iPhone®, iPod Touch® und iPad® der Apple Inc. mit Sitz in Cupertino, Kalifornien. Weitere portable elektronische Geräte, wie Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Touchscreen-Anzeigen und/oder Touchpads) werden optional verwendet. Es versteht sich auch, dass in einigen Ausführungsformen das Gerät kein tragbares Kommunikationsgerät ist, sondern ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche (z. B. einer Touchscreen-Anzeige und/oder einem Touchpad).
  • In der folgenden Beschreibung wird ein elektronisches Gerät, das eine Anzeige und eine berührungsempfindliche Oberfläche aufweist, beschrieben. Es versteht sich jedoch, dass das elektronische Gerät optional eine oder mehrere andere physische Benutzerschnittstellengeräte, wie eine physische Tastatur, eine Maus und/oder einen Joystick, umfassen kann. Das Gerät kann verschiedene Anwendungen unterstützen, wie eine oder mehrere der folgenden: eine Zeichnungsanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Anwendung zur Website-Erstellung, eine Festplatten-Authoring-Anwendung, eine Tabellenkalkulationsanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine E-Mail-Anwendung, eine Instant Messaging-Anwendung, eine Workout-Support-Anwendung, eine Fotoverwaltungsanwendung, eine Digitalkamera-Anwendung, eine Anwendung für eine digitale Videokamera, eine Webbrowser-Anwendung, eine Anwendung zur digitalen Musikwiedergabe und/oder eine Anwendung zur digitalen Videowiedergabe.
  • Die verschiedenen Anwendungen, die auf dem Gerät optional ausgeführt werden, verwenden wenigstens eine gängige physische Benutzerschnittstelleneinrichtung, wie die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche, wie auch zugehörige auf dem Gerät angezeigte Informationen, werden optional von einer Anwendung zur nächsten und/oder in einer betreffenden Anwendung angepasst und/oder variiert. Auf diese Weise unterstützt eine gängige physische Architektur (wie die berührungsempfindliche Oberfläche) des Geräts optional die verschiedenen Anwendungen mit Benutzerschnittstellen, die für den Benutzer intuitiv und transparent sind.
  • Es wird nun auf Ausführungsformen von tragbaren Geräten mit berührungsempfindlichen Anzeigen eingegangen. 1A ist ein Blockdiagramm, das ein tragbares multifunktionales Gerät 100 mit einem berührungsempfindlichen Anzeigesystem 112 gemäß einigen Ausführungsformen darstellt. Die berührungsempfindliche Anzeige 112 wird manchmal der Einfachheit halber als „Touchscreen” bezeichnet und ist manchmal auch unter der Bezeichnung „berührungsempfindliches Anzeigesystem” bekannt oder wird als solches bezeichnet. Das Gerät 100 umfasst einen Speicher (Memory) 102 (der optional eine oder mehrere computerlesbare Speichermedien enthält), einen Speichercontroller 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, Peripheriegeräteschnittstellen 118, einen HF-Schaltkreis 108, einen Audioschaltkreis 110, Lautsprecher 111, ein Mikrofon 113, ein Eingabe-/Ausgabe(I/O, Input/Output)-Subsystem 106, weitere Eingabesteuerungseinrichtungen 116 und einen externen Port 124. Das Gerät 100 weist optional eine oder mehrere optische Sensoren 164 auf. Das Gerät 100 umfasst optional einen oder mehrere Kontaktintensitätssensoren 165, um auf dem Gerät 100 die Kontaktintensität zu erfassen (z. B. eine berührungsempfindliche Oberfläche, wie ein berührungsempfindliches Anzeigesystem 112 des Geräts 100). Das Gerät 100 weist optional einen oder mehrere taktile Ausgabegeneratoren 167 auf, um auf dem Gerät 100 taktile Ausgaben zu generieren (z. B. Generieren von taktile Ausgaben auf einer berührungsempfindlichen Oberfläche wie dem berührungsempfindlichen Anzeigesystem 112 von Gerät 100 oder dem Touchpad 355 von Gerät 300). Diese Komponenten kommunizieren optional über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Begriff „Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche auf die Kraft oder den Druck (Kraft pro Flächeneinheit) eines Kontakts (z. B. ein Fingerkontakt) auf die berührungsempfindliche Oberfläche oder einen Ersatz (Proxy) für die Kraft und den Druck eines Kontakts auf die berührungsempfindliche Oberfläche. Die Intensität eines Kontakts weist einen Wertebereich auf, der wenigstens vier einzelne Werte aufweist und noch üblicher Hunderte von einzelnen Werten aufweist (z. B. wenigstens 256). Die Intensität eines Kontaktes wird optional unter Verwendung verschiedener Ansätze und verschiedene Sensoren oder Kombinationen von Sensoren bestimmt (oder gemessen). Zum Beispiel werden ein oder mehrere Kraftsensoren unter oder angrenzend an die berührungsempfindliche Oberfläche optional dazu verwendet, die Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche zu messen. In einigen Implementierungen werden Kraftmessungen von verschiedenen Kraftsensoren kombiniert (z. B. ein gewichteter Durchschnitt), um eine geschätzte Kraft eines Kontakts zu bestimmen. Gleichermaßen wird optional mit einer druckempfindlichen Spitze eines Stylus-Stiftes ein Druck des Stifts auf die berührungsempfindliche Oberfläche bestimmt. Alternativ werden die Größe des auf der berührungsempfindlichen Oberfläche erfassten Kontaktbereichs und/oder Veränderungen daran, die Kapazität der berührungsempfindlichen Oberfläche in der Nähe des Kontakts und/oder Änderungen daran, und/oder der Widerstand der berührungsempfindlichen Oberfläche in der Nähe des Kontakts und/oder Änderungen daran optional als Ersatz für die Kraft oder den Druck des Kontakts auf die berührungsempfindliche Oberfläche verwendet. In einigen Implementierungen werden Ersatzmessungen für die Kontaktkraft oder den Druck direkt zur Bestimmung verwendet, ob ein Intensitätsgrenzwert überschritten wurde (z. B. wird der Intensitätsgrenzwert in Einheiten beschrieben, die den Ersatzmessungen entsprechen). In einigen Implementierungen werden die Ersatzmessungen für die Kontaktkraft und den Druck in eine geschätzte Kraft oder Druck umgewandelt, und die geschätzte Kraft oder Druck wird zur Bestimmung verwendet, ob ein Intensitätsgrenzwert überschritten wurde (z. B. ist der Intensitätsgrenzwert ein in Druckeinheiten gemessener Druckgrenzwert). Durch die Verwendung der Kontaktintensität als Attribut einer Benutzerangabe erhält der Benutzer Zugriff auf weitere Gerätefunktionalität, auf die der Benutzer andernfalls auf einem kleineren Gerät mit weniger Platz zum Anzeigen von Angeboten (z. B. auf einer berührungsempfindlichen Anzeige) nicht zugreifen kann und/oder um Benutzereingaben zu empfangen (z. B. über eine berührungsempfindliche Anzeige, eine berührungsempfindliche Oberfläche oder ein physisches/mechanisches Steuerelement, wie ein Knopf oder eine Taste).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Begriff „taktile Ausgabe” auf eine physische Verschiebung eines Geräts relativ zu einer vorhergehenden Position des Geräts, eine physische Verschiebung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) eines Geräts bezüglich einer anderen Komponente (z. B. Gehäuse) des Geräts oder der Verschiebung der Komponente relativ zu einem Massenmittelpunkt des Geräts, der von einem Benutzer mit dem Tastsinn des Benutzers erfasst wird. Zum Beispiel wird in Situationen, in denen das Gerät oder die Komponente des Geräts sich in Kontakt mit einer Oberfläche eines Benutzers befindet, die empfindlich auf Berührungen reagiert (z. B. ein Finger, Handfläche oder ein anderer Teil der Hand des Benutzers), die von der physischen Verschiebung generierte taktile Ausgabe von dem Benutzer als eine taktile Empfindung entsprechend einer wahrgenommenen Veränderung in den physischen Eigenschaften des Geräts oder der Komponenten des Geräts interpretiert. Zum Beispiel wird eine Bewegung der berührungsempfindlichen Oberfläche (z. B. einer berührungsempfindlichen Anzeige oder eines Trackpads) optional von dem Benutzer als ein „Herunterdrücken” oder „Zurücksetzen” einer physischen Betätigungstaste interpretiert In einigen Fällen fühlt der Benutzer eine taktile Empfindung wie ein „Herunterdrücken” oder ein „Zurücksetzen” selbst dann, wenn keine Bewegung einer physischen Betätigungstaste vorliegt, die mit der berührungsempfindlichen Oberfläche verknüpft ist, die durch die Bewegungen des Benutzers physisch gedrückt (z. B. versetzt) wird. Als anderes Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche optional von dem Benutzer als „Rauheit” der berührungsempfindlichen Oberfläche interpretiert oder gefühlt, selbst wenn keine Veränderung in der Gleichmäßigkeit der berührungsempfindlichen Oberfläche vorliegt. Während solche Interpretationen einer Berührung durch einen Benutzer den individuellen Sinneswahrnehmungen des Benutzers unterliegen, gibt es viele Sinneswahrnehmungen bei Berührungen, die einer großen Mehrzahl von Benutzern gemeinsam sind. Wenn somit eine taktile Ausgabe als einer bestimmten Sinneswahrnehmung eines Benutzers entsprechend (z. B. ein „Zurücksetzen”, ein „Herunterdrücken”, „Rauheit”) beschrieben wird, entspricht die generierte taktile Ausgabe, sofern nicht anders angegeben, der physischen Versetzung des Geräts oder einer Komponente davon, die die beschriebene Sinneswahrnehmung für einen typischen (oder durchschnittlichen) Benutzer generiert.
  • Es versteht sich, dass das Gerät 100 nur ein Beispiel eines tragbaren multifunktionalen Geräts ist, dass das Gerät 100 optional mehr oder weniger Komponenten als dargestellt aufweist, optional zwei oder mehr Komponenten kombiniert oder optional eine andere Konfiguration oder Anordnung der Komponenten aufweist. Die verschiedenen in 1A dargestellten Komponenten werden in Hardware, Software oder als eine Kombination aus Hardware und Software implementiert, einschließlich eines oder mehrerer Signalverarbeitungs- und/oder anwendungsspezifischer integrierter Schaltkreise.
  • Der Speicher 102 kann eine oder mehrere computerlesbare Speichermedien enthalten. Die computerlesbaren Speichermedien können materiell und nicht-flüchtig sein. Der Speicher 102 kann Hochgeschwindigkeits-Direktzugriffsspeicher enthalten und ebenso nicht-flüchtigen Speicher enthalten, wie eine oder mehrere Magnetplatten-Speichergeräte, Flash-Speichergeräte oder andere nicht-flüchtige Solid-State-Speichergeräte. Der Speichercontroller 122 kann den Zugriff auf den Speicher 102 durch andere Komponenten des Geräts 100 steuern.
  • Die Peripheriegeräteschnittstelle 118 kann zur Kopplung der Eingabe- und Ausgabe-Peripheriegeräte des Geräts mit der CPU 120 und dem Speicher 102 verwendet werden. Der eine oder die mehreren Prozessoren 120 führen verschiedene im Speicher 102 gespeicherte Softwareprogramme und/oder Gruppen von Befehlen aus, um verschiedene Funktionen für das Gerät 100 durchzuführen und um Daten zu verarbeiten. In einigen Ausführungsformen können die Peripheriegeräteschnittstelle 118, die CPU 120 und der Speichercontroller 122 auf einem einzelnen Chip, wie dem Chip 104, implementiert werden. In einigen anderen Ausführungsformen können sie auf getrennten Chips implementiert werden.
  • Ein HF(Hochfrequenz)-Schaltkreis 108 empfängt und sendet HF-Signale, die auch als elektromagnetische Signale bezeichnet werden. Der HF-Schaltkreis 108 konvertiert elektrische Signale in/aus elektromagnetische(n) Signale(n) und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationseinrichtungen über die elektromagnetischen Signale. Der HF-Schaltkreis 108 weist optional einen wohl bekannten Schaltkreis zum Durchführen dieser Funktionen auf, darunter, ohne darauf beschränkt zu sein, ein Antennensystem, ein HF-Transceiver (Sende-/Empfangsgerät), einen oder mehrere Verstärker, eine Abstimmungsvorrichtung, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC-Chipsatz, eine Subscriber Identity Module(SIM)-Karte, Speicher usw. Der HF-Schaltkreis 108 kommuniziert optional mit Netzwerken, wie dem Internet, das auch als World Wide Web (WWW) bezeichnet wird, einem Intranet und/oder einem Funknetzwerk, wie einem Mobilfunknetzwerk, einem lokalen Funk-Netzwerk (LAN) und/oder einem regionalen Netzwerk (MAN, Metropolitan Area Network) und anderen Geräten über Funkkommunikation. Der HF-Schaltkreis 108 weist optional einen wohl bekannten Schaltkreis zum Erfassen von Nahfeldkommunikation(NFC, Near Field Communication)-Feldern auf, wie Kommunikationsfunk über kurze Strecken. Die Funkkommunikation verwendet optional einen beliebigen von einer Vielzahl von Kommunikationsstandards, -protokollen und -technologien, einschließlich, ohne darauf beschränkt zu sein, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High-Speed Uplink Packet Access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), Long Term Evolution (LTE), Near Field Communication (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Bluetooth Low Energy (BTLE), Wireless Fidelity (Wi-Fi) (z. B., IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n und/oder IEEE 802.11ac), Voice-over-Internet-Protokoll (VoIP), Wi-MAX, ein Protokoll für E-Mails (wie das Internet Message Access-Protokoll (IMAP) und/oder Post Office-Protokoll (POP)), Instant Messaging (z. B. Extensible Messaging and Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)) und/oder Short Message Service (SMS) oder jedes andere geeignete Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, die zum Zeitpunkt der Einreichung des vorliegenden Dokuments noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und dem Gerät 100 bereit. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripheriegeräteschnittstelle 118, konvertiert die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 konvertiert das elektrische Signal in für den Menschen hörbare Klangwellen. Der Audioschaltkreis 110 empfängt ebenso vom Mikrofon 113 aus Klangwellen konvertierte elektrische Signale. Der Audioschaltkreis 110 konvertiert das elektrische Signal in Audiodaten und sendet die Audiodaten an die Peripheriegeräteschnittstelle 118 zur Verarbeitung. Audiodaten können vom Speicher 102 und/oder dem HF-Schaltkreis 108 durch die Peripheriegeräteschnittstelle 118 abgerufen und/oder übertragen werden. In einigen Ausführungsformen weist der Audioschaltkreis 110 auch eine Kopfhörerbuchse auf (z. B. 212 in 2). Die Kopfhörerbuchse stellt eine Benutzerschnittstelle zwischen einem Audioschaltkreis 110 und entfernbaren Audio-Eingabe-/Ausgabe-Peripheriegeräten, wie nur für die Ausgabe gedachten Kopfhörern oder einem Headset mit sowohl Ausgabe- (z. B. ein Kopfhörer für ein oder beide Ohren) als auch Eingabefunktionen (z. B. ein Mikrofon) bereit.
  • Das E/A-Subsystem 106 koppelt die Eingabe/Ausgabe-Peripheriegeräte im Gerät 100, wie einen Touchscreen 112 und andere Eingabesteuerungseinrichtungen 116, mit der Peripheriegeräteschnittstelle 118. Das E/A-Subsystem 106 weist optional einen Anzeige-Controller 156, einen optischen Sensor-Controller 158, einen Intensitätssensor-Controller 159, einen haptischen Feedback-Controller 161 und einen oder mehrere Eingabecontroller 160 für andere Eingabe- oder Steuereinrichtungen auf. Der eine oder die mehreren Eingabecontroller 116 empfangen/senden elektrische Signale von/an andere(n) Eingabesteuerungseinrichtungen 116. Die anderen Eingabesteuerungseinrichtungen 116 beinhalten optional physische Tasten (z. B. Drucktasten, Wipptasten usw.), Wähltasten, Schiebeschalter, Joysticks, Klickräder usw. In einigen alternativen Ausführungsformen ist der/sind die Eingabecontroller 160 optional mit einem (oder keinem) der folgenden gekoppelt: einer Tastatur, einem Infrarot-Port, einem USB-Port und einem Zeigegerät wie einer Maus. Die eine oder mehrere Tasten (z. B. 208 in 2) weisen optional eine Nach-oben-/Nach-unten-Taste zur Lautstärkensteuerung des Lautsprechers 111 und/oder des Mikrofons 113 auf. Die eine oder mehreren Tasten weisen optional eine Drucktaste (z. B. 206 in 2) auf.
  • Eine schnelles Herunterdrücken der Drucktaste kann eine Sperrung des Touchscreens 112 lösen oder einen Prozess beginnen, in dem der Benutzer Gesten auf einem Touchscreen ausführt, um das Gerät zu entsperren, wie in der U.S.-amerikanischen Patentanmeldung 11/322,549, „Unlocking a Device by Performing Gestures an an Unlock Image” mit der U.S.-Patentnr. 7,657,849 , die am 23. Dezember 2005 eingereicht wurde, beschrieben wird, die hiermit durch Referenz in ihrer Gesamtheit enthalten ist. Ein längeres Drücken der Drucktaste (z. B. 206) kann für das Gerät 100 den Strom einschalten oder ausschalten. Der Benutzer kann dazu in der Lage sein, eine Funktionalität von einer oder mehrerer dieser Tasten anzupassen. Der Touchscreen 112 wird zur Implementierung von virtuellen oder Soft-Tasten und einer oder mehreren Soft-Tastaturen verwendet.
  • Die berührungsempfindliche Anzeige 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen dem Gerät und einem Benutzer bereit. Der Anzeige-Controller 156 empfängt und/oder sendet elektrische Signale von/zum Touchscreen 112. Der Touchscreen 112 zeigt dem Benutzer visuelle Ausgaben an. Die visuelle Ausgabe kann umfassen Grafik, Text, Symbole, Video und beliebige Kombinationen davon (die insgesamt als „Grafiken”) bezeichnet werden. In einigen Ausführungsformen können einige oder alle der visuellen Ausgaben Benutzerschnittstellenobjekten entsprechen.
  • Der Touchscreen 112 weist eine berührungsempfindliche Oberfläche, einen Sensor oder eine Gruppe von Sensoren auf, die Eingaben vom Benutzer basierend auf einem haptischen und/oder taktilen Kontakt annehmen. Der Touchscreen 112 und der Anzeige-Controller 156 (zusammen mit beliebigen weiteren zugeordneten Modulen und/oder Gruppe von Anweisungen im Speicher 102) erfassen einen Kontakt (und alle Bewegungen oder Unterbrechungen des Kontakts) auf dem Touchscreen 112 und konvertieren den erfassten Kontakt in Interaktionen mit Objekten der Benutzerschnittstelle (z. B. eine oder mehrere Soft-Tasten, Symbole, Webseiten oder Bilder), die auf dem Touchscreen 112 angezeigt werden. In einer beispielhaften Ausführungsform entspricht ein Kontaktpunkt zwischen dem Touchscreen 112 und dem Benutzer einem Finger des Benutzers.
  • Der Touchscreen 112 kann eine LCD(Liquid Crystal Display, Flüssigkristallanzeige)-Technologie, LPD(Light Emitting Polymer Display, lichtausstrahlende Polymer-Anzeige)-Technologie oder LED(Light Emitting Diode, lichtausstrahlende Dioden)-Technologie verwenden, wenngleich andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden können. Der Touchscreen 112 und der Anzeige-Controller 156 können einen Kontakt und jede beliebige Bewegung oder eine Unterbrechung davon mithilfe einer beliebigen einer Mehrzahl von Berührungserfassungstechnologien erfassen, die bekannt sind oder in Zukunft entwickelt werden, einschließlich, ohne darauf beschränkt zu sein, kapazitive, resistive, Infrarot- und akustische Oberflächenwellen-Technologien, wie auch andere Näherungssensor-Arrays oder andere Elemente zum Bestimmen von einem oder mehreren Kontaktpunkten für den Touchscreen 112. In einer beispielhaften Ausführungsform wird eine projizierte Mutual-Capacitance-Erfassungstechnologie verwendet, wie sie im iPhone® und iPod Touch® von Apple Inc. mit Sitz in Cupertino, Kalifornien, zum Einsatz kommt.
  • Eine berührungsempfindliche Anzeige kann in einigen Ausführungsformen des Touchscreens 112 analog zu Multitouch-berührungsempfindlichen Touchpads sein, die in den folgenden US-Patenten beschrieben werden: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.) und/oder 6,677,932 (Westerman) und/oder in der U.S.-amerikanische Patentveröffentlichung 2002/0015024A1 , die hier alle durch Bezugnahme in ihrer Gesamtheit enthalten sind. Der Touchscreen 112 zeigt jedoch visuelle Ausgaben des Geräts 100 an, wohingegen berührungsempfindliche Touchpads keine visuelle Ausgabe vorsehen.
  • Eine berührungsempfindliche Anzeige kann in einigen Ausführungsformen eines solchen Touchscreens 112 wie in den folgenden Anmeldungen beschrieben sein: (1) U.S.-amerikanische Patentanmeldung-Nr. 11/381,313, „Multipoint Touch Surface Controller”, die am 2. Mai 2006 eingereicht wurde; (2) U.S.-amerikanische Patentanmeldung-Nr. 10/840,862, „Multipoint Touchscreen”, die am 6. Mai 2004 eingereicht wurde; (3) U.S.-amerikanische Patentanmeldung-Nr. 10/903,964, „Gestures For Touch Sensitive Input Devices”, die am 30. Juli 2004 eingereicht wurde; (4) U.S.-amerikanische Patentanmeldung-Nr. 11/048,264, „Gestures For Touch Sensitive Input Devices”, die am 31. Januar 2005 eingereicht wurde; (5) U.S.-amerikanische Patentanmeldung-Nr. 11/038,590, „Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices”, die am 18. Januar 2005 eingereicht wurde; (6) U.S.-amerikanische Patentanmeldung-Nr. 11/228,758, „Virtual Input Device Placement On A Touch Screen User Interface”, die am 16. September 2005 eingereicht wurde; (7) U.S.-amerikanische Patentanmeldung-Nr. 11/228,700, „Operation Of A Computer With A Touch Screen Interface”, die am 16. September 2005 eingereicht wurde; (8) U.S.-amerikanische Patentanmeldung-Nr. 11/228,737, „Activating Virtual Keys Of A Touch-Screen Virtual Keyboard”, die am 16. September 2005 eingereicht wurde; und die (9) U.S.-amerikanische Patentanmeldung-Nr. 11/367,749, „Multi-Functional Hand-Held Device”, die am 3. März 2006 eingereicht wurde. Alle diese Anwendungen sind durch Bezugnahme hier in ihrer Gesamtheit enthalten.
  • Der Touchscreen 112 kann eine Videoauflösung über 100 dpi besitzen. In einigen Ausführungsformen hat der Touchscreen eine Videoauflösung von in etwa 160 dpi. Der Benutzer kann den Kontakt mit dem Touchscreen 112 unter Verwendung jedes geeigneten Gegenstands oder Körperglieds, wie einem Stift (Stylus), einem Finger usw. herstellen. In einigen Ausführungsformen ist die Benutzerschnittstelle dazu ausgelegt, vor allem mit fingerbasierten Kontakten und Gesten zu arbeiten, die aufgrund der größeren Kontaktfläche eines Fingers auf dem Touchscreen weniger präzise sein können als eine stiftbasierte Eingabe. In einigen Ausführungsformen übersetzt das Gerät die grobe fingerbasierte Eingabe in einen präzisen Zeiger/eine präzise Zeigerposition oder Befehl zum Durchführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsformen kann das Gerät 100 zusätzlich zum Touchscreen ein Touchpad (nicht dargestellt) zum Aktivieren oder Deaktivieren bestimmter Funktionen aufweisen. In einigen Ausführungsformen ist das Touchpad ein berührungsempfindlicher Bereich des Geräts, der im Unterschied zum Touchscreen keine visuelle Ausgabe anzeigt. Das Touchpad kann eine berührungsempfindliche Oberfläche sein, die vom Touchscreen 112 getrennt ist, oder es kann eine Erweiterung der durch den Touchscreen ausgebildeten berührungsempfindlichen Oberfläche sein.
  • Das Gerät 100 weist auch ein Stromversorgungssystem 162 zur Stromversorgung der verschiedenen Komponenten auf. Das Stromversorgungssystem 162 kann ein Strommanagementsystem, eine oder mehrere Stromquellen (z. B. eine Batterie, Wechselstrom, ein Ladesystem, einen Schaltkreis zum Erfassen von Stromausfällen, einen Leistungswandler oder Wechselrichter, eine Stromzustandsanzeige (z. B. eine lichtausstrahlende Diode (LED)) und beliebige anderen Komponente aufweisen, die mit der Generierung, dem Management und der Verteilung von Strom in tragbaren Geräten in Zusammenhang stehen.
  • Das Gerät 100 kann auch eine oder mehrere optische Sensoren 164 aufweisen. 1A stellt einen optischen Sensor dar, der mit einem optischen Sensor-Controller 158 im E/A-Subsystem 106 verbunden ist. Der optische Sensor 164 kann ladungsgekoppelte Geräte(CCD, Charge-coupled Device)- oder komplementäre Metalloxid-Halbleiter(CMOS, Complementary Metal-oxide Semiconductor)-Phototransistoren enthalten. Der optische Sensor 164 erhält Licht von der Umgebung, das durch eine oder mehrere Linsen projiziert wird, und wandelt das Licht in Daten um, die ein Bild darstellen. Zusammen mit einem Bildgebungsmodul 143 (das auch als Kameramodul bezeichnet wird) kann der optische Sensor 164 Standbilder oder Videos erfassen. In einigen Ausführungsformen befindet sich ein optischer Sensor an der Rückseite des Geräts 100, abgewandt zur Touchscreen-Anzeige 112 an der Vorderseite des Geräts, sodass die Touchscreen-Anzeige auch als Sucher zum Aufnehmen von Stand- und/oder Videobildern verwendet werden kann. In einigen Ausführungsformen befindet sich ein optischer Sensor an der Vorderseite des Geräts, sodass das Bild des Benutzers für Videokonferenzen erhalten werden kann, während der Benutzer die anderen Teilnehmer der Videokonferenz auf der Touchscreen-Anzeige betrachtet. In einigen Ausführungsformen kann die Position des optischen Sensors 164 vom Benutzer geändert werden (z. B. durch Rotieren der Linse und des Sensors im Gerätegehäuse), sodass ein einzelner optischer Sender 164 zusammen mit der Touchscreen-Anzeige sowohl für Videokonferenzen als auch für die Aufnahme von Stand- und/oder Videobildern verwendet werden kann.
  • Das Gerät 100 weist optional auch eine oder mehrere Kontaktintensitätssensoren 165 auf. 1A stellt einen Kontaktintensitätssensor dar, der mit einem Intensitätssensor-Controller 159 im E/A-Subsystem 106 verbunden ist. Der Kontaktintensitätssensor 165 weist optional einen oder mehrere piezoresistive Messstreifen, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren auf (z. B. Sensoren, die zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet werden). Der Kontaktintensitätssensor 165 empfängt Kontaktintensitätsinformationen (z. B. Druckinformationen oder ein Proxy für Druckinformationen) aus der Umgebung. In einigen Ausführungsformen befindet sich ebenso wenigstens ein Kontaktintensitätssensor an oder in der Nähe einer berührungsempfindlichen Oberfläche (z. B. des berührungsempfindlichen Anzeigesystems 112). In einigen Ausführungsformen befindet sich wenigstens ein Kontaktintensitätssensor an der Rückseite des Geräts 100 abgewandt zur Touchscreen-Anzeige 112, die sich an der Vorderseite des Geräts 100 befindet.
  • Das Gerät 100 kann optional eine oder mehrere Näherungssensoren 166 aufweisen. 1A zeigt den Näherungssensor 166, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann ein Näherungssensor 166 mit dem Eingabecontroller 160 im E/A-Subsystem 106 verbunden sein. Der Näherungssensor 166 kann sich verhalten, wie in den U.S.-amerikanischen Patentanmeldungen-Nr. 11/241,839, „Proximity Detector In Handheld Device”; 11/240,788, „Proximity Detector In Handheld Device”; 11/620,702, „Using Ambient Light Sensor To Augment Proximity Sensor Output”; 11/586,862, „Automated Response To And Sensing Of User Activity In Portable Devices”; und 11/638,251, „Methods And Systems For Automatic Configuration Of Peripherals”, beschrieben wird, die hierdurch durch Bezugnahme in ihrer Gesamtheit enthalten sind. In einigen Ausführungsformen kann der Näherungssensor den Touchscreen 112 ausschalten und deaktivieren, wenn das Multifunktionsgerät in der Nähe des Ohrs des Benutzers angeordnet wird (z. B. wenn der Benutzer telefoniert).
  • Das Gerät 100 weist optional auch einen oder mehrere Generatoren 167 von taktilen Ausgaben auf. 1A stellt einen Generator von taktilen Ausgaben dar, der mit einem haptischen Feedback-Controller 161 im E/A-Subsystem 106 gekoppelt ist. Der taktile Ausgabegenerator 167 weist optional eine oder mehrere elektroakustische Einrichtungen wie Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Einrichtungen auf, die Energie in lineare Bewegung übertragen, wie einen Motor, einen Solenoid, ein elektroaktives Polymer, einen piezoelektrischen Aktuator, einen elektrostatischen Aktuator oder eine andere Komponente zum Generieren von taktilen Ausgaben (z. B. eine Komponente, die elektrische Signale in taktile Ausgaben auf dem Gerät konvertiert). Der Kontaktintensitätssensor 165 empfängt Anweisungen zum Generieren von taktilem Feedback von dem haptischen Feedback-Modul 133 und generiert taktile Ausgaben auf dem Gerät 100, die dazu ausgestaltet sind, von einem Benutzer des Geräts 100 wahrgenommen zu werden. In einigen Ausführungsformen ist wenigstens ein Generator von taktilen Ausgaben zusammen mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. einem berührungsempfindliches Anzeigesystem 112) angeordnet und generiert optional eine taktile Ausgabe durch Verschieben der berührungsempfindlichen Oberfläche in der vertikalen Richtung (z. B. in/aus einer Fläche des Geräts 100) oder seitlich (z. B. auf der gleichen Ebene wie eine Oberfläche des Geräts 100 nach hinten und vorne). In einigen Ausführungsformen befindet sich wenigstens ein Sensor eines Generators von taktilen Ausgaben an der Rückseite des Geräts 100, abgewandt zur Touchscreen-Anzeige 112, die sich an der Vorderseite des Geräts 100 befindet.
  • Das Gerät 100 kann optional einen oder mehrere Beschleunigungsmesser 168 aufweisen. 1A zeigt den Beschleunigungsmesser 168, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann ein Beschleunigungsmesser 168 mit dem Eingabecontroller 160 im E/A-Subsystem 106 verbunden sein. Ein Beschleunigungsmesser 168 kann sich so verhalten, wie in der U.S.-amerikanischen Patentveröffentlichung-Nr. 20050190059 , „Acceleration-based Theft Detection System for Portable Electronic Devices” und in der U.S.-amerikanischen Patentveröffentlichung-Nr. 20060017692 , „Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer” beschrieben, die beide hier in ihrer Gesamtheit durch Bezugnahme enthalten sind. In einigen Ausführungsformen werden Informationen auf der Touchscreen-Anzeige basierend auf einer Analyse der von einem oder mehreren Beschleunigungsmessern empfangenen Daten in einer Hochformatansicht oder einer Querformatansicht angezeigt. Das Gerät 100 weist optional, zusätzlich zu dem/den Beschleunigungsmesser(n) 168, ein Magnetometer (nicht dargestellt) und einen GPS(oder GLONASS oder anderes globales Navigationssystem)-Empfänger zum Erhalten von Informationen bezüglich der Position und Ausrichtung (z. B. Hochformat oder Querformat) des Geräts 100 auf.
  • In einigen Ausführungsformen weisen die im Speicher 102 gespeicherten Softwarekomponenten ein Betriebssystem 126, ein Kommunikationsmodul (oder Gruppe von Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Gruppe von Anweisungen) 130, ein Grafikmodul (oder Gruppe von Anweisungen) 132, ein Texteingabemodul (oder Gruppe von Anweisungen) 134, ein Globales Positionierungssystem(GPS)-Modul (oder Gruppe von Anweisungen) 135 und Anwendungen (oder Gruppe von Anweisungen) 136 auf. Darüber hinaus speichert in einigen Ausführungsformen der Speicher 102 (1A) oder 370 (3) den Geräte-/globalen internen Zustand 157 wie in 1A und 3. Der Geräte-/globale interne Zustand 157 weist eines oder mehrere auf von: einem aktiven Anwendungszustand, der angibt, welche Anwendungen, sofern vorhanden, derzeit aktiv sind; einem Anzeigezustand, der angibt, welche Anwendungen, Ansichten oder andere Informationen, die verschiedenen Bereiche der Touchscreen-Anzeige 112 belegen; einem Sensorzustand, der Informationen enthält, die von den verschiedenen Sensoren des Geräts und Eingabesteuerungseinrichtungen 116 erhalten werden; und Positionsinformationen bezüglich der Position und/oder der Lage des Geräts.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, iOS, WINDOWS oder ein eingebettetes Betriebssystem wie VxWorks) weist verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben auf (z. B. Speicherverwaltung, Steuerung der Speichergeräte, Stromverwaltung usw.) und ermöglicht die Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht die Kommunikation mit anderen Geräten über einen oder mehrere externe Ports 124 und weist auch verschiedene Softwarekomponenten zum Verarbeiten von Daten auf, die vom HF-Schaltkreis 108 und/oder dem externen Port 124 empfangen wurden. Der externe Port 124 (z. B. Universal Serial Bus (USB), FIREWIRE, usw.) ist dazu ausgebildet, eine direkte Verbindung mit anderen Geräten oder eine indirekte Verbindung über ein Netzwerk herzustellen (z. B. das Internet, WLAN usw.). In einigen Ausführungsformen ist der externe Port ein Multi-Pin(z. B. 30-Pin)-Stecker, der der gleiche ist oder ähnlich zu und/oder kompatibel zu dem 30-Pin-Stecker, der in iPod®(Markenzeichen von Apple Inc.)-Geräten verwendet wird.
  • Das Kontakt-/Bewegungsmodul 130 erfasst optional einen Kontakt mit dem Touchscreen 112 (zusammen mit dem Anzeige-Controller 156) und anderen berührungsempfindlichen Geräten (wie z. B. einem Touchpad oder einem physischen Klickrad). Das Kontakt-/Bewegungsmodul 130 weist verschiedene Softwarekomponenten zum Durchführen verschiedener Operationen bezüglich der Erfassung von Kontakten auf, wie die Bestimmung, ob ein Kontakt aufgetreten ist (z. B. das Erfassen eines Fingeraufsetz-Ereignisses), das Bestimmen einer Intensität des Kontakts (z. B. die Kraft oder der Druck des Kontakts oder ein Ersatz für die Kraft oder den Druck des Kontakts), die Bestimmung, ob eine Bewegung des Kontakts vorliegt, und das Verfolgen der Bewegung über die berührungsempfindliche Oberfläche (z. B. Erfassen von einem oder mehreren Ereignissen des Ziehens eines oder mehrerer Finger) und die Bestimmung, ob der Kontakt beendet wurde (z. B. Erfassen eines Ereignisses des Hochhebens eines Fingers oder einer Unterbrechung des Kontakts). Das Kontakt-/Bewegungsmodul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Die Bestimmung der Bewegung des Kontaktpunkts, die durch eine Serie von Kontaktdaten dargestellt wird, beinhaltet optional die Bestimmung der Schnelligkeit (Größenordnung), der Geschwindigkeit (Größenordnung und Richtung) und/oder einer Beschleunigung (eine Änderung in der Größenordnung und/oder der Richtung) des Kontaktpunkts. Diese Operationen werden optional auf einzelne Kontakte (z. B. Kontakte eines Fingers) oder auf mehrere gleichzeitige Kontakte (z. B. „Mehrfachberührung” (Multitouch)/mehrere Fingerkontakte) angewendet. In einigen Ausführungsformen erfassen das Kontakt-/Bewegungsmodul 130 und der Anzeige-Controller 156 Kontakte auf einem Touchpad.
  • In einigen Ausführungsformen verwendet das Kontakt-Bewegungsmodul 130 eine Gruppe von einem oder mehreren Intensitätsgrenzwerten zur Bestimmung, ob eine Operation durch einen Benutzer ausgeführt wurde (z. B. zur Bestimmung, ob ein Benutzer auf ein Symbol „geklickt” hat). In einigen Ausführungsformen wird wenigstens eine Teilmenge der Intensitätsgrenzwerte gemäß Softwareparametern bestimmt (z. B. werden die Intensitätsgrenzwerte nicht durch Aktivierungsgrenzwerte von bestimmten physischen Aktuatoren bestimmt und können ohne Änderung der physischen Hardware des Geräts 100 angepasst werden). Zum Beispiel kann ein Maus-„Klick”-Grenzwert eines Trackpads oder einer Touchscreen-Anzeige auf einen beliebigen des weiten Bereichs vordefinierter Grenzwerte festgelegt werden, ohne die Hardware des Trackpads oder der Touchscreen-Anzeige zu ändern. Darüber hinaus werden in einigen Implementierungen Softwareeinstellungen für einen Benutzer des Geräts bereitgestellt, um einen oder mehrere der Gruppe der Intensitätsgrenzwerte anzupassen (z. B. durch Anpassen einzelner Integritätsgrenzwerte und/oder durch Anpassen einer Mehrzahl von Intensitätsgrenzwerten in einem Schritt auf Systemebene durch Anklicken eines „Intensitäts”-Parameters).
  • Das Kontakt-/Bewegungsmodul 31 erfasst optional eine gestische Eingabe eines Benutzers. Unterschiedliche Gesten auf der berührungsempfindlichen Oberfläche weisen verschiedene Kontaktmuster auf (z. B. verschiedene Bewegungen, Timings und/oder Intensitäten der erfassten Kontakte). Somit wird optional eine Geste durch Erfassen eines bestimmten Kontaktmusters erfasst. Zum Beispiel weist das Erfassen einer Fingertipp-Geste das Erfassen eines Fingeraufsetz-Ereignisses gefolgt von einem Finger-Abhebe(Hochhebe)-Ereignis an der gleichen Position (oder im Wesentlichen der gleichen Position) wie das Fingeraufsetz-Ereignis auf (z. B. an der Position eines Symbols). Als weiteres Beispiel umfasst das Erfassen einer Fingerwischgeste auf der berührungsempfindlichen Oberfläche das Erfassen eines Fingerabsetz-Ereignisses gefolgt von dem Erfassen von einem oder mehreren Fingerzieh-Ereignissen gefolgt vom Erfassen eines Fingerabhebe(Hochhebe)-Ereignisses.
  • Das Grafikmodul 132 weist verschiedene bekannte Softwarekomponenten zum Darstellen und Anzeigen von Grafiken auf dem Touchscreen 112 oder einer anderen Anzeige auf, einschließlich Komponenten zum Ändern der visuellen Darstellungsform (z. B. der Helligkeit, Transparenz, Sättigung, des Kontrasts oder einer anderen visuellen Eigenschaft) der angezeigten Grafiken. Wie im vorliegenden Dokument verwendet, umfasst der Begriff „Grafik” jedes beliebige Objekt, das einem Benutzer angezeigt werden kann, einschließlich ohne Einschränkung, Text, Webseiten, Symbole (wie Objekte der Benutzerschnittstelle einschließlich Soft-Tasten), digitale Bilder, Videoanimationen und Ähnliches.
  • In einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die zu verwendende Grafiken darstellen. Jeder Grafik wird optional ein zugehöriger Code zugewiesen. Das Grafikmodul 132 empfängt von Anwendungen usw. einen oder mehrere Codes, die dafür anzuzeigende Grafiken, gegebenenfalls zusammen mit Koordinatendaten und anderen Eigenschaftsdaten von Grafiken angeben, und generiert dann Bildschirmdaten zur Ausgabe auf dem Anzeige-Controller 156.
  • Das haptische Feedback-Modul 133 weist verschiedene Softwarekomponenten zum Generieren von Anweisungen auf, die von Generator(en) 167 von taktilen Ausgaben verwendet werden, um taktile Ausgaben an einer oder mehreren Positionen auf dem Gerät 100 als Reaktion auf Benutzerinteraktionen mit dem Gerät 100 zu erzeugen.
  • Das Texteingabemodul 134, das eine Komponente eines Grafikmoduls 132 sein kann, stellt Soft-Tastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, IM 141, Browser 147 und beliebigen anderen Anwendungen, die eine Texteingabe benötigen).
  • Das GPS-Modul 135 bestimmt die Position des Geräts und stellt diese Informationen zur Verwendung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung von Anrufen basierend auf dem Standort; der Kamera 143 als Bild-/Video-Metadaten; und für Anwendungen, die positionsbasierte Services, wie Wetter-Widgets, lokale Telefonbuch-Widgets und Karten-/Navigation-Widgets bereitstellen).
  • Die Anwendung 136 kann die folgende Module (oder Gruppe von Anweisungen) oder eine Teilmenge oder eine Obermenge davon enthalten:
    • • Kontaktmodul 137 (manchmal auch als Adressbuch oder Kontaktliste bezeichnet);
    • • Telefonmodul 138;
    • • Videokonferenzmodul 139;
    • • E-Mail-Client-Modul 140;
    • • Instant Messaging(IM)-Modul 141;
    • • Workout-Unterstützungsmodul 142;
    • • Kameramodul 143 für Stand- und/oder Videobilder;
    • • Bildverwaltungsmodul 144;
    • • Videowiedergabemodul;
    • • Musikwiedergabemodul;
    • • Browsermodul 147;
    • • Kalendermodul 148;
    • • Widget-Module 149, die eine oder mehrere umfassen können von einem: Wetter-Widget 149-1, Aktien-Widget 149-2, Taschenrechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5 und anderen Widgets, die vom Benutzer bezogen werden, wie auch vom Benutzer erstellte Widgets 149-6;
    • • Widget-Erstellungsmodul 150 zum Erstellen von vom Benutzer erstellten Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikwiedergabemodul 152, das das Videowiedergabemodul und das Musikwiedergabemodul zusammenfasst;
    • • Notizmodul 153;
    • • Kartenmodul 154; und/oder
    • • Onlinevideomodul 155.
  • Zu den Beispiele von anderen Anwendungen 136, die im Speicher 102 gespeichert sein können, gehören andere Textbearbeitungsanwendungen, andere Bildverarbeitungsanwendungen, Zeichnungsanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, die Verwaltung digitaler Rechte, Spracherkennung und Sprachwiedergabe.
  • Zusammen mit dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 kann das Kontaktmodul 137 dazu verwendet werden, ein Adressbuch oder eine Kontaktliste zu verwalten (z. B. im internen Anwendungszustand 192 des Kontaktmoduls 137 im Speicher 102 oder im Speicher 370 gespeichert), das umfasst: Hinzufügen von Namen in das Adressbuch; Löschen von Namen aus dem Adressbuch; Zuweisen von Telefonnummer(n), E-Mail-Adresse(n), Postadresse(n) oder anderen Informationen mit einem Namen; Zuweisen eines Bilds zu einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder E-Mail-Adressen zum Initiieren und/oder Ermöglichen der Kommunikation über das Telefon 138, das Videokonferenzmodul 139, die E-Mail 140 oder IM 141 usw.
  • Zusammen mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 kann das Telefonmodul 138 zum Eingeben einer Folge von Zeichen verwendet werden, die einer Telefonnummer entsprechen, auf eine oder mehrere Telefonnummern im Kontaktmodul 137 zugreifen, eine eingegebene Telefonnummer bearbeiten, eine entsprechende Telefonnummer wählen, ein Gespräch führen und das Gespräch am Ende des Gesprächs beenden bzw. auflegen. Wie oben beschrieben, kann die Funkkommunikation beliebige einer Mehrzahl von Kommunikationsstandards, -protokollen und -technologien verwenden.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Touchscreen 112, dem Anzeige-Controller 156, dem optischen Sensor 164, dem optischen Sensor-Controller 158, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem Kontaktmodul 137 und dem Telefonmodul 138 weist das Videokonferenzmodul 139 ausführbare Anweisungen auf, um eine Videokonferenz zwischen einem Benutzer und einem oder mehreren Teilnehmern gemäß den Anweisungen des Benutzers zu initiieren, durchzuführen und zu beenden.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das E-Mail-Client-Modul 140 ausführbare Anweisungen auf, um als Reaktion auf Anweisungen eines Benutzers E-Mails zu erstellen, zu senden, zu empfangen und zu verwalten. Zusammen mit dem Bildverwaltungsmodul 144 vereinfacht das E-Mail-Client-Modul das Erstellen und Senden von E-Mails von mit dem Kameramodul 143 aufgenommenen Stand- oder Videobildern 140 erheblich.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Instant Messaging-Modul 141 ausführbare Anweisungen auf, um eine Folge von Zeichen einzugeben, die einer Instant Message entsprechen, um zuvor eingegebene Zeichen zu bearbeiten, um eine entsprechende Instant Message zu senden, (z. B. unter Verwendung eines Short Message Service-(SMS)- oder Multimedia Message Service(MMS)-Protokolls für telefoniebasierte Instant Messages oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Instant Messages), um Instant Messages zu empfangen und um empfangene Instant Messages anzuzeigen. In einigen Ausführungsformen können gesendete und/oder empfangene Instant Messages umfassen Grafiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie in einem MMS und/oder einen Enhanced Messaging Service (EMS) unterstützt werden. Gemäß der Verwendung in dem vorliegenden Dokument bezieht sich „Instant Messaging” auf telefoniebasierte Nachrichten (z. B. Nachrichten, die mittels SMS oder MMS gesendet wurden) und auf internetbasierte Nachrichten (z. B. Nachrichten, die mittels XMPP, SIMPLE oder IMPS gesendet wurden).
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musikwiedergabemodul weist das Workout-Unterstützungsmodul 142 ausführbare Anweisungen auf, um Workouts zu erstellen (z. B. mit Zeit-, Distanz- und/oder Kalorienverbrennungsvorgaben); um mit Workout-Sensoren zu kommunizieren (Sportgeräte), um Workout-Sensordaten zu empfangen; um Sensoren zu kalibrieren, die zur Überwachung eines Workouts verwendet werden; um Musik für einen Workout auszuwählen und wiederzugeben; und um Workout-Daten anzuzeigen, zu speichern und zu senden.
  • In Verbindung mit dem Touchscreen 112, dem Anzeige-Controller 156, dem bzw. den optischen Sensor(en) 164, dem optischen Sensor-Controller 158, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Bildverwaltungsmodul 144 weist das Kameramodul 143 ausführbare Anweisungen auf, um Standbilder oder Videos (einschließlich einem Videostream) zu erfassen und diese im Speicher 102 zu speichern, die Eigenschaften eines Standbilds oder Videos zu bearbeiten oder ein Standbild oder Video aus dem Speicher 102 zu löschen.
  • In Verbindung mit dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 weist das Bildverarbeitungsmodul 144 ausführbare Anweisungen auf, um Stand- und/oder Videobilder anzuordnen, zu ändern (d. h. bearbeiten) oder anderweitig zu manipulieren, zu benennen, zu löschen, darzustellen (z. B. in einer digitalen Bildershow oder einem Album) und zu speichern.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Browser-Modul 147 ausführbare Anweisungen auf, um im Internet nach Benutzeranweisungen zu browsen, einschließlich der Suche, dem Verbinden mit, dem Empfangen und Anzeigen von Webseiten oder Teilen davon, wie auch von Anhängen und anderen Dateien, die auf Webseiten verlinkt sind.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browsermodul 147 weist das Kalendermodul 148 ausführbare Anweisungen auf, um Kalender und mit Kalendern verbundene Daten (zum Beispiel Kalendereinträge To-do-Listen usw.) gemäß Benutzeranweisungen zu erstellen, anzuzeigen, zu bearbeiten und zu speichern.
  • In Verbindung mit der im HF Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browser-Modul 147 sind die Widget-Module 149 Minianwendungen, die von einem Benutzer heruntergeladen und verwendet werden (zum Beispiel das Wetter-Widget 149-1, Aktien-Widget 149-2, Rechner-Widget 149-3, Wecker-Widget 149-4 und das Wörterbuch-Widget 149-5) oder vom Benutzer erstellt werden (zum Beispiel vom Benutzer erstelltes Widget 149-6). In einigen Ausführungsformen weist ein Widget eine HTML(Hypertext Markup Language)-Datei, eine CSS(Cascading Style Sheets)-Datei und eine JavaScript-Datei auf. In einigen Ausführungsformen weist ein Widget eine XML(Extensible Markup Language)-Datei und eine JavaScript-Datei auf (z. B. Yahoo!-Widgets).
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browser-Modul 147 kann das Widget-Erstellungsmodul 150 von einem Benutzer zum Erstellen von Widgets verwendet werden (z. B. Umwandlung eines von einem Benutzer angegebenen Bereichs einer Webseite in ein Widget).
  • In Verbindung mit dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Suchmodul 151 ausführbare Anweisungen auf, um Text-, Musik-, Sound-, Bild-, Video- und/oder andere Dateien im Speicher 102 gemäß Benutzeranweisungen zu suchen, die einem oder mehreren Suchkriterien entsprechen (z. B. einem oder mehreren vom Benutzer angegebenen Suchbegriffen).
  • In Verbindung mit dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem HF-Schaltkreis 108 und dem Browser-Modul 147 weist das Video- und Musikwiedergabemodul 152 ausführbare Anweisungen auf, die dem Benutzer das Herunterladen und die Wiedergabe von aufgezeichneten Musik- und anderer Sound-Dateien ermöglichen, die in einem oder mehreren Dateiformaten gespeichert sind, wie MP3- oder AAC-Dateien, und ausführbare Anweisungen, um Videos anzuzeigen, darzustellen oder anderweitig wiederzugeben (z. B. auf dem Touchscreen 112 oder über den externen Port 124 auf einer externen angeschlossenen Anzeige). In einigen Ausführungsformen weist das Gerät 100 optional die Funktionalität eines MP3-Players auf, wie eines iPods (Markenzeichen der Apple Inc.).
  • In Verbindung mit dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Notizmodul 153 ausführbare Anweisungen auf, um gemäß Anweisung eines Benutzers Notizen, To-Do-Listen und Ähnliches zu erstellen und zu verwalten.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browser-Modul 147 kann das Kartenmodul 154 zum Empfangen, Anzeigen, Bearbeiten und Speichern von Karten und zu Karten gehörenden Daten (z. B. Fahrrichtungen, Daten zu Einkaufsmöglichkeiten und anderen interessanten Punkten an einem oder nahe einem bestimmten Standort oder andere standortbasierte Daten) gemäß Benutzeranweisungen verwendet werden.
  • In Verbindung mit dem Touchscreen 112, dem Anzeige-Controller 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem HF-Schaltkreis 108, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browser-Modul 147 weist das Online-Video-Modul 155 Anweisungen auf, mit denen der Benutzer auf Videos zugreifen, sie durchsuchen, empfangen (z. B. durch Streamen und/oder Download), wiedergeben (z. B. auf dem Touchscreen oder über den externen Port 124 auf einer extern angeschlossenen Anzeige), eine E-Mail mit einem Link zu einem bestimmten Online-Video senden und anderweitig Online-Videos in einem oder mehreren Dateiformaten, wie H.264, verwalten kann. In einigen Ausführungsformen wird ein Instant Messaging-Modul 141 anstelle eines E-Mail-Client-Moduls 140 verwendet, um einen Link zu einem bestimmten Online-Video zu senden. Weitere Beschreibungen der Online-Videoanwendung können in der U.S.-amerikanischen vorläufigen Patentanmeldung-Nr. 60/936,562, „Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos”, die am 20. Juli 2007 eingereicht wurde, und der U.S.-amerikanischen Patentanmeldung-Nr. 11/968,067, „Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos”, die am 31. Dezember 2007 eingereicht wurde, nachgelesen werden, deren Inhalte hier durch Bezugnahme in ihrer Gesamtheit enthalten sind.
  • Ein jedes der oben angegebenen Module und jede der Anwendungen entspricht einer Gruppe von ausführbaren Anweisungen zum Durchführen von einer oder mehreren oben beschriebenen Funktionen und den in dieser Anmeldung beschriebenen Verfahren (z. B. computerimplementierte Verfahren und andere Informationsverarbeitungsverfahren, die im vorliegenden Dokument beschrieben werden). Diese Module (z. B. Gruppen von Anweisungen) müssen in verschiedenen Ausführungsformen nicht als eigenständige Softwareprogramme, Prozeduren oder Module implementiert werden, und die verschiedenen Teilmengen dieser Module können kombiniert oder anderweitig neu angeordnet werden. Zum Beispiel kann das Videowiedergabemodul mit dem Musikwiedergabemodul in ein einzelnes Modul kombiniert werden (z. B. Video- und Musikwiedergabemodul 152, 1A). In einigen Ausführungsformen kann der Speicher 102 eine Teilmenge der oben angegebenen Module und Datenstrukturen speichern. Weiterhin kann der Speicher 102 weitere Module und Datenstrukturen speichern, die oben nicht beschrieben wurden.
  • In einigen Ausführungsformen ist das Gerät 100 ein Gerät, bei dem eine Operation einer bestimmten Gruppe von Funktionen auf dem Gerät ausschließlich durch einen Touchscreen und/oder ein Touchpad ausgeführt wird. Durch Verwendung eines Touchscreens und/oder eines Touchpads als primäre Eingabesteuerungseinrichtung zum Betrieb des Geräts 100 kann die Anzahl der physischen Eingabesteuerungseinrichtungen (wie Druckknöpfe, Wählelemente und Ähnliches) auf dem Gerät 100 reduziert werden.
  • Die bestimmte Gruppe von Funktionen, die ausschließlich über einen Touchscreen und/oder ein Touchpad ausgeführt werden, beinhalten optional die Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad bei einer Berührung durch den Benutzer das Gerät 100 von jeder auf dem Gerät 100 angezeigten Benutzerschnittstelle zu einem Hauptmenü, Home-Menü oder obersten Menü. In solchen Ausführungsformen wird eine „Menüschaltfläche” unter Verwendung eines Touchpads implementiert. In einigen anderen Ausführungsformen ist die Menüschaltfläche eine physische Drucktaste oder eine andere physische Eingabesteuerungseinrichtung anstelle eines Touchpads.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung gemäß einigen Ausführungsformen darstellt. In einigen Ausführungsformen weist der Speicher 102 (1A) oder 370 (3) einen Ereignissortierer 170 (z. B. im Betriebssystem 126) und eine entsprechende Anwendung 136-1 auf (z. B. eine beliebige der oben erwähnten Anwendungen 137 bis 151, 155, 380 bis 390). Der Ereignissortierer 170 empfängt Ereignisinformationen und bestimmt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1, an die die Ereignisinformationen geliefert werden sollen. Der Ereignissortierer 170 weist einen Ereignismonitor 171 und ein Event-Dispatcher-Modul 174 auf. In einigen Ausführungsformen weist die Anwendung 136-1 einen internen Anwendungszustand 192 auf, der die auf der berührungsempfindlichen Anzeige 112 angezeigten aktuellen Anwendungsansicht(en) angibt, wenn die Anwendung aktiv ist oder ausgeführt wird. In einigen Ausführungsformen wird ein Geräte-/globaler interner Zustand 157 vom Ereignissortierer 170 zur Bestimmung verwendet, welche Anwendung(en) aktuell aktiv ist bzw. sind, und der interne Anwendungszustand 192 wird vom Ereignissortierer 170 zur Bestimmung der Anwendungsansichten 191 bestimmt, an die die Ereignisinformationen geliefert werden sollen.
  • In einigen Ausführungsformen weist der interne Anwendungszustand 192 weitere Informationen auf, wie eine oder mehrere von: Wiederaufnahmeinformationen, die verwendet werden sollen, wenn die Anwendung 136-1 die Ausführung wieder aufnimmt, Benutzerschnittstellen-Zustandsinformationen, die von der Anwendung 136-1 angezeigt oder für die Anzeige darauf bereite Informationen angeben, eine Zustandswarteschlange, um dem Benutzer das Zurückgehen zu einem vorhergehenden Zustand oder Ansicht der Anwendung 136-1 zu ermöglichen, und eine Wiederholungs-/Rückgängig-Warteschlange von vorhergehenden vom Benutzer durchgeführten Aktionen.
  • Der Ereignismonitor 171 empfängt Ereignisinformationen von der Peripheriegeräte-Benutzerschnittstelle 118. Zu Ereignisinformationen gehören Informationen über ein untergeordnetes Ereignis (z. B. eine Benutzerberührung der berührungsempfindlichen Anzeige 112 als Teil einer Multitouch-Geste). Die Peripheriegeräte-Benutzerschnittstelle 118 überträgt Informationen, die sie von dem E/A-Subsystem 106 oder einem Sensor, wie dem Näherungssensor 166, dem/den Beschleunigungsmesser(n) 168 und/oder dem Mikrofon 113 (über den Audioschaltkreis 110) empfängt. Zu den Informationen, die die Peripheriegeräte-Benutzerschnittstelle 118 vom E/A-Subsystem 106 empfängt, gehören Informationen von der berührungsempfindlichen Anzeige 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 in bestimmten Intervallen Anforderungen an die Peripheriegeräte-Benutzerschnittstelle 118. In Reaktion darauf sendet die Peripheriegeräte-Benutzerschnittstelle 118 Ereignisinformationen. In anderen Ausführungsformen sendet die Peripheriegeräte-Benutzerschnittstelle 118 Ereignisinformationen nur, wenn ein bedeutsames Ereignis vorliegt (z. B. der Empfang einer Eingabe über einen bestimmten Geräuschgrenzwert und/oder länger als eine bestimmte Dauer). In einigen Ausführungsformen weist der Ereignissortierer 170 auch ein Bestimmungsmodul 172 der Eingabeansicht und/oder ein Bestimmungsmodul 173 zum Erkennen aktiver Ereigniserkennungsmodule auf.
  • Das Bestimmungsmodul 172 der Eingabeansicht stellt Software-Prozeduren zum Bestimmen bereit, an welcher Position ein Unterereignis in einer oder mehreren Ansichten stattgefunden hat, wenn die berührungsempfindliche Anzeige 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Steuerelementen und anderen Elementen, die einem Benutzer auf der Anzeige angezeigt werden.
  • Ein weiterer Aspekt der einer Anwendung zugeordneten Benutzerschnittstelle ist eine Gruppe von Ansichten, die hier auch manchmal als Anwendungsansichten oder Benutzerschnittstellenfenster bezeichnet werden, in denen Informationen angezeigt werden und Gesten basierend auf Berührungen durchgeführt werden. Die Anwendungsansichten (einer betreffenden Anwendung), in denen eine Berührung erfasst wird, können Programmierebenen in einer Programmier- oder Ansichtshierarchie der Anwendung entsprechen. Zum Beispiel kann die Ansicht auf der untersten Ebene, in der eine Berührung erfasst wird, als Eingabeansicht (Hit View) bezeichnet werden, und die Gruppe von Ereignissen, die als korrekte Eingaben erkannt werden, können wenigstens teilweise in der Eingabeansicht basierend auf der ersten Berührung bestimmt werden, die eine berührungsbasierte Geste beginnt.
  • Das Bestimmungsmodul 172 der Eingabeansicht empfängt Informationen, die sich auf untergeordnete Ereignisse einer berührungsbasierten Geste beziehen. Wenn für eine Anwendung mehrere Ansichten in einer Hierarchie angeordnet sind, bestimmt das Bestimmungsmodul 172 der Eingabeansicht eine Eingabeansicht als die unterste Ansicht in der Hierarchie, die das untergeordnete Ereignis verarbeiten soll. In den meisten Fällen ist die Eingabeansicht die Ansicht auf der untersten Ebene, in der ein initiierendes untergeordnetes Ereignis auftritt (z. B. das erste untergeordnete Ereignis in einer Folge untergeordneter Ereignisse, die ein Ereignis oder ein mögliches Ereignis bilden). Sobald die Eingabeansicht durch das Bestimmungsmodul 172 der Eingabeansicht bestimmt ist, erhält die Eingabeansicht in der Regel alle untergeordneten Ereignisse, die sich auf die gleiche Berührung oder Eingabequelle beziehen, für die es als Eingabeansicht bestimmt wurde.
  • Das Bestimmungsmodul 173 zum Erkennen aktiver Ereigniserkennungsmodule bestimmt, welche Ansicht oder Ansichten in einer Ansichtshierarchie eine bestimmte Folge von untergeordneten Ereignissen empfangen sollen. In einigen Ausführungsformen bestimmt das Bestimmungsmodul 173 zum Erkennen aktiver Ereigniserkennungsmodule nur, dass die Eingabeansicht eine bestimmte Folge von untergeordneten Ereignissen erhalten soll. In anderen Ausführungsformen bestimmt das Bestimmungsmodul 173 zum Erkennen aktiver Ereigniserkennungsmodule, dass alle Ansichten, die die physische Position des untergeordneten Ereignisses beinhalten, aktiv beteiligte Ansichten sind, und bestimmt daher, dass alle aktiv beteiligten Ansichten eine bestimmte Folge von untergeordneten Ereignissen erhalten sollen. In anderen Ausführungsformen, selbst wenn berührungsbasierte untergeordnete Ereignisse vollständig auf einen Bereich von nur einer bestimmten Ansicht beschränkt sind, gelten höhere Ansichten in der Hierarchie immer noch als aktiv beteiligte Ansichten.
  • Das Ereignis-Dispatcher-Modul 174 verteilt die Ereignisinformationen an ein Ereigniserkennungsmodul (z. B. das Ereigniserkennungsmodul 180). In Ausführungsformen mit einem Bestimmungsmodul 173 zum Erkennen aktiver Ereigniserkennungsmodule übergibt das Ereignis-Dispatcher-Modul 174 die Ereignisinformationen an ein Ereigniserkennungsmodul, das von dem Bestimmungsmodul 173 zum Erkennen aktiver Ereigniserkennungsmodule bestimmt wurde. In einigen Ausführungsformen speichert das Ereignis-Dispatcher-Modul 174 die Ereignisinformationen in einer Ereigniswarteschlange, die durch den jeweiligen Ereignisempfänger 182 abgerufen werden.
  • In einigen Ausführungsformen enthält das Betriebssystem 126 einen Ereignissortierer 170. Alternativ weist die Anwendung 136-1 einen Ereignissortierer 170 auf. In wiederum anderen Ausführungsformen ist der Ereignissortierer 170 ein eigenständiges Modul oder ein Teil eines anderen im Speicher 102 gespeicherten Moduls, wie des Kontakt-/Bewegungsmoduls 130.
  • In einigen Ausführungsformen weist die Anwendung 136-1 eine Mehrzahl von Event Handlern (Ereignisverarbeitungsmodulen) 190 und eine oder mehrere Anwendungsansichten 191 auf, wobei jede davon Anweisungen zum Verarbeiten von Berührungsereignissen aufweist, die in einer betreffenden Ansicht der Benutzerschnittstelle der Anwendung auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 weist ein oder mehrere Ereigniserkennungsmodule 180 auf. In der Regel weist eine betreffende Anwendungsansicht 191 eine Mehrzahl von Ereigniserkennungsmodulen 180 auf. In anderen Ausführungsformen sind eine oder mehrere Ereigniserkennungsmodule 180 Teil eines eigenen Moduls, wie eines Benutzerschnittstellenkits (nicht dargestellt) oder eines Objekts auf einer höheren Ebene, von dem die Anwendung 136-1 Methoden und andere Eigenschaften erbt. In einigen Ausführungsformen weist ein betreffender Event Handler 190 eines oder mehrere auf von einem: Daten-Updater 176, Objekt-Updater 177, GUI-Updater 178 und/oder Ereignisdaten 179, die vom Ereignissortierer 170 empfangen wurden. Der Event Handler 190 kann den Daten-Updater 176, den Objekt-Updater 177 oder den GUI-Updater 178 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. Alternativ weisen eine oder mehrere Anwendungsansichten 171 einen oder mehrere jeweilige Event Handler 190 auf. Ebenso sind in einigen Ausführungsformen ein oder mehrere Daten-Updater 176, Objekt-Updater 177 und GUI-Updater 178 in einer jeweiligen Anwendungsansicht 191 enthalten.
  • Ein jeweiliges Ereigniserkennungsmodul 180 erhält Ereignisinformationen (z. B. Ereignisdaten 179) von einem Ereignissortierer 170 und bestimmt ein Ereignis aus den Ereignisinformationen. Das Ereigniserkennungsmodul 180 weist Ereignisempfänger 182 und Ereignisvergleicher 184 auf. In einigen Ausführungsformen weist das Ereigniserkennungsmodul 180 wenigstens eine Teilmenge auf von: Metadaten 183 und Ereigniszustellungsanweisungen 188 (die Zustellungsanweisungen für untergeordnete Ereignisse umfassen können).
  • Der Ereignisempfänger 182 empfängt Ereignisinformationen von dem Ereignissortierer 170. Die Ereignisinformationen enthalten Informationen über ein untergeordnetes Ereignis, zum Beispiel eine Berührung oder eine Berührungsbewegung. In Abhängigkeit von dem untergeordneten Ereignis weisen die Ereignisinformationen auch weitere Informationen auf, wie eine Position des untergeordneten Ereignisses. Wenn das untergeordnete Ereignis die Bewegung einer Berührung betrifft, können die Ereignisinformationen auch die Geschwindigkeit und die Richtung des untergeordneten Ereignisses enthalten. In einigen Ausführungsformen enthalten die Ereignisse die Drehung des Geräts von einer Ausrichtung in eine andere (z. B. von einer Hochformatausrichtung in eine Querformatausrichtung oder umgekehrt), und die Ereignisinformationen umfassen entsprechende Informationen über die aktuelle Ausrichtung (auch als Gerätelage bezeichnet) des Geräts.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformationen mit einem vordefinierten Ereignis oder Definitionen untergeordneter Ereignisse und bestimmt basierend auf dem Vergleich ein Ereignis oder untergeordnetes Ereignis oder bestimmt oder aktualisiert den Zustand eines Ereignisses oder untergeordneten Ereignisses. In einigen Ausführungsformen enthält das Betriebssystem 184 Ereignisdefinitionen 186. Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. bestimmte Folgen von untergeordneten Ereignissen) zum Beispiel das Ereignis 1 (187-1), Ereignis 2 (187-2) und weitere. In einigen Ausführungsformen weisen untergeordnete Ereignisse in einem Ereignis (187) zum Beispiel den Beginn einer Berührung, das Ende einer Berührung, die Bewegung einer Berührung, den Abbruch einer Berührung und mehrfache Berührungen auf. In einem Beispiel ist die Definition für ein Ereignis 1 (187-1) ein doppeltes Antippen eines angezeigten Objekts. Das doppelte Antippen umfasst zum Beispiel eine erste Berührung (Berührungsbeginn) auf dem dargestellten Objekt für eine bestimmte Zeitspanne, das erste Abheben (Berührungsende) für eine bestimmte Zeitspanne, eine zweite Berührung (Berührungsbeginn) auf dem dargestellten Objekt für eine bestimmte Zeitspanne und ein zweites Abheben (Berührungsende) für eine bestimmte Zeitspanne. In einem anderen Beispiel lautet die Definition für ein Ereignis 2 (187-2) ein Ziehen auf einem angezeigten Objekt. Das Ziehen umfasst zum Beispiel eine Berührung (oder Kontakt) auf dem dargestellten Objekt für eine bestimmte Zeitspanne, eine Bewegung der Berührung über die berührungsempfindliche Anzeige 112 und das Abheben der Berührung (Berührungsende). In einigen Ausführungsformen umfasst das Ereignis auch Informationen zu einem oder mehreren zugehörigen Event Handlern 190.
  • In einigen Ausführungsformen weist die Ereignisdefinition 187 eine Definition eines Ereignisses für ein betreffendes Benutzerschnittstellenobjekt auf. In einigen Ausführungsformen führt der Ereignisvergleicher 184 einen Eingabetest für die Bestimmung durch, welches Benutzerschnittstellenobjekt einem untergeordneten Ereignis zugeordnet ist. Zum Beispiel führt in einer Anwendungsansicht, in der drei Benutzerschnittstellenobjekte auf der berührungsempfindlichen Anzeige 112 angezeigt werden, bei der Erfassung einer Berührung auf der berührungsempfindlichen Anzeige 112 der Ereignisvergleicher 184 einen Eingabetest zur Bestimmung durch, welches der drei Benutzerschnittstellenobjekte der Berührung (untergeordnetes Ereignis) zugeordnet ist. Wenn jedes angezeigte Objekt einem entsprechenden Event Handler 190 zugeordnet ist, bestimmt der Ereignisvergleicher mit dem Ergebnis des Eingabetests, welcher Event Handler 190 aktiviert werden soll. Zum Beispiel wählt der Ereignisvergleicher 184 einen dem untergeordneten Ereignis und dem den Eingabetest auslösenden Objekt zugeordneten Event Handler aus.
  • In einigen Ausführungsformen enthält die Definition eines entsprechenden Ereignisses (187) auch verzögerte Aktionen, die die Zustellung der Ereignisinformationen verzögern, bis nach dem bestimmt wurde, ob die Folge der untergeordneten Ereignisse dem Ereignistyp des Ereigniserkennungsmoduls entspricht oder nicht.
  • Wenn ein entsprechendes Ereigniserkennungsmodul 180 bestimmt, dass die Serie der untergeordneten Ereignisse mit keinen Ereignissen in Ereignisdefinitionen 186 übereinstimmt, gibt das entsprechende Ereigniserkennungsmodul 180 ein unmögliches Ereignis, fehlgeschlagenes Ereignis oder einen beendeten Zustand eines Ereignisses ein, nach dem nachfolgende untergeordnete Ereignisse der berührungsbasierten Geste ignoriert werden. In dieser Situation setzen andere Ereigniserkennungsmodule, sofern vorhanden, die für die Eingabeansicht weiterhin aktiv sind, die Verfolgung und Verarbeitung von untergeordneten Ereignissen einer fortgesetzten berührungsbasierten Geste fort.
  • In einigen Ausführungsformen weist ein entsprechendes Ereigniserkennungsmodul 180 Metadaten 183 mit konfigurierbaren Eigenschaften, Flags (Kennungen) und/oder Listen auf, die angeben, wie das Ereigniszustellungssystem eine Zustellung eines untergeordneten Ereignisses an aktiv beteiligte Ereigniserkennungsmodule durchführen soll. In einigen Ausführungsformen weisen die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen auf, die angeben, wie Ereigniserkennungsmodule miteinander interagieren können oder für die Interaktion miteinander ausgebildet sind. In einigen Ausführungsformen weisen die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen auf, die angeben, ob untergeordnete Ereignisse an wechselnde Ebenen in der Ansicht oder der Programmierhierarchie zugestellt werden.
  • In einigen Ausführungsformen aktiviert ein betreffendes Ereigniserkennungsmodul 180 einen dem Ereignis zugeordneten Event Handler 190, wenn ein oder mehrere bestimmte untergeordnete Ereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert ein entsprechendes Ereigniserkennungsmodul 180 mit dem Ereignis verknüpfte Ereignisinformationen an den Event Handler 190. Das Aktivieren eines Event Handlers 190 ist nicht mit dem Senden (und verzögerten Senden) untergeordneter Ereignisse an eine betreffende Eingabeansicht gleichzusetzen. In einigen Ausführungsformen setzt ein Ereigniserkennungsmodul 180 ein dem erkannten Ereignis zugeordnetes Flag, und der dem Flag zugeordnete Event Handler 190 nimmt das Flag und führt einen bestimmten Prozess durch.
  • In einigen Ausführungsformen weisen die Ereigniszustellungsanweisungen 188 Anweisungen zur Zustellung von untergeordneten Ereignissen auf, die Ereignisinformationen über ein untergeordnetes Ereignis zustellen, ohne einen Event Handler zu aktivieren. Stattdessen liefern die Zustellungsanweisungen des untergeordneten Ereignisses Informationen an Event Handler, die der Serie von untergeordneten Ereignissen zugeordnet sind, oder an aktiv beteiligte Ansichten. Die der Serie von untergeordneten Ereignissen oder aktiv beteiligten Ansichten zugeordneten Event Handler empfangen Ereignisinformationen und führen einen bestimmten Prozess durch.
  • In einigen Ausführungsformen erstellt der Daten-Updater 176 in der Anwendung 136-1 verwendete Daten und aktualisiert diese. Zum Beispiel aktualisiert der Daten-Updater 176 die im Kontaktmodul 137 verwendete Telefonnummer oder speichert eine im Videowiedergabemodul verwendete Videodatei. In einigen Ausführungsformen erstellt der Objekt-Updater 177 in der Anwendung 136-1 verwendete Objekte und aktualisiert diese. Zum Beispiel erstellt der Objekt-Updater 177 ein neues Benutzerschnittstellenobjekt oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Updater 178 aktualisiert die GUI. Zum Beispiel bereitet der GUI-Updater 178 Anzeigeinformationen vor und sendet sie an das Grafikmodul 132 zur Anzeige auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen umfasst der Event Handler 190 bzw. umfassen die Event Handler 190 den Daten-Updater 176, den Objekt-Updater 177 und den GUI-Updater 178 oder haben Zugriff darauf. In einigen Ausführungsformen sind ein oder mehrere Daten-Updater 176, Objekt-Updater 177 und GUI-Updater 178 in einem einzelnen Modul einer jeweiligen Anwendung 136-1 oder Anwendungsansicht 191 enthalten. In anderen Ausführungsformen sind sie in zwei oder mehr Software-Modulen enthalten.
  • Es versteht sich, dass die obige Erörterung bezüglich der Ereignisbehandlung von Benutzerberührungen auf berührungsempfindlichen Anzeigen auch für andere Formen der Benutzereingaben zur Bedienung von Multifunktionsgeräten 100 mit Eingabeeinrichtungen gilt, von denen nicht alle auf Touchscreens initiiert werden. Zum Beispiel werden optional eine Mausbewegung und das Herunterdrücken einer Maustaste, die optional mit einzelnen oder mehrfachen Betätigungen von Tastaturtasten oder dem Halten von Tastaturtasten koordiniert sind; Kontaktbewegungen wie Antippen, Ziehen, Scrollen (Durchblättern) usw. auf Touchpads; Eingaben von Stylus-Stiften; Bewegungen des Geräts; Sprachanweisungen; erfasste Augenbewegungen; biometrische Eingaben; und/oder eine beliebige Kombination davon optional als Eingaben verwendet, die untergeordneten Ereignissen entsprechen, die ein zu erkennendes Ereignis definieren.
  • 2 veranschaulicht ein tragbares multifunktionales Gerät 100 mit einem Touchscreen 112 gemäß einigen Ausführungsformen. Der Touchscreen zeigt optional eine oder mehrere Grafiken auf einer Benutzerschnittstelle (UI, User Interface) 200 an. In dieser Ausführungsform, wie auch in anderen im Folgenden beschriebenen, wird es einem Benutzer ermöglicht, ein oder mehrere der Grafiken durch Ausführen einer Geste auf der Grafik auszuwählen, zum Beispiel mit einem oder mehreren Fingern 202 (in der FIG. nicht maßstabsgetreu dargestellt) oder einem oder mehreren Stylus-Stiften 203 (in der FIG. nicht maßstabsgestreut dargestellt). In einigen Ausführungsformen erfolgt die Auswahl von einer oder mehreren Grafiken, wenn ein Benutzer den Kontakt mit einer oder mehreren Grafiken abbricht. In einigen Ausführungsformen weist die Geste optional ein oder mehrere Antippvorgänge auf, ein oder mehrere Wischvorgänge (von links nach rechts, rechts nach links, nach oben und/oder unten) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, nach oben und/oder unten) auf, der Kontakt mit dem Gerät 100 hat. In einigen Implementierungen oder Situationen wählt ein unabsichtlicher Kontakt mit einer Grafik die Grafik nicht aus. Zum Beispiel kann optional mit einer Wischgeste, mit der über ein Anwendungssymbol gewischt wird, nicht die zugehörige Anwendung ausgewählt werden, wenn die zur Auswahl gehörige Geste ein Antippen ist.
  • Das Gerät 100 kann auch eine oder mehrere physische Tasten aufweisen, wie eine „Home”- oder Menütaste 204. Wie oben beschrieben, kann die Menütaste 204 zur Navigation zu jeder beliebigen Anwendung 136 in einer Gruppe von Anwendungen verwendet werden, die auf dem Gerät 100 ausgeführt werden können. Alternativ wird in einigen Ausführungsformen die Menütaste als Soft-Taste in einer auf dem Touchscreen 112 angezeigten GUI implementiert.
  • In einigen Ausführungsformen umfasst das Gerät 100 einen Touchscreen 112, eine Menütaste 204, eine Drucktaste 206 zum Einschalten/Ausschalten des Geräts und Sperren des Geräts, einen oder mehrere Lautstärkeanpassungsregler 208, einen Subscriber Identity Module(SIM)-Kartenschlitz 210, eine Kopfhörerbuchse 212 und einen Docking-/externen Lade-Port 124. Die Drucktaste 206 dient optional zum Einschalten/Ausschalten des Geräts, indem die Taste heruntergedrückt und im heruntergedrückten Zustand eine bestimmte Zeitspanne gehalten wird; zum Sperren des Geräts durch Herunterdrücken der Taste und Loslassen der Taste, bevor das bestimmte Zeitintervall verstrichen ist; und/oder zum Entsperren des Geräts oder zum Initiieren eines Entsperrungsprozesses. In einer alternativen Ausführungsform akzeptiert das Gerät 100 Spracheingaben zur Aktivierung oder Deaktivierung einiger Funktionen über das Mikrofon 113. Das Gerät 100 umfasst optional auch einen oder mehrere Kontaktintensitätssensoren 165 zum Erfassen der Intensität von Kontakten auf dem Touchscreen 112 und/oder von einem oder mehreren taktilen Ausgabegeneratoren 187 zum Generieren taktiler Ausgaben für einen Benutzer des Geräts 100.
  • 3 ist ein Blockdiagramm eines beispielhaften multifunktionalen Geräts mit einer Anzeige und einer berührungsempfindlichen Oberfläche gemäß einigen Ausführungsformen. Das Gerät 300 muss nicht tragbar sein. In einigen Ausführungsformen ist das Gerät 300 ein Laptop-Computer, ein Desktop-Computer, ein Tablet-Computer, ein Multimediawiedergabegerät, ein Navigationsgerät, ein Lerngerät (wie ein Lernspielzeug für Kinder), ein Spielesystem oder ein Steuergerät (z. B. eine Steuereinheit im privaten Bereich oder eine industrielle Steuereinheit). Das Gerät 300 weist in der Regel eine oder mehrere Verarbeitungseinheiten (CPUs) 310, eine oder mehrere Netzwerke oder andere Kommunikationsschnittstellen 360, Speicher 370 und eine oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten auf. Die Kommunikationsbusse 320 umfassen optional einen Schaltkreis (manchmal als Chipsatz bezeichnet), der die Kommunikation zwischen den Systemkomponenten verbindet und steuert. Das Gerät 300 beinhaltet eine Eingabe/Ausgabe(E/A bzw. Input/Output, I/O)-Benutzerschnittstelle 330, die eine Anzeige 340 aufweist, die in der Regel eine Touchscreen-Anzeige ist. Die E/A-Benutzerschnittstelle 330 umfasst optional eine Tastatur und/oder eine Maus (oder ein anderes Zeigegerät) 340 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Generieren von taktilen Ausgaben auf dem Gerät 300 (z. B. ähnlich dem/den taktilen Ausgabegenerator(en) 167, der/die oben mit Bezugnahme auf 1A beschrieben wurden), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche und/oder Kontaktintensitätssensoren ähnlich den/dem Kontaktintensitätssensor(en) 165, die oben mit Bezugnahme auf 1A beschrieben wurden). Der Speicher 370 weist Hochgeschwindigkeits-Direktzugriffspeicher auf, wie DRAM, SRAM, DDR RAM oder andere Direktzugriffs-Solid State-Speichergeräte; und weist optional nicht-flüchtigen Speicher, wie ein oder mehrere Magnetplatten-Speichergeräte, optische Platten-Speichergeräte, Flash-Speichergeräte oder andere nicht-flüchtige Solid-State-Speichergeräte auf. Der Speicher 370 weist optional ein oder mehrere von der/den CPU(s) 310 entfernt angeordneten Speichergeräte auf. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Datenstrukturen, die im Speicher 102 des tragbaren multifunktionalen Geräts 100 (1A) gespeichert sind, oder eine Teilmenge davon. Darüber hinaus speichert der Speicher 370 optional weitere Programme, Module und Datenstrukturen, die nicht im Speicher 102 des tragbaren Multifunktionsgeräts 100 vorhanden sind. Zum Beispiel speichert der Speicher 370 des Geräts 300 optional das Zeichenmodul 380, das Präsentationsmodul 382, das Textbearbeitungsmodul 384, das Website-Erstellungsmodul 386, das Platten-Authoring-Modul 388 und/oder das Tabellenkalkulationsmodul 390, während der Speicher 102 des tragbaren Multifunktionsgeräts 100 (1A) optional diese Module nicht speichert.
  • Ein jedes der oben angegebenen Elemente in 3 kann auf einem oder mehreren zuvor erwähnten Speichergeräten gespeichert werden. Ein jedes der oben bestimmten Module entspricht einer Gruppe von Anweisungen zum Durchführen einer oben beschriebenen Funktion. Die oben bestimmten Module oder Programme (z. B. Gruppen von Anweisungen) müssen in verschiedenen Ausführungsformen nicht als eigenständige Softwareprogramme, Prozeduren oder Module implementiert werden, und die verschiedenen Teilmengen dieser Module können kombiniert oder anderweitig neu angeordnet werden. In einigen Ausführungsformen kann der Speicher 370 eine Teilmenge der oben angegebenen Module und Datenstrukturen speichern. Weiterhin kann der Speicher 370 weitere Module und Datenstrukturen speichern, die oben nicht beschrieben wurden.
  • Es wird nun auf Ausführungsformen von Benutzerschnittstellen eingegangen, die auf zum Beispiel tragbaren multifunktionalen Geräten 100 implementiert sein können.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einem tragbaren Multifunktionsgerät 100 gemäß einigen Ausführungsformen. Ähnliche Benutzerschnittstellen können auf dem Gerät 300 implementiert werden. In einigen Ausführungsformen weist die Benutzerschnittstelle 400 die folgenden Elemente oder eine Teilmenge oder Obermenge davon auf:
    • • Signalstärkenindikator(en) 402 zur drahtlosen Kommunikation, wie für Mobilfunk- und Wi-Fi-Signale;
    • • Zeit 404;
    • • Bluetooth-Indikator 405;
    • • Batteriestatus-Indikator 406;
    • • Der Ablagebereich 408 mit Symbolen für häufig verwendete Anwendungen, wie:
    • – Symbol 416 für ein Telefonmodul 138 mit der Bezeichnung „Telefon”, das optional einen Indikator 414 für die Anzahl der verpassten Anrufe oder Nachrichten auf dem Anrufbeantworter aufweist;
    • – Symbol 418 für das E-Mail-Client-Modul 140 mit der Bezeichnung „Mail”, das optional einen Indikator 410 für die Anzahl der ungelesenen E-Mails aufweist;
    • – Symbol 420 für das Browsermodul 147 mit der Bezeichnung „Browser”;
    • – Symbol 422 für das Video- und Musikwiedergabemodul 152, das auch als iPod(Markenzeichen von Apple Inc.)-Modul mit der Bezeichnung „iPod” bezeichnet wird; und
    • • Symbole für andere Anwendungen, wie:
    • – Symbol 424 für das IM-Modul 141 mit der Bezeichnung „Messages”;
    • – Symbol 426 für das Kalendermodul 148 mit der Bezeichnung „Kalender”
    • – Symbol 428 für das Bildverwaltungsmodul 144 mit der Bezeichnung „Fotos”;
    • – Symbol 430 für das Kameramodul 143 mit der Bezeichnung „Kamera”;
    • – Symbol 432 für das Online-Video-Modul 155 mit der Bezeichnung „Online-Video”;
    • – Symbol 434 für das Aktien-Widget 149 mit der Bezeichnung „Aktien”;
    • – Symbol 436 für das Kartenmodul 154 mit der Bezeichnung „Karten”;
    • – Symbol 438 für das Wetter-Widget 149 mit der Bezeichnung „Wetter”;
    • – Symbol 440 für das Uhr-Widget 149 mit der Bezeichnung „Uhr”;
    • – Symbol 442 für das Workout-Unterstützungsmodul 142 mit der Bezeichnung „Workout-Unterstützung”;
    • – Symbol 444 für das Notizmodul 153 mit der Bezeichnung „Notizen”;
    • – Symbol 446 für eine Einstellungsanwendung oder -modul mit der Bezeichnung „Einstellungen”, die Zugriff auf Einstellungen für das Gerät 100 und die verschiedenen Anwendungen 136 davon bereitstellt.
  • Es ist hervorzuheben, dass die in 4a dargestellten Symbolbezeichnungen nur beispielhafter Natur sind. Zum Beispiel kann das Symbol 422 für das Video- und Musikwiedergabemodul 142 optional mit „Musik” oder „Musik-Player” bezeichnet werden. Weitere Bezeichnungen werden optional für verschiedene Anwendungssymbole verwendet. In einigen Ausführungsformen weist eine Bezeichnung für ein betreffendes Anwendungssymbol einen Namen einer Anwendung entsprechend dem jeweiligen Anwendungssymbol auf. In einigen Ausführungsformen unterscheidet sich eine Bezeichnung für ein bestimmtes Anwendungssymbol von einem Namen einer Anwendung entsprechend dem bestimmten Anwendungssymbol.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle auf einem Gerät (z. B. Gerät 300 in 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355 in 3), das von der Anzeige 450 (z. B. der Touchscreen-Anzeige 112) getrennt ist. Das Gerät 300 weist optional auch einen oder mehrere Kontaktintensitätssensoren (z. B. einen oder mehrere Sensoren 357) zum Erfassen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche 451 und/oder einen oder mehrere taktilen Ausgabegeneratoren 359 zum Generieren von taktilen Ausgaben für einen Benutzer des Geräts 300 auf.
  • Obwohl einige der folgenden Beispiele mit Bezug auf Eingaben auf der Touchscreen-Anzeige 112 (in der die berührungsempfindliche Oberfläche und die Anzeige zusammengefasst sind) dargestellt werden, erfasst in einigen Ausführungsformen das Gerät Eingaben auf einer berührungsempfindlichen Oberfläche, die von der Anzeige getrennt ist, wie in 4B dargestellt. In einigen Ausführungsformen weist die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 454 in 4B) auf, die einer primären Achse (z. B. 453 4B) auf der Anzeige (z. B. 450) entspricht. Gemäß diesen Ausführungsformen erfasst das Gerät Kontakte (z. B. 460 und 462 in 4B) auf der berührungsempfindlichen Oberfläche 451 an Positionen, die jeweiligen Positionen auf der Anzeige entsprechen (z. B. entspricht 460 in 4B 468 und 462 entspricht 470). Auf diese Weise werden von dem Gerät auf der berührungsempfindlichen Oberfläche (z. B. 451 in 4B) erfassten Benutzereingaben (z. B. die Kontakte 460 und 462 und Bewegungen davon) von dem Gerät zum Manipulieren der Benutzerschnittstelle auf der Anzeige (z. B. 54 in 4B) des multifunktionalen Geräts verwendet, wenn die berührungsempfindliche Oberfläche von der Anzeige getrennt ist. Es versteht sich, dass ähnliche Verfahren optional für andere in diesem Dokument beschriebene Benutzerschnittstellen verwendet werden.
  • Darüber hinaus, während die folgenden Beispiele vor allem mit Bezugnahme auf Fingereingaben (z. B. Fingerkontakte, Fingertippgesten, Fingerwischgesten) ausgeführt werden, versteht es sich, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch Eingaben von einem anderen Eingabegerät (z. B. einer mausbasierten Eingabe oder einer Stylus-Eingabe) ersetzt werden. Zum Beispiel wird eine Wischgeste optional durch einen Mausklick ersetzt (z. B. anstelle eines Kontakts), gefolgt von einer Bewegung des Cursors entlang des Wischpfads (z. B. anstelle einer Bewegung des Kontakts). Als weiteres Beispiel wird eine Geste optional durch einen Mausklick ersetzt, während der Cursor sich an der Position der Tippgeste befindet (z. B. anstatt der Erfassung des Kontakts gefolgt vom Beenden der Erfassung des Kontakts). Ebenso, wenn mehrere Benutzereingaben gleichzeitig erfasst werden, versteht es sich, dass optional mehrere Computermäuse gleichzeitig verwendet werden, oder optional eine Maus und Fingerkontakte gleichzeitig verwendet werden.
  • 5A veranschaulicht ein beispielhaftes persönliches elektronisches Gerät 500. Das Gerät 500 enthält ein Gehäuse 502. In einigen Ausführungsformen kann das Gerät 500 einige oder alle der bezüglich der Geräte 100 und 300 (z. B. 1A bis 4B) beschriebenen Merkmale aufweisen. In einigen Ausführungsformen weist das Gerät 500 eine berührungsempfindliche Bildschirmanzeige 504 auf, die im Folgenden als Touchscreen 504 bezeichnet wird. Alternativ oder zusätzlich zum Touchscreen 504 kann das Gerät 500 eine Anzeige und eine berührungsempfindliche Oberfläche haben. Wie bei den Geräten 100 und 300 kann in einigen Ausführungsformen der Touchscreen 504 (oder die berührungsempfindliche Oberfläche) eine oder mehrere Intensitätssensoren zum Erfassen der Intensität von ausgeübten Kontakten (z. B. Berührungen) aufweisen. Der eine oder die mehreren Intensitätssensoren des Touchscreens 504 (oder der berührungsempfindlichen Oberfläche) kann Ausgabedaten vorsehen, die die Intensität der Berührungen darstellen. Die Benutzerschnittstelle von Gerät 500 kann auf Berührungen basierend auf deren Intensität reagieren, d. h., dass Berührungen in verschiedenen Intensitäten verschiedene Operationen der Benutzerschnittstelle auf dem Gerät 500 aufrufen können.
  • Techniken zum Erfassen und Verarbeiten der Berührungsintensität sind zum Beispiel in den verwandten Anmeldungen zu finden: internationale Patentanmeldung mit der Anmeldungsnr. PCT/US2013/040061 mit dem Titel „Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application”, die am 8. Mai 2013 eingereicht wurde, und internationale Patentanmeldung mit der Anmeldungsnr. PCT/US2013/069483 mit dem Titel „Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships”, die am 11. November 2013 eingereicht wurde, wobei jede davon durch Bezugnahme in ihrer Gesamtheit enthalten ist.
  • In einigen Ausführungsformen weist das Gerät 500 eine oder mehrere Eingabemechanismen 506 und 508 auf. Die Eingabemechanismen 506 und 508 können, sofern enthalten, physisch sein. Beispiele von physischen Eingabemechanismen sind Druckknöpfe und Drehmechanismen. In einigen Ausführungsformen weist das Gerät 500 eine oder mehrere Anbringungsmechanismen auf. Solche Anbringungsmechanismen, sofern enthalten, können die Anbringung des Geräts 500 zum Beispiel an Hüten, Brillen, Ohrringen, Schals, Hemden, Jacken, Armbändern, Uhrenarmbändern, Ketten, Hosen, Gürteln, Schuhen, Geldbeuteln, Rucksäcken usw. ermöglichen. Diese Anbringungsmechanismen können ermöglichen, dass das Gerät 500 von einem Benutzer getragen wird.
  • 5B stellt ein beispielhaftes persönliches elektronisches Gerät 500 dar. In einigen Ausführungsformen kann das Gerät 500 einige oder alle der bezüglich 1A, 1B und 3 beschriebenen Merkmale aufweisen. Das Gerät 500 besitzt einen Bus 512, der den E/A-Abschnitt 514 betriebsfähig mit einem oder mehreren Computerprozessoren 516 und dem Speicher 518 koppelt. Der E/A-Abschnitt 514 kann mit der Anzeige 504 verbunden werden, die eine berührungsempfindliche Komponente 522 und optional eine Komponente 524 zum Erfassen der Berührungsintensität haben kann. Darüber hinaus kann der E/A-Abschnitt 514 mit der Kommunikationseinheit 530 zum Empfangen von Anwendungs- und Betriebssystemdaten unter Verwendung von Wi-Fi-, Bluetooth-, Nahfeldkommunikation-(NFC, Near Field Communication-), Mobilfunk- und/oder anderen Funkkommunikationstechniken verbunden sein. Das Gerät 500 kann Eingabemechanismen 506 und/oder 508 enthalten. Der Eingabemechanismus 506 kann zum Beispiel ein drehbares Eingabegerät oder ein herunterdrückbares und drehbares Eingabegerät sein. Der Eingabemechanismus 508 kann in einigen Beispielen eine Taste sein.
  • Der Eingabemechanismus 508 kann in einigen Beispielen ein Mikrofon sein. Das persönliche elektronische Gerät 500 kann verschiedene Sensoren enthalten, wie einen GPS-Sensor 532, einen Beschleunigungsmesser 534, einen Richtungssensor 540 (z. B. Kompass), ein Gyroskop 536, einen Bewegungssensor 538 und/oder eine Kombination davon, welche alle betriebsfähig mit dem E/A-Abschnitt 514 verbunden sein können.
  • Der Speicher 518 des persönlichen elektronischen Geräts 500 kann ein nichtflüchtiges computerlesbares Speichermedium zum Speichern von von einem Computer ausführbaren Anweisungen sein, die zum Beispiel bei Ausführung durch einen Computerprozessor oder mehrere Computerprozessoren 516 die Computerprozessoren veranlassen können, die oben beschriebenen Techniken auszuführen, einschließlich der Prozesse 3300, 3400, 3500, 3600, 3700, 3800, 3900, 4000, 4600 und 4900 (33 bis 49). Die computerlesbaren Anweisungen können ebenso in jedem nicht-flüchtigen computerlesbaren Speichermedium gespeichert und/oder transportiert werden zur Verwendung oder in Verbindung mit einem Anweisungsausführungssystem, einer Anweisungsausführungsvorrichtung oder einer Anweisungsausführungseinrichtung, wie einem computerbasierten System, einem System mit einem Prozessor oder einem anderen System, das die Anweisungen aus dem Anweisungsausführungssystem, der Anweisungsausführungsvorrichtung oder der Anweisungsausführungseinrichtung abrufen und die Anweisungen ausführen kann. Zum Zwecke dieses Dokuments kann ein „nicht-flüchtiges computerlesbares Speichermedium” jedes Medium sein, das materiell computerausführbare Anweisungen zur Verwendung durch oder in Verbindung mit dem Anweisungsausführungssystem, der Anweisungsausführungsvorrichtung oder der Anweisungsausführungseinrichtung enthalten oder speichern kann. Das nicht-flüchtige computerlesbare Speichermedium kann beinhalten, ohne darauf beschränkt zu sein, magnetische, optische und/oder Halbleiterspeicher. Zu Beispielen eines solchen Speichers gehören Magnetplatten, optische Platten basierend auf CD-, DVD- oder Blue-Ray-Technologien, wie auch persistente Solid-State-Speicher wie Flash, Solid-State-Drives und Ähnliche. Das persönliche elektronische Gerät 500 ist nicht auf die Komponenten und Konfiguration von 5B beschränkt, sondern kann andere oder weitere Komponenten in mehreren Konfigurationen aufweisen.
  • Wie hier verwendet, bezieht sich der Begriff „Angebot” (Affordance) auf ein für den Benutzer interaktives, grafisches Benutzerschnittstellenobjekt, das auf dem Anzeigebildschirm der Geräte 100, 300 und/oder 500 angezeigt werden kann (1, 3 und 5). Zum Beispiel kann ein Bild (z. B. Symbol), eine Schaltfläche und Text (z. B. Hyperlink) jeweils ein Angebot darstellen.
  • Wie hier verwendet, bezieht sich der Begriff „Fokusselektor” auf ein Eingabeelement, das eine aktuelle Komponente einer Benutzerschnittstelle angibt, mit der ein Benutzer interagiert. In einigen Implementierungen, die einen Cursor oder eine andere Positionsmarkierung aufweisen, fungiert der Cursor als „Fokusselektor”, sodass beim Erfassen einer Eingabe (z. B. einer Eingabe des Herunterdrückens) auf einer berührungsempfindlichen Oberfläche (z. B. Touchpad 355 in 3 oder der berührungsempfindlichen Oberfläche 451 in 4B), während sich der Cursor über einem bestimmten Benutzerschnittstellenelement befindet (z. B. einer Schaltfläche, einem Fenster, einem Schieberegler oder einem anderen Benutzerschnittstellenelement) das betreffende Benutzerschnittstellenelement gemäß der erfassten Eingabe angepasst wird. In einigen Implementierungen, die eine Touchscreen-Anzeige beinhalten (z. B. ein berührungsempfindliches Anzeigesystem 112 in 1A oder einen Touchscreen 112 in 4A), die eine direkte Interaktion mit Benutzerschnittstellenelementen auf der Touchscreen-Anzeige ermöglichen, fungiert ein auf dem Touchscreen erfasster Kontakt als „Fokusselektor”, sodass beim Erfassen einer Eingabe (z. B. einer Eingabe des Herunterdrückens durch den Kontakt) auf der Touchscreen-Anzeige an einer Position eines bestimmten Benutzerschnittstellenelements (z. B. einer Schaltfläche, eines Fensters, eines Schiebereglers oder eines anderen Benutzerschnittstellenelements) das bestimmte Benutzerschnittstellenelement gemäß der erfassten Eingabe angepasst wird. In einigen Implementierungen wird der Fokus von einem Bereich einer Benutzerschnittstelle auf einen anderen Bereich der Benutzerschnittstelle versetzt, ohne dass eine entsprechende Bewegung eines Cursors oder eine Bewegung eines Kontakts auf einer Touchscreen-Anzeige erfolgt (z. B. durch Verwenden einer Tabulatortaste oder einer Pfeiltaste, um den Fokus von einer Schaltfläche auf eine andere Schaltfläche zu versetzen). In diesen Implementierungen wird der Fokusselektor gemäß der Verschiebung des Fokus zwischen verschiedenen Bereichen der Benutzerschnittstelle versetzt. Ungeachtet der spezifischen Form, die der Fokusselektor annimmt, ist der Fokusselektor im Allgemeinen das Benutzerschnittstellenelement (oder Kontakt auf einer Touchscreen-Anzeige), das durch den Benutzer gesteuert wird, um so die beabsichtigte Interaktion des Benutzers mit der Benutzerschnittstelle zu kommunizieren (z. B. durch Angabe für das Gerät des Elements der Benutzerschnittstelle, mit dem der Benutzer zu interagieren beabsichtigt). Zum Beispiel gibt die Position eines Fokusselektors (z. B. eines Cursors, eines Kontakts oder eines Auswahlfeldes) auf einer entsprechenden Schaltfläche an, während die Eingabe des Herunterdrückens auf der berührungsempfindlichen Oberfläche (z. B. Touchpad oder Touchscreen) erfasst wird, dass der Benutzer beabsichtigt, die betreffende Schaltfläche zu aktivieren (im Unterschied zu anderen Benutzerschnittstellenelementen, die auf einer Anzeige des Geräts angezeigt werden).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Begriff „charakteristische Intensität” eines Kontakts auf eine Eigenschaft des Kontakts basierend auf einer oder mehreren Intensitäten des Kontakts. In einigen Ausführungsformen basiert die charakteristische Intensität auf mehreren Intensitätsproben. Die charakteristische Intensität basiert optional auf einer bestimmten Anzahl von Intensitätsproben oder einer Gruppe von Intensitätsproben, die während einer bestimmten Zeitspanne (z. B. 0,05, 0,1, 0,2, 0,5, 1,2, 5, 10 Sekunden) bezüglich eines bestimmten Ereignisses (z. B. nach Erfassen des Kontakts, vor dem Erfassen des Abhebens des Kontakts, vor oder nach dem Erfassen des Beginns einer Bewegung des Kontakts, vor dem Erfassen einer Beendigung des Kontakts, vor oder nach Erfassen einer Erhöhung der Intensität des Kontakts und/oder vor oder nach dem Erfassen einer Abnahme der Intensität des Kontakts) gesammelt wurden. Eine charakteristische Kontaktintensität basiert optional auf einem oder mehreren von: einem Maximalwert der Kontaktintensitäten, einem mittleren Wert der Kontaktintensitäten, einem Durchschnittswert der Kontaktintensitäten, einem Wert im Top 10-Perzentil der Kontaktintensitäten, einem Wert am halben Maximalwert der Kontaktintensitäten, einem Wert am 90-prozentigen Maximalwert der Kontaktintensitäten oder Ähnliches. In einigen Ausführungsformen wird die Dauer des Kontakts zur Bestimmung der charakteristischen Intensität verwendet (z. B. wenn die charakteristische Kontaktintensität eine durchschnittliche Intensität über eine Zeitspanne ist). In einigen Ausführungsformen wird die charakteristische Intensität mit einer Gruppe von einem oder mehreren Intensitätsgrenzwerten verglichen, um zu bestimmen, ob vom Benutzer eine Operation durchgeführt wurde. Zum Beispiel kann die Gruppe von einem oder mehreren Intensitätsgrenzwerten einen ersten Intensitätsgrenzwert und einen zweiten Intensitätsgrenzwert umfassen. In diesem Beispiel führt ein Kontakt mit einer charakteristischen Intensität, die den ersten Grenzwert nicht übersteigt, zu einer ersten Operation, ein Kontakt mit einer charakteristischen Intensität, die den ersten Grenzwert übersteigt und den zweiten Grenzwert nicht übersteigt, führt zu einer zweiten Operation, und ein Kontakt mit einer charakteristischen Intensität, die den zweiten Grenzwert übersteigt, führt zu einer dritten Operation. In einigen Ausführungsformen wird ein Vergleich zwischen der charakteristischen Intensität und einem oder mehreren Grenzwerten zur Bestimmung herangezogen, ob eine oder mehrere Operationen durchgeführt werden sollen oder nicht (z. B. ob eine betreffende Operation durchgeführt werden soll, oder ob auf das Durchführen der betreffenden Operation verzichtet werden soll), anstatt zur Bestimmung verwendet zu werden, ob eine erste Operation oder eine zweite Operation durchgeführt werden soll.
  • In einigen Ausführungsformen wird ein Teil einer Geste zu Zwecken der Bestimmung einer charakteristischen Intensität verwendet. Zum Beispiel kann eine berührungsempfindliche Oberfläche einen fortgesetzten Wischkontakt empfangen, der von einer Startposition ausgeht und zu einer Endposition führt, wobei die Kontaktintensität an diesem Punkt ansteigt. In diesem Bereich kann die charakteristische Intensität des Kontakts an der Endposition nur auf einem Bereich des fortgesetzten Wischkontakts und nicht auf dem gesamten Wischkontakt basieren (z. B. nur der Abschnitt des Wischkontakts an der Endposition). In einigen Ausführungsformen kann ein Glättungsalgorithmus auf die Intensitäten des Wischkontakts vor der Bestimmung der charakteristischen Intensität des Kontakts angewendet werden. Zum Beispiel kann der Glättungsalgorithmus optional eines oder mehrere umfassen von: einem Glättungsalgorithmus mit nicht gewichteten gleitenden Mittelwerten, einem dreieckigen Glättungsalgorithmus, einem Median-Filter-Glättungsalgorithmus und/oder einem exponentiellen Glättungsalgorithmus. In einigen Fällen eliminieren diese Glättungsalgorithmen enge Spitzen oder Täler in den Intensitäten des Wischkontakts, um damit eine charakteristischen Intensität zu bestimmen.
  • Die Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche kann für einen oder mehrere Intensitätsgrenzwerte charakterisiert werden, wie einen Intensitätsgrenzwert der Kontakterfassung, einen Intensitätsgrenzwert für leichtes Drücken, einen Intensitätsgrenzwert für festes Drücken und/oder einen oder mehrere andere Intensitätsgrenzwerte. In einigen Ausführungsformen entspricht der Intensitätsgrenzwert für das leichte Drücken einer Intensität, bei der das Gerät Operationen durchführt, die in der Regel mit dem Klicken einer Taste einer physischen Maus oder eines Trackpads verbunden sind. In einigen Ausführungsformen entspricht der Intensitätsgrenzwert für das feste Drücken einer Intensität, bei der das Gerät Operationen durchführt, die sich in der Regel von den Operationen beim Klicken einer Taste einer physischen Maus oder eines Trackpads unterscheiden. In einigen Ausführungsformen, wenn ein Kontakt mit einer charakteristischen Intensität unter dem Intensitätsgrenzwert des leichten Drückens erfasst wird (z. B. und über einem nominalen Intensitätswert einer Kontakterfassung, unter dem der Kontakt nicht mehr erfasst wird), verschiebt das Gerät einen Fokusselektor gemäß der Verschiebung des Kontakts auf der berührungsempfindlichen Oberfläche, ohne eine Operation durchzuführen, die dem Intensitätsgrenzwert des leichten Drückens oder dem Intensitätsgrenzwert des festen Drückens zugeordnet ist. Im Allgemeinen, sofern nicht anders angegeben, sind diese Intensitätsgrenzwerte über die verschiedenen Gruppen von Benutzerschnittstellendarstellungen konsistent.
  • Eine Erhöhung der charakteristischen Intensität des Kontakts von einer Intensität unter dem Intensitätsgrenzwert des leichten Drückens auf eine Intensität zwischen dem Intensitätsgrenzwert des leichten Drückens und dem Intensitätswert des festen Drückens wird manchmal als Eingabe mit „leichtem Druck” bezeichnet. Eine Erhöhung der charakteristischen Intensität des Kontakts von einer Intensität unter dem Intensitätsgrenzwert des festen Drückens auf eine Intensität über dem Intensitätsgrenzwert des festen Drückens wird manchmal als Eingabe mit „festem Druck” bezeichnet. Eine Erhöhung der charakteristischen Intensität des Kontakts von einer Intensität unter dem Intensitätsgrenzwert der Kontakterfassung auf eine Intensität zwischen dem Intensitätsgrenzwert der Kontakterfassung und dem Intensitätsgrenzwert des leichten Drückens wird manchmal als eine Erfassung des Kontakts auf der berührungsempfindlichen Oberfläche bezeichnet. Eine Abnahme der charakteristischen Intensität des Kontakts von einer Intensität über dem Intensitätsgrenzwert der Kontakterfassung auf eine Intensität unter dem Intensitätsgrenzwert der Kontakterfassung wird manchmal als Erfassen des Abhebens des Kontakts von der berührungsempfindlichen Oberfläche bezeichnet. In einigen Ausführungsformen beträgt der Intensitätsgrenzwert der Kontakterfassung null. In einigen Ausführungsformen ist der Intensitätsgrenzwert der Kontakterfassung größer als null.
  • In einigen hier beschriebenen Ausführungsformen werden eine oder mehrere Operationen als Reaktion auf das Erfassen einer Geste durchgeführt, die eine entsprechende Drückeingabe oder in Reaktion auf das Erfassen der meinem entsprechenden Kontakt (oder einer Mehrzahl von Kontakten) durchgeführten jeweiligen Drückeingabe aufweist, wo die jeweilige Drückeingabe basierend auf wenigstens teilweise dem Erfassen einer Intensitätssteigerung des Kontakts (oder der Mehrzahl von Kontakten) über einen Intensitätsgrenzwert einer Drückeingabe erfasst wird. In einigen Ausführungsformen wird die entsprechende Operation als Reaktion auf das Erfassen einer Steigerung in der Intensität des entsprechenden Kontakts über den Intensitätsgrenzwert der Drückeingabe durchgeführt (z. B. das „Absenken” der entsprechenden Drückeingabe). In einigen Ausführungsformen umfasst die Drückeingabe eine Steigerung in der Intensität des jeweiligen Kontakts über den Intensitätsgrenzwert der Drückeingabe und eine nachfolgende Abnahme der Intensität des Kontakts unter den Intensitätsgrenzwert der Drückeingabe, und die jeweilige Operation wird als Reaktion auf das Erfassen der nachfolgenden Abnahme der Intensität des jeweiligen Kontakts unter den Drückeingabe-Grenzwert durchgeführt (z. B. einen „Aufwärtshub” der jeweiligen Drückeingabe).
  • In einigen Ausführungsformen nutzt das Gerät eine Intensitätshysterese, um zufällige Eingaben zu vermeiden, die manchmal als „Jitter” bezeichnet werden, wobei das Gerät einen Hystereseintensitätsgrenzwert mit einer bestimmten Beziehung zum Intensitätsgrenzwert der Drückeingabe definiert oder auswählt (z. B. ist der Hystereseintensitätsgrenzwert x Intensitätseinheiten niedriger als der Intensitätsgrenzwert der Drückeingabe oder der Hystereseintensitätsgrenzwert beträgt 75%, 90% oder einen vernünftigen Anteil am Intensitätsgrenzwert der Drückeingabe). Somit weist in einigen Ausführungsformen die Drückeingabe eine Steigerung in der Intensität des jeweiligen Kontakts über den Intensitätsgrenzwert der Drückeingabe auf und eine nachfolgende Abnahme der Intensität des Kontakts unter den Intensitätsgrenzwert der Drückeingabe, der dem Intensitätsgrenzwert der Drückeingabe entspricht, und die jeweilige Operation wird als Reaktion auf das Erfassen der nachfolgenden Abnahme der Intensität des jeweiligen Kontakts unter den Hystereseintensitätsgrenzwert durchgeführt (z. B. einen „Aufwärtshub” der jeweiligen Drückeingabe). Ebenso wird in einigen Ausführungsformen die Drückeingabe nur erfasst, wenn das Gerät eine Steigerung in der Intensität des Kontakts von einer Intensität an oder unter dem Hystereseintensitätsgrenzwert bei einer Intensität an oder über dem Intensitätsgrenzwert der Drückeingabe und optional eine nachfolgende Abnahme der Intensität des Kontakts auf eine Intensität an oder unter der Hystereseintensität erfasst, und die jeweilige Operation wird als Reaktion auf das Erfassen der Drückeingabe durchgeführt (z. B. abhängig von den Gegebenheiten, der Steigerung der Intensität des Kontakts oder der Abnahme der Intensität des Kontakts).
  • Zur einfacheren Erläuterung werden die Beschreibungen von Operationen, die als Reaktion auf eine Drückeingabe durchgeführt werden, die mit einem Intensitätsgrenzwert einer Drückeingabe verknüpft sind, oder als Reaktion auf eine Geste mit einer Drückeingabe durchgeführt werden, optional in Reaktion ausgelöst auf das Erfassen von entweder: einer Steigerung der Intensität eines Kontakts über den Intensitätsgrenzwert der Drückeingabe einer Steigerung der Kontaktintensität von einer Intensität unter dem Hystereseintensitätsgrenzwert auf eine Intensität über dem Intensitätsgrenzwert der Drückeingabe, eine Abnahme der Intensität des Kontakts unter den Intensitätsgrenzwert der Drückeingabe und/oder einer Abnahme der Intensität des Kontakts unter den Hystereseintensitätsgrenzwert, der dem Intensitätsgrenzwert der Drückeingabe entspricht. Darüber hinaus wird in Beispielen, in denen die Durchführung einer Operation als Reaktion auf das Erfassen einer Abnahme der Intensität eines Kontakts unter den Intensitätsgrenzwert der Drückeingabe beschrieben wird, die Operation optional in Reaktion auf das Erfassen einer Abnahme der Kontaktintensität unter einen Hystereseintensitätsgrenzwert durchgeführt, der unter dem Intensitätsgrenzwert der Drückeingabe entspricht und darunter liegt.
  • Gemäß der Verwendung in dem vorliegenden Dokument bezieht sich eine „installierte Anwendung” auf eine Softwareanwendung, die auf ein elektronisches Gerät (z. B. die Geräte 100, 300 und/oder 500) heruntergeladen wurde und zum Aufruf (z. B. geöffnet werden) auf dem Gerät bereit ist. In einigen Ausführungsformen wird eine heruntergeladene Anwendung durch ein Installationsprogramm, das Programmteile aus dem heruntergeladenen Paket extrahiert und die extrahierten Teile in das Betriebssystem des Computersystems integriert, zu einer installierten Anwendung.
  • Gemäß der Verwendung in dem vorliegenden Dokument, bezieht sich der Begriff „offene Anwendung” oder „ausgeführte Anwendung” auf eine Softwareanwendung mit beibehaltenen Zustandsinformationen (z. B. als Teil des Gerätezustands/globalen internen Zustands 157 und/oder des internen Anwendungszustands 192). Eine offene oder ausgeführte Anwendung kann eine beliebige der folgenden Arten von Anwendungen sein:
    • • eine aktive Anwendung, die aktuell auf einem Anzeigebildschirm des Geräts angezeigt wird, auf dem die Anwendung verwendet wird;
    • • eine Hintergrundanwendung (oder Hintergrundprozesse), die aktuell nicht angezeigt wird, wobei jedoch ein oder mehrere Prozesse der Anwendung durch ein oder mehrere Prozessoren verarbeitet werden; und
    • • eine unterbrochene oder verzögerte Anwendung, die nicht ausgeführt wird, für die aber Zustandsinformationen im Speicher gespeichert sind (jeweils flüchtig und nicht-flüchtig) und die zur Wiederaufnahme der Ausführung der Anwendung verwendet werden können.
  • Wie im vorliegenden Dokument verwendet, bezieht sich der Begriff „geschlossene Anwendung” auf Softwareanwendungen ohne zurückbehaltene Zustandsinformationen (z. B. werden Zustandsinformationen für geschlossene Anwendungen nicht in einem Speicher des Geräts gespeichert). Demgemäß umfasst das Schließen einer Anwendung das Anhalten und/oder Entfernen von Anwendungsprozessen der Anwendung und das Entfernen von Zustandsinformationen für die Anwendung aus dem Speicher des Geräts. Im Allgemeinen führt das Öffnen einer zweiten Anwendung, während eine erste Anwendung ausgeführt wird, nicht dazu, dass die erste Anwendung geschlossen wird. Wenn die zweite Anwendung angezeigt wird und die erste Anwendung nicht mehr angezeigt wird, wird die erste Anwendung eine Hintergrundanwendung.
  • Im Folgenden wird nun auf Ausführungsformen von Nachrichtenbenutzerschnittstellen zum Erfassen, Senden und Anzeigen oder Wiedergeben von Medien- und Standortdaten eingegangen.
  • 6A bis 32C veranschaulichen beispielhafte Benutzerschnittstellen für Nachrichten gemäß einigen Ausführungsformen. Die Benutzerschnittstellen in den Abbildungen dienen auch dazu, die im Folgenden beschriebenen Prozesse zu veranschaulichen, darunter die Prozesse in 33 bis 49.
  • 6A stellt eine beispielhafte Nachrichtenbenutzerschnittstelle dar, die optional vom Gerät 100 angezeigt wird. Die Nachrichtenbenutzerschnittstelle weist einen Nachrichtenbereich 602 zum Anzeigen von Nachrichten, die zwischen Teilnehmern in einem Nachrichtenaustausch gesendet werden, zusammen mit einem Nachrichtenerstellungsfeld 604 zum Erstellen einer Nachricht auf. Die von den Teilnehmern ausgetauschten Nachrichten werden in umrahmten Nachrichtenfeldern 606 angezeigt. In einigen Ausführungsformen ist ein umrahmtes Nachrichtenfeld ein fortlaufendes Gebiet, das von einem Hintergrund der Anwendungsgrafik visuell unterschieden ist.
  • In dieser Ausführungsform weist die Nachrichtenbenutzerschnittstelle zwei Medienangebote 608, 610 zum Erfassen und Senden von Medienstreams auf: ein Audioerfassungsangebot 608 zum Erfassen und Senden einer Audionachricht und ein Angebot 610 zum Erfassen visueller Medien zum Erfassen und Senden eines Bilds oder eines Videos. In dieser Ausführungsform werden das Angebot zum Erfassen visueller Medien und das Angebot zum Erfassen von Audionachrichten auf beiden Seiten des Nachrichtenerstellungsfelds angezeigt. Die Nachrichtenbenutzerschnittstelle weist auch eine virtuelle Tastatur 612 zum Eingeben von Text in ein Nachrichtenerstellungsfeld 604 auf. In einigen Ausführungsformen, wie in 6B dargestellt, ersetzt das Gerät 100 in Reaktion auf das Erfassen einer Benutzereingabe im Nachrichtenerstellungsfeld 604 die Anzeige des Audioerfassungsangebots 608 durch die Anzeige einer Sendeschaltfläche 614 zum Senden einer Nachricht.
  • Wie im Folgenden ausführlicher beschrieben wird, kann das Gerät 100 unterschiedliche Medien aus der Messaging-Anwendung erfassen und senden – wie Audio, Video und Bilder.
  • In einigen Ausführungsformen zeichnet das Gerät 100 eine Audionachricht aus der Messaging-Anwendung auf und versendet sie. Zum Beispiel, wie in 6C bis 6D dargestellt, zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Audioerfassungsangebot 608 einen visuell unterschiedenen Bereich 606 mit einer Mehrzahl von Angeboten 618, 620, 622 an und beginnt mit der Aufzeichnung einer Audionachricht mit einem Mikrofon von Gerät 100. Die Audionachricht kann ein Benutzer sein, der z. B. spricht oder singt, oder eine andere Art von Audionachricht, die vom Gerät 100 erfasst werden kann.
  • In der in 6D dargestellten Ausführungsform enthält der visuell unterschiedene Bereich 616 ein Sendeangebot 618 zum Senden der erfassten Audionachricht an einen Teilnehmer im Nachrichtenaustausch, ein Abbruchangebot 620 zum Beenden der Aufzeichnung der Audionachricht und zum Verzichten des Sendens der Audionachricht an einen Teilnehmer und ein Aufzeichnungsangebot 622 zum Aufzeichnen einer Audionachricht. In einigen Ausführungsformen wird das Sendeangebot neben dem Medienangebot auf der Anzeige angezeigt.
  • In dieser Ausführungsform wird der visuell unterschiedene Bereich 616 auf der gleichen Seite der Anzeige wie das Audioerfassungsangebot 608 angezeigt und wird vertikal an der Position zentriert, die dem Audioerfassungsangebot 608 entspricht. Somit stellt ein Benutzer einen Kontakt mit dem Audioerfassungsangebot 608 her, der visuell unterschiedene Bereich 616 wird um die Position des Audioerfassungsangebots angezeigt, wobei das Aufzeichnungsangebot 622 das Audioerfassungsangebot 608 ersetzt.
  • Wie in 6D dargestellt, wird der beispielhafte visuell unterschiedene Bereich 616 von einer Kante 626 der Anzeige und einem Halbkreis 624 begrenzt, der an der Kante 626 der Anzeige beginnt und endet und das Sendeangebot 618, das Abbruchangebot 620 und das Aufzeichnungsangebot 622 bezüglich der Anzeigekante einschließt. Der visuell unterschiedene Bereich 616 kann dem Benutzer einen visuellen Hinweis bereitstellen, dass das Gerät 100 in einen Medienerfassungsmodus übergegangen ist.
  • In einigen Ausführungsformen setzt das Gerät 100 die Aufzeichnung der Audionachricht fort, solange der Kontakt an der Position auf der Anzeige gehalten wird, die dem Aufzeichnungsangebot entspricht. In einigen Ausführungsformen, wie in 7A bis 7B dargestellt, beendet das Gerät 100 in Reaktion auf das Erfassen einer Wischgeste auf der Anzeige für das Sendeangebot 618 die Aufzeichnung der Audionachricht und sendet die aufgezeichnete Audionachricht sofort an einen Teilnehmer im Nachrichtenaustausch. Die Wischgeste kann einer Bewegung des Kontakts auf der Anzeige entsprechen, um das Sendeangebot 618 anzuzeigen, gefolgt von einem Abheben des Kontakts an dem Sendeangebot 618. In einigen Ausführungsformen wird die Bewegung des Kontakts erfasst, nachdem das Sendeangebot angezeigt wird.
  • In einigen Ausführungsformen wird in Verbindung mit dem Senden von Medien (wie einer Audionachricht) an einen Teilnehmer im Nachrichtenaustausch eine Darstellung der Medien im Nachrichtenbereich angezeigt. Zum Beispiel, wie in 7B dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen eine Darstellung der gesendeten Audionachricht in einem umrahmten Nachrichtenfeld 708 an, die in den Nachrichtenaustausch eingefügt wird. In dieser Ausführungsform umfasst die Darstellung der Audionachricht ein Bild einer Wellenform 702, die die Audionachricht darstellt, ein Wiedergabeangebot 704 zum Wiedergeben der Audionachricht und eine Abspieldauer 706 der Audionachricht. In einigen Ausführungsformen wird die Wellenform basierend auf der aufgezeichneten Audionachricht generiert und stellt die speziellen Eigenschaften des Audioinhalts der Nachricht dar. In einigen Ausführungsformen hat die Wellenform symbolische Gestalt. In einigen Ausführungsformen kann die Länge der Wellenform der Länge der Audioaufzeichnung entsprechen.
  • In einigen Ausführungsformen zeigt das Gerät 100 während der Aufzeichnung einer Audionachricht eine Darstellung der Audionachricht in einem Nachrichtenerstellungsfeld an. Die Darstellung kann eine wie oben beschriebene Wellenform haben, und dynamisch die Form ändern, wenn der Benutzer eine Audionachricht aufzeichnet, um die Veränderung des aufgezeichneten Audioinhalts anzuzeigen.
  • In einigen Ausführungsformen gibt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Wiedergabeangebot 704 eine Audionachricht wieder. In einigen Ausführungsformen kann sich die Farbe des Wiedergabeangebots ändern, nachdem die Audionachricht wiedergegeben wurde, um dem Benutzer einen visuellen Hinweis zu liefern, dass die Audionachricht wiedergegeben wurde. In einigen Ausführungsformen verändert sich ein Teil des Wiedergabeangebots in der Darstellung, wenn ein entsprechender Teil der Audionachricht wiedergegeben wird, und stellt so einen visuellen Hinweis der verstrichenen Abspielzeit bereit.
  • In einigen Ausführungsformen zeigt das Gerät 100 die eine Audionachricht darstellende Wellenform 702 in einer ursprünglichen Farbe an, und verändert die Farbe der Wellenform, wenn die Audionachricht wiedergegeben wird, um dem Benutzer einen visuellen Hinweis bereitzustellen, dass die Audionachricht wiedergegeben wurde. In einigen Ausführungsformen verändert das Gerät 100 die Farbe eines Teils der Wellenform 702 begleitend zur Wiedergabe des zugehörigen Teils der Audionachricht und stellt eine visuelle Darstellung der verstrichenen Wiedergabezeit bereit. Die oben beschriebenen Darstellungen von Audionachrichten und Farbveränderungen können zur Darstellung beliebiger Audionachrichten verwendet werden, die in der Messaging-Anwendung ausgetauscht werden, wobei sie im Nachrichtenaustausch, im Nachrichtenerstellungsfeld oder an anderer Stelle dargestellt werden.
  • In einigen Ausführungsformen hält das Gerät 100 die Aufzeichnung der Audionachricht in Reaktion auf das Erfassen der Bewegung des Kontakts weg vom Audioerfassungsangebot entweder in Richtung des Sendeangebots oder in eine andere Richtung an. In einigen Ausführungsformen sendet das Gerät 100 die aufgezeichnete Audionachricht als Reaktion auf das Erfassen eines Abhebens an der Position, die dem Sendeangebot 618 entspricht, nach der Bewegung des Kontakts. Der erste Kontakt auf dem Audioerfassungsangebot und die nachfolgende Bewegung des Kontakts zum Sendeangebot kann vom Benutzer mit einem einzelnen durchgehenden Kontakt auf der Anzeige durchgeführt werden.
  • Wie in 7C bis 7D dargestellt, beendet in einigen Ausführungsformen das Gerät die Aufzeichnung der Audionachricht, entfernt den visuell unterschiedenen Bereich 616 von der Anzeige, gibt das Audioerfassungsangebot 608 wieder und verzichtet auf das Senden der Audionachricht an den Teilnehmer, wenn das Gerät 100 eine Wischgeste auf der Anzeige erfasst, durch die das Angebot 620 abgebrochen wird. In einigen Ausführungsformen, wie oben bezüglich des Sendeangebots beschrieben, kann die Wischgeste einer einzelnen durchgängigen Bewegung des Kontakts entsprechen, die vom ersten Kontakt auf dem Audioerfassungsangebot 608 über die Anzeige zum Abbruchangebot 620 geht und auf die ein Abheben an dem Abbruchangebot 620 folgt.
  • In einigen Ausführungsformen, wie in 8 dargestellt, erweitert das Gerät 100 in Reaktion auf das Erfassen einer Bewegung des Kontakts auf der Anzeige weg vom Aufzeichnungsangebot den visuell unterschiedenen Bereich 616. In einigen Ausführungsformen erweitert sich der visuell unterschiedene Bereich gemäß der Bewegung des Kontakts (z. B. ist die Erweiterung des visuell unterschiedenen Bereichs proportional zur Bewegung des Kontakts bei der Erweiterung des visuell unterschiedenen Bereichs). In einigen Ausführungsformen werden das Sendeangebot 618 und das Abbruchangebot 620, die im visuell unterschiedenen Bereich 616 angezeigt werden, nach außen gemäß der Erweiterung des visuell unterschiedenen Bereichs 616 verschoben. Die Erweiterung des visuell unterschiedenen Bereichs kann dem Benutzer einen Hinweis bereitstellen, dass das Gerät 100 eine Bewegung weg von der Position des Aufzeichnungsangebots erfasst hat, und dem Benutzer eine größere Anzeigefläche zum Durchführen einer Wischgeste bereitstellen, was dem Benutzer möglicherweise die Steuerung der Bahn oder des Ziels der Wischgeste vereinfacht.
  • In einigen Ausführungsformen, wie in 9A dargestellt, wenn das Gerät 100 ein Abheben des Kontakts von der Anzeige erfasst, ohne eine vorhergehende Bewegung des Kontakts zum Sendeangebot oder Abbruchangebot zu erfassen, beendet das Gerät 100 die Aufzeichnung der Audionachricht, zeigt eine Darstellung der Audionachricht in dem Nachrichtenerstellungsfeld 604 an und ersetzt das Audioerfassungsangebot durch eine Sendeschaltfläche 906 zum Senden der aufgezeichneten Audionachricht an einen Teilnehmer im Nachrichtenaustausch.
  • Wie oben bezüglich 7A erörtert, weist in einigen Ausführungsformen die Darstellung der aufgezeichneten Audionachricht, die im Nachrichtenerstellungsfeld angezeigt wird, ein Bild der Wellenform 702 auf, die die aufgezeichnete Audionachricht darstellt, eine Dauer 706 der aufgezeichneten Audionachricht und ein Wiedergabeangebot 704 zum Wiedergeben der aufgezeichneten Audionachricht.
  • In einigen Ausführungsformen, wie in 9B dargestellt, sendet das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf der Sendeschaltfläche 906 die aufgezeichnete Audionachricht an einen Teilnehmer im Nachrichtenaustausch und ersetzt die Sendeschaltfläche 906 durch das Audioerfassungsangebot 608. Wie in 9B dargestellt, zeigt in einigen Ausführungsformen das Gerät 100 nach dem Senden der Audionachricht in Reaktion auf einen Kontakt auf der Sendeschaltfläche eine Darstellung der gesendeten Audionachricht in einem umrahmten Nachrichtenfeld 908 an, das in den Nachrichtenaustausch eingefügt wird.
  • Somit, wie oben bezüglich 6A bis 9B beschrieben, zeigt in einigen Ausführungsformen das Gerät 100 Benutzerschnittstellen in einer Messaging-Anwendung an, die dem Benutzer die Aufzeichnung und das Senden einer Audionachricht in der Messaging-Anwendung ermöglichen, ohne dass ein Benutzer eine eigene Anwendung starten muss. Weiterhin kann der Benutzer in einigen Ausführungsformen eine Audionachricht mit einer einzelnen durchgehenden Geste auf der Anzeige aufzeichnen und senden, die einen anfänglichen Kontakt auf dem Audioerfassungsangebot gefolgt von einer Bewegung zum Sendeangebot und ein Abheben aufweist. Dieser Ansatz erhöht die Effizienz der Benutzerschnittstelle und verringert die kognitive Beanspruchung für den Benutzer.
  • In einigen Ausführungsformen kann das Gerät 100 auch Kamerabilder aus der Messaging-Anwendung erfassen und versenden. In einigen Ausführungsformen, wie in 10A bis 10B dargestellt, zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Angebot 610 zum Erfassen visueller Medien eine Kamerabenutzerschnittstelle an. Die Kamerabenutzerschnittstelle umfasst eine Live-Medienvorschau 1010 aus einem Kamerasensor des Geräts 100 und einen visuell unterschiedenen Bereich 1002, der ein Bildangebot 1004 zum Erfassen eines Bilds mithilfe des Kamerasensors und ein Aufzeichnungsangebot 1006 enthält. Das Angebot 610 zum Erfassen visueller Medien wird durch ein Abbruchangebot 1008 ersetzt. In einigen Ausführungsformen ersetzt die Live-Medienvorschau die Anzeige des Nachrichtenbereichs.
  • In dieser Ausführungsform wird der visuell unterschiedene Bereich 1002 auf der gleichen Seite der Anzeige angezeigt wie das Audioerfassungsangebot 610 und vertikal an der Position zentriert, die dem Angebot 610 zum Erfassen visueller Medien entspricht. Somit stellt ein Benutzer einen Kontakt mit dem Angebot 610 zum Erfassen visueller Medien her, der visuell unterschiedene Bereich 1002 wird um die Position des Angebots zum Erfassen visueller Medien angezeigt, und das Abbruchangebot ersetzt das Angebot zum Erfassen visueller Medien.
  • Wie in 11A bis 11B dargestellt, erfasst in einigen Ausführungsformen das Gerät 100 in Reaktion auf das Erfassen einer Wischgeste auf der Anzeige hin zum Bildangebot 1004 ein in der Vorschau angezeigtes Bild und sendet das Bild als Nachricht an einen Teilnehmer. Die Wischgeste kann einer Bewegung des Kontakts über die Anzeige zum Anzeigen des Bildangebots 1004 entsprechen, gefolgt von einem Abheben des Kontakts am Bildangebot 1004. In einigen Ausführungsformen erfasst das Gerät 100 das Bild in Reaktion auf das Erfassen der Bewegung und sendet das Bild in Reaktion auf das Abheben.
  • Wie in 11B dargestellt, beendet das Gerät 100 in einigen Ausführungsformen nach dem Senden des Bilds als Nachricht die Vorschau und zeigt den Nachrichtenbereich, das Nachrichtenerstellungsfeld und die Medienangebote erneut an. In einigen Ausführungsformen zeigt das Gerät 100 ein Miniaturbild 1104 an, das das erfasste Bild in einem umrahmten Nachrichtenfeld 1106 darstellt, das in den angezeigten Nachrichtenaustausch eingefügt wird.
  • 11C bis 11E stellen eine andere Technik dar, die das Gerät 100 optional zur schnellen Erfassung und zum Senden eines Bilds aus einer Messaging-Anwendung verwenden kann. In einigen Ausführungsformen, wie in 11C bis 11E dargestellt, erweitert das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem visuellen Medienangebot das Nachrichtenerstellungsfeld 604 und zeigt eine Live-Medienvorschau im Nachrichtenerstellungsfeld 604 an, anstatt eine Live-Medienvorschau im Nachrichtenbereich anzuzeigen, wie bezüglich 10A bis 10B beschrieben. In einigen Ausführungsformen ersetzt das Gerät 100 die Anzeige des Audioerfassungsangebots durch die Anzeige einer Sendeschaltfläche 614. In einigen Ausführungsformen erfasst das Gerät 100 in Reaktion auf das Erfassen eines Abhebens des Kontakts von dem Angebot 610 zum Erfassen visueller Medien ein neues Bild. In einigen Ausführungsformen wird das erfasste Bild als eine Nachricht an einen Teilnehmer in Reaktion auf das Erfassen des Abhebens von dem visuellen Medienangebot gesendet oder in Reaktion auf das Erfassen eines Kontakts auf der Sendeschaltfläche 614. In einigen Ausführungsformen, wie in 11C dargestellt, zeigt das Gerät 100 ein Miniaturbild an, das das in den angezeigten Nachrichtenaustausch eingefügte Bild in einem umrahmten Nachrichtenfeld darstellt. In einigen Ausführungsformen zeigt das Gerät 100 nach dem Senden des Bilds erneut das Audioerfassungsangebot anstelle der Sendeschaltfläche an.
  • Wie in 11F dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen nach dem Erfassen des Abhebens und dem Erfassen des neuen Bilds eine Darstellung 1108 des erfassten Bilds im Nachrichtenerstellungsfeld 604 an. In einigen Ausführungsformen erfasst das Gerät 100 einen Benutzereintrag von weiterem Inhalt 1110 im Nachrichtenerstellungsfeld, während die Darstellung des erfassten Bilds im Nachrichtenerstellungsfeld angezeigt wird; zum Beispiel kann weiterer Inhalt neben der Darstellung des erfassten Bilds eingegeben werden. Solch weiterer Inhalt kann zum Beispiel Textinhalt sein, wie in 11F dargestellt, oder es können grafische Objekte sein, wie Emoji-Darstellungen oder Symbole. In einigen Ausführungsformen werden der weitere Inhalt und das erfasste Bild an einen Teilnehmer in Reaktion auf das Erfassen eines Kontakts auf der Sendeschaltfläche gesendet.
  • In einigen Ausführungsformen, wie in 11G dargestellt, zeigt das Gerät 100 nach dem Senden des Bilds und des weiteren Inhalts an den Teilnehmer ein Miniaturbild 1114 an, das das erfasste Bild zusammen mit dem weiteren Inhalt 1110 in einem umrahmten Nachrichtenfeld 1112 anzeigt, das in den Nachrichtenaustausch eingefügt wird. In einigen Ausführungsformen zeigt das Gerät 100 nach dem Senden des Bilds und des weiteren Inhalts erneut das Audioerfassungsangebot anstelle der Sendeschaltfläche an.
  • In einigen Ausführungsformen kann das Gerät 100 auch ein Video erfassen und aus der Messaging-Anwendung versenden. Wie oben bezüglich 10A beschrieben, zeigt das Gerät 100 in einigen Ausführungsformen in Reaktion auf das Erfassen eines Kontakts auf dem Angebot 610 zum Erfassen visueller Medien eine Kameravorschau und einen visuell unterschiedenen Bereich in einem Bildangebot zum Erfassen eines Bilds, ein Aufzeichnungsangebot zum Erfassen eines Videos und ein Abbruchangebot zum Abbrechen der Medienerfassung an.
  • In einigen Ausführungsformen, wie in 12A bis 12B dargestellt, beginnt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Aufzeichnungsangebot 1006 mit der Aufzeichnung eines Videos, ersetzt das Aufzeichnungsangebot durch ein Stoppangebot 1212 zum Beenden der Videoaufzeichnung und ersetzt das Bildangebot 1004 durch ein Sendeangebot 1210 zum Senden des Videos an einen Teilnehmer. In einigen Ausführungsformen beginnt das Gerät 100 mit der Aufzeichnung des Videos in Reaktion auf das Erfassen einer Bewegung des Kontakts auf dem Aufzeichnungsangebot 1006 oder in Reaktion auf eine Berührung oder ein Antippen des Aufzeichnungsangebots 1006. In einigen Ausführungsformen zeigt das Gerät 100 eine Anzeige der verstrichenen Aufnahmezeit 1208 an, während das Gerät 100 ein Video aufnimmt.
  • Wie in 13A bis 13C dargestellt, wenn das Gerät 100 in einigen Ausführungsformen erfasst, dass der Kontakt von der Anzeige abgehoben wurde, während das Gerät 100 ein Video aufzeichnet, ohne einen Kontakt auf dem Sendeangebot 1210 zu erfassen, setzt das Gerät 100 die Aufzeichnung des Videos fort und ersetzt die Anzeige des Aufzeichnungsangebots 1006 durch eine Anzeige des Stoppangebots 1212. In einigen Ausführungsformen, während das Gerät 100 das Video aufzeichnet, hält das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Stoppangebot 1212 die Aufzeichnung des Videos an und ersetzt das Stoppangebot 1212 durch ein Wiedergabeangebot 1314 zum Anzeigen der aufgezeichneten Videodaten vor dem Senden an einen Empfänger.
  • In einigen Ausführungsformen hält das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Sendeangebot 1210 die Aufzeichnung des Videos an (wenn die Aufzeichnung nicht bereits angehalten wurde) und sendet das aufgezeichnete Video an einen Teilnehmer im Nachrichtenaustausch. In einigen Ausführungsformen, wie in 14 dargestellt, fügt das Gerät 100 ein Miniaturbild 1402 des Videos in den Nachrichtenaustausch zwischen den Teilnehmern ein und entfernt eine Anzeige des visuell unterschiedenen Bereichs, einschließlich des Aufzeichnungsangebots und des Sendeangebots. In einigen Ausführungsformen beinhaltet das Einfügen des Miniaturbilds die Anzeige des Miniaturbilds 1402 und eines Wiedergabeangebots 1414 in einem umrahmten Nachrichtenfeld 1406 im Nachrichtenbereich. In einigen Ausführungsformen gibt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Wiedergabeangebot 1414 im umrahmten Nachrichtenfeld 1406 das Video in der Umgrenzung des umrahmten Nachrichtenfelds 1406 wieder. In einigen Ausführungsformen gibt das Gerät 100 als Reaktion auf das Erfassen eines Kontakts auf dem Wiedergabeangebot 1414 das Video im Vollbildschirmmodus wieder.
  • Es wird wieder auf 12A Bezug genommen. In einigen Ausführungsformen hält das Gerät 100 die Aufzeichnung des Videos in Reaktion auf das Erfassen eines Abhebens von dem Aufteilungsangebot 1006 an, während das Gerät 100 das Video aufzeichnet. In einigen Ausführungsformen ersetzt das Gerät 100 nach dem Erfassen des Abhebens von dem Aufzeichnungsangebot 1006 und dem Anhalten der Videoaufzeichnung die Anzeige des Aufzeichnungsangebots 1006 durch die Anzeige eines Wiedergabeangebots 1314 zum Anzeigen des Videos, bevor es an den Empfänger gesendet wird, wie in 13C dargestellt.
  • Somit erfasst in einigen Ausführungsformen ein Wischen nach oben auf dem Bildangebot ein Bild und sendet es, während ein Wischen darüber hin zum Aufzeichnungsangebot gefolgt von einem Wischen nach oben hin zum Sendeangebot ein Video erfasst und sendet.
  • In einigen Ausführungsformen kann das in 10A dargestellte Angebot 610 zum Erfassen visueller Medien zum Auswählen eines oder mehrerer vorhandener Bilder oder Videos verwendet werden, die zum Nachrichtenaustausch hinzugefügt werden. Diese Bilder können mit einer anderen Anwendung als der Messaging-Anwendung erfasst worden sein; zum Beispiel können solche Bilder oder Videos mit einer auf Gerät 100 ausgeführten oder auf einem entfernten Gerät ausgeführten Kameraanwendung erfasst wurden sein, oder sie können von einem anderen Benutzer unter Verwendung einer anderen Anwendung entweder auf dem Gerät 100 oder auf einem entfernten Gerät erfasst wurden sein. Solche bestehenden Bilder oder Videos können im Speicher von Gerät 100 gespeichert sein oder der Zugriff darauf kann von einem entfernten Speicherort aus erfolgen.
  • 15A zeigt eine beispielhafte Medienauswahl-Benutzerschnittstelle, die das Gerät 100 optional in Reaktion auf das Erfassen einer Anforderung zum Hinzufügen von Medien zu einem Nachrichtenaustausch anzeigen kann, wie einen Kontakt auf dem Angebot 610 zum Erfassen visueller Medien. In einigen Ausführungsformen kann die Medienauswahl-Benutzerschnittstelle einem Benutzer die Auswahl eines oder mehrerer vorhandener Bilder, Videos oder Audiodateien ermöglichen, die zum Nachrichtenaustausch hinzugefügt werden. In einigen Ausführungsformen wird die Medienauswahl-Benutzerschnittstelle unter dem Nachrichtenbereich bei der Anzeige eines Nachrichtenaustauschs angezeigt. Die Medienauswahl-Benutzerschnittstelle enthält einen Filmstreifen 1502 mit verschiedenen Miniaturbildern 1504, die vorhandene Bilder oder Videos darstellen. In einigen Ausführungsformen stellen die Miniaturbilder 1504 die Bilder, Videos oder Audiodateien dar, die zuletzt erfasst wurden oder auf die zuletzt zugegriffen wurde. In einigen Ausführungsformen scrollt das Gerät 100 den Filmstreifen als Reaktion auf das Erfassen einer Wischgeste an einer dem Filmstreifen 1502 zugeordneten Position gemäß der Wischgeste.
  • In einigen Ausführungsformen sendet das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf einem bestimmten Miniaturbild 1504 die dem Miniaturbild zugeordnete Bild-, Video- oder Audiodatei an einen Teilnehmer im Nachrichtenaustausch und fügt eine Darstellung 1506 des Bilds, des Videos oder der Audiodatei in den Nachrichtenaustausch ein, wie im Beispiel von 15B dargestellt.
  • In einigen Ausführungsformen zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf einem bestimmten Miniaturbild 1504 im Filmstreifen 1502 ein durch das Miniaturbild dargestelltes Bild oder Video an. In einigen Ausführungsformen kann das Bild oder Video in einer größeren Version des durch das Miniaturbild dargestellten Bilds angezeigt werden, wie in einer Vollbildschirmansicht.
  • In einigen Ausführungsformen stellt ein Miniaturbild in einem Filmstreifen 1502 eine Kameravorschau dar. In einigen Ausführungsformen erfasst das Gerät 100 in Reaktion auf das Erfassen einer Auswahl des Miniaturbilds, das die Vorschau darstellt, ein neues Bild mit einer Kamera des Geräts 100 und sendet das neue Bild an einen Teilnehmer im Nachrichtenaustausch.
  • 16A bis 16B stellen eine andere Ausführungsform einer Medienauswahl-Benutzerschnittstelle zum Hinzufügen von Medien zu einem Nachrichtenaustausch dar. In dieser Ausführungsform wird der Filmstreifen 1602 unter dem Nachrichtenerstellungsfeld 604 angezeigt. Als Reaktion auf das Erfassen einer Auswahl eines Miniaturbilds 1604 im Filmstreifen zeigt das Gerät 100 in einigen Ausführungsformen eine Darstellung 1608 des ausgewählten Miniaturbilds im Nachrichtenerstellungsfeld 604 an und ersetzt die Anzeige des Audioerfassungsangebots durch die Anzeige einer Sendeschaltfläche 614 zum Senden des Bilds an einen Teilnehmer in dem Nachrichtenaustausch. In einigen Ausführungsformen sendet das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf der Sendeschaltfläche 1610 das Bild an den Teilnehmer und fügt eine Darstellung des gesendeten Bilds in den Nachrichtenaustausch ein, wie zuvor bezüglich 11B dargestellt und beschrieben.
  • In einigen Ausführungsformen sendet das Gerät 100 als Reaktion darauf, dass das Gerät zwei oder mehrere Miniaturbilder 1604 in einem Filmstreifen erfasst, gefolgt von einer Auswahl der Sendeschaltfläche 1610, zwei oder mehrere Bilder oder Videos entsprechend den ausgewählten Miniaturbildern an einen Teilnehmer im Nachrichtenaustausch.
  • 17A bis 17C stellen eine andere Ausführungsform einer Medienauswahl-Benutzerschnittstelle zum Hinzufügen von Medien zu einem Nachrichtenaustausch dar. Wie in 17A dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen einen Filmstreifen 1702 mit Miniaturbildern 1704 zusammen mit einer Fotobibliothek-Schaltfläche 1706 zum Auswählen eines Bilds oder Videos aus einer Bibliothek (Library) an, eine Bildaufnahme-Schaltfläche 1710 zum Erfassen eines neuen Fotos oder Videos und eine Abbruchschaltfläche 1708 zum Abbrechen und Beenden der Anzeige der Medienauswahl-Benutzerschnittstelle. In einigen Ausführungsformen stellen die Miniaturbilder 1704 in dem Filmstreifen die Bilder oder Videos dar, die zuletzt erfasst wurden oder auf die zuletzt zugegriffen wurde.
  • In einigen Ausführungsformen zeigt das Gerät 100 als Reaktion auf das Erfassen einer Auswahl der Fotobibliothek-Schaltfläche 1706 eine Liste von Fotobibliotheken 1712, 1714 an. In einigen Ausführungsformen zeigt das Gerät 100 in Reaktion auf das Erfassen einer Auswahl einer Fotobibliothek in der Liste einen anderen Filmstreifen 1716 mit Miniaturbildern 1718 von Bildern oder Videos aus der ausgewählten Fotobibliothek an. In einigen Ausführungsformen zeigt das Gerät 100 als Reaktion auf das Erfassen einer Auswahl eines bestimmten Miniaturbilds 1718 das in der Miniaturansicht dargestellte Bild oder Video an oder sendet das entsprechende Bild oder Video an einen Teilnehmer im Nachrichtenaustausch, wie oben bezüglich 15A beschrieben.
  • Es wird nun auf 18A bis 18C Bezug genommen. In einigen Ausführungsformen, wie in 18B dargestellt, zeigt das Gerät 100 als Reaktion auf das Erfassen einer Auswahl der Bildaufnahme-Schaltfläche 1710 zum Aufnehmen eines neues Fotos oder Videos eine Benutzerschnittstelle zum Erfassen eines neuen Bilds oder Videos an. In einigen Ausführungsformen weist die Benutzerschnittstelle eine Live-Kameravorschau 1802 und eine Erfassungsschaltfläche 1804 zum Erfassen des Bilds auf. Wie in 18C dargestellt, erfasst in einigen Ausführungsformen das Gerät 100 als Reaktion auf das Erfassen einer Auswahl der Erfassungsschaltfläche 1804 das in der Vorschau angezeigte Bild und zeigt das erfasste Bild auf der Anzeige zusammen mit einer Wiederholungsschaltfläche 1806 zur erneuten Aufnahme des Bilds (z. B. zum Erfassen eines anderen Bilds) und eine Verwendungsschaltfläche 1808 zum Senden des erfassten Bilds an einen Teilnehmer an. In einigen Ausführungsformen sendet das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf der Verwendungsschaltfläche 1808 das erfasste Bild sofort an den Teilnehmer und kehrt zur Anzeige des Nachrichtenaustauschs zurück. In einigen Ausführungsformen fügt das Gerät 100 eine Darstellung des gesendeten Bilds in den Nachrichtenaustausch ein, wie oben bezüglich 11B beschrieben.
  • In einigen Ausführungsformen kann das Angebot zum Erfassen visueller Medien sowohl zum Hinzufügen bestehender Medien zu einem Nachrichtenaustausch als auch zum Erfassen neuer Medien zum Hinzufügen zum Nachrichtenaustausch verwendet werden. Es wird wieder auf 10A Bezug genommen. In einigen Ausführungsformen kann das Gerät 100 als Reaktion auf das Erfassen eines Kontakts an einer Position auf der Anzeige, die dem Angebot 610 zum Erfassen visueller Medien entspricht, die Dauer des Kontakts bestimmen. Wenn die Dauer länger als eine Grenzwertdauer ist – zum Beispiel, wenn der Kontakt eine Berührung und das Halten der Berührung auf einem Angebot zum Erfassen visueller Medien ist – kann das Gerät 100 wie oben bezüglich 10 bis 13 beschrieben reagieren und Benutzerschnittstellen zum Erfassen und Senden eines Bilds oder Videos aus der Messaging-Anwendung anzeigen. Wenn jedoch die Dauer des Kontakts die Grenzwertdauer nicht überschreitet – zum Beispiel, wenn der Kontakt ein kurzes Antippen des Angebots 610 zum Erfassen visueller Medien ist – dann kann das Gerät 100 die Medienauswahl-Benutzerschnittstelle zum Auswählen eines oder mehrerer vorhandener Bilder oder Videos zum Hinzufügen zum Nachrichtenaustausch anzeigen. Der Grenzwert kann zum Beispiel im Bereich von 0,5 Sekunden bis 10 Sekunden liegen.
  • Die in 6A bis 6B dargestellten Benutzerschnittstellen zeigen Medienangebote und ein horizontal über einem mittleren Abschnitt der Anzeige auf Gerät 100 angezeigtes Nachrichtenerstellungsfeld, wobei jedes Medienangebot (das Angebot zum Erfassen visueller Medien und das Audioerfassungsangebot) entlang einer gegenüberliegenden Kante der Anzeige auf beiden Seiten des Nachrichtenerstellungsfelds angezeigt wird. Solche Positionen können angemessen sein, wenn eine virtuelle Tastatur auf der Anzeige zum Eingeben einer Nachricht an den Empfänger angezeigt wird, wie zum Beispiel in 6A dargestellt. Die Medienangebote und das Nachrichtenerstellungsfeld müssen jedoch nicht an den in 6A bis 6B dargestellten Positionen oder in den Ausrichtungen angezeigt werden. 19A bis 19B stellen beispielhafte alternative Positionen dar, an denen das Gerät 100 das Audioerfassungsangebot 608, das Angebot 610 zum Erfassen visueller Medien und das Nachrichtenerstellungsfeld 604 anzeigen kann. Solche alternative Positionen können angemessen sein, wenn eine virtuelle Tastatur nicht auf der Anzeige angezeigt wird und können einen größeren Nachrichtenbereich zum Anzeigen eines Nachrichtenaustauschs vorsehen.
  • Wie in 19A dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen ein Audioerfassungsangebot 608 in einer Ecke der Anzeige an. Wie in 20 dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen als Reaktion auf das Erfassen eines Kontakts auf dem Audioerfassungsangebot in der Ecke einen visuell unterschiedenen Bereich 2002 an, der durch einen Bogen 2004 begrenzt wird, der an zwei verschiedenen Kanten 2006, 2008 der berührungsempfindlichen Anzeige beginnt und endet, anstatt zum Beispiel einen Halbkreis anzuzeigen, der an der gleichen Kante der Anzeige beginnt und endet, wie oben bezüglich 6D beschrieben. Wie oben bezüglich 8 beschrieben, erweitert das Gerät 100 in einigen Ausführungsformen in Reaktion auf das Erfassen einer Bewegung des Kontakts auf der Anzeige weg von der Position des Audioaufzeichnungsangebots 608 das visuell unterschiedene Gebiet 2002. In einigen Ausführungsformen bewegen sich die Positionen der in dem visuell unterschiedenen Bereich angezeigten Angebote gemäß der Erweiterung des visuell unterschiedenen Bereichs nach außen.
  • In einigen Ausführungsformen wird ein Eingabebereich auf der Anzeige einem Medienangebot zugeordnet, sodass ein Kontakt an einem beliebigen Punkt auf dem Eingabebereich des Geräts 100 als Kontakt auf dem Medienangebot interpretiert wird. In einigen Ausführungsformen ist der Eingabebereich größer als das angezeigte Medienangebot. Wie in 19C bis 19D dargestellt, ist in einigen Ausführungsformen ein Eingabebereich 1902 für ein Medienangebot größer, wenn kein virtuelle Tastatur angezeigt wird, wie in 19C, als wenn die virtuelle Tastatur angezeigt wird, wie in 19D. Zum Beispiel, wenn die virtuelle Tastatur angezeigt wird, kann der Eingabebereich für das Medienangebot etwas größer sein als das Medienangebot (z. B. 5, 10, 15 oder 20% größer als das Medienangebot), und wenn die virtuelle Tastatur nicht angezeigt wird, kann der Eingabebereich für das Medienangebot maximal die Hälfte des unteren Viertels der Anzeige ausmachen. Dieser Ansatz ermöglicht es dem Benutzer, das Erfassen eines Kontakts auf dem Medienangebot einfach auszulösen, wenn auf der Anzeige ausreichend Platz für einen größeren Eingabebereich ist.
  • In einigen Ausführungsformen kann das Gerät 100 auch eine empfangene Audionachricht wiedergeben. In einigen Ausführungsformen, wie in 21A bis 21B dargestellt, zeigt das Gerät 100 in Reaktion auf den Empfang einer Audionachricht von einem ersten Teilnehmer eine Darstellung 2108 der Audionachricht im Nachrichtenaustausch an. In dieser Ausführungsform umfasst die Darstellung ein Bild einer Wellenform 2102, die die Audionachricht darstellt, ein Wiedergabeangebot 2104 zum Wiedergeben der Audionachricht und eine Abspieldauer 2106 der Audionachricht. In einigen Ausführungsformen wird die Darstellung in einem umrahmten Nachrichtenbereich angezeigt. In einigen Ausführungsformen gibt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Wiedergabeangebot 2104 eine Audionachricht wieder.
  • In einigen Ausführungsformen gibt das Gerät 100 nach der Anzeige der Darstellung 2108 der Audionachricht die Audionachricht in Reaktion auf das Erfassen eines Anhebens des Geräts wieder. In einigen Ausführungsformen erfasst das Gerät 100, dass ein Benutzer das Gerät 100 angehoben hat, indem ein oder mehrere Gerätebewegungs- oder Ausrichtungssensoren zum Erfassen der Bewegung des Geräts 100 und/oder ein Näherungssensor oder ein Umgebungslichtsensor zum Erfassen der Nähe des Geräts 100 am Ohr des Benutzers verwendet werden. Es wird wieder auf 21A Bezug genommen. In einigen Ausführungsformen fordert das Gerät 100 den Benutzer dazu auf, die Audionachricht auf diese Weise wiederzugeben, indem eine Anweisung 2110 angezeigt wird, die einen Benutzer auffordert, das Gerät 100 anzuheben, um die Nachricht abzuhören.
  • Wie in 22A bis 22C dargestellt, zeichnet in einigen Ausführungsformen das Gerät 100 eine zweite Audionachricht in Reaktion auf das Erfassen eines Anhebens des Geräts 100 auf. Zum Beispiel, wenn das Gerät 100 die empfangene Audionachricht wiedergegeben hat (was, wie in 22A dargestellt, durch Anzeige der Wellenform oder des Wiedergabeangebots in einer anderen Farbe angezeigt werden kann) und das Gerät 100 ein Anheben des Geräts 100 erfasst, beginnt das Gerät 100 mit der Aufzeichnung der zweiten Audionachricht. In einigen Ausführungsformen, wenn das Gerät 100 die empfangene Audionachricht in Reaktion auf das Erfassen eines Anhebens des Geräts wiedergegeben hat (anstelle zum Beispiel in Reaktion auf das Erfassen eines Kontakts auf dem Wiedergabeangebot), dann zeichnet das Gerät 100 die zweite Audionachricht nur auf, nachdem ein Absenken des Geräts 100 erfasst wird, bevor ein zweites Hochheben des Geräts 100 erfasst wird. Anders ausgedrückt, kann der Benutzer in einigen Ausführungsformen das Gerät 100 anheben, um die Audionachricht abzuhören, das Gerät 100 absenken und dann das Gerät 100 erneut hochheben, um eine neue Audionachricht aufzuzeichnen. In einigen Ausführungsformen fordert das Gerät 100 den Benutzer dazu auf, das Gerät 100 anzuheben, um eine Nachricht aufzuzeichnen, indem eine Anweisung angezeigt wird, die den Benutzer zum Anheben des Geräts 100 anweist, um eine Audionachricht aufzuzeichnen.
  • In einigen Ausführungsformen, wenn während der Aufzeichnung der zweiten Audionachricht das Gerät 100 ein Absenken des Geräts 100 erfasst, beendet das Gerät 100 die Aufzeichnung der zweiten Audionachricht und sendet die zweite Audionachricht an den ersten Teilnehmer. Das Absenken des Geräts kann zum Beispiel unter Verwendung eines oder mehrerer Gerätebewegungs-/Ausrichtungssensoren zum Erfassen der Bewegung des Geräts und/oder unter Verwendung eines Näherungssensors oder eines Umgebungslichtsensors erfasst werden, um ein Ende der Annäherung des Geräts an das Ohr des Benutzers zu erfassen. Somit, wie bezüglich 22A bis 22B beschrieben, kann der Benutzer nach Empfangen und Abhören einer Audionachricht von einem Teilnehmer im Nachrichtenaustausch in einigen Ausführungsformen durch Anheben des Geräts 100 antworten, um eine zweite Audionachricht aufzuzeichnen, und dann das Gerät 100 absenken, um die zweite Audionachricht automatisch an den Teilnehmer zu senden. In einigen Ausführungsformen, wie in 22C dargestellt, fügt das Gerät 100 eine Darstellung der gesendeten zweiten Audionachricht in den Nachrichtenaustausch ein. In einigen Ausführungsformen bestimmt das Gerät 100, dass eine aufgezeichnete Nachricht basierend auf den Eigenschaften der Nachricht nicht gesendet werden soll (z. B. wurde keine menschliche Sprache erfasst, oder die Nachrichtendauer ist zu lang, was auf eine zufällige Aufzeichnung und somit eine Verschwendung von Computingressourcen hinweist). Dieser Aspekt wird in 22D dargestellt. Wie dargestellt, zeigt in einigen Ausführungsformen das Gerät 100 ein Nachrichtenangebot 2214 an, das angibt, dass eine Nachricht aufgezeichnet wurde, aber die Nachricht wird nicht automatisch bei Absenken des Geräts gesendet. Stattdessen zeigt das Gerät 100 ein Angebot 2216 an, das bei Auswahl die Nachricht an den angegebenen Kontakt sendet.
  • Wie in 23A dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen ein Angebot 2302 an, das eine empfangene Nachricht angibt, während das Gerät 100 in einem gesperrten Zustand betrieben wird. Ein gesperrter Zustand kann ein Zustand sein, in dem das Gerät 100 eine Benutzerinteraktion mit dem Gerät 100 einschränkt.
  • In einigen Ausführungsformen, wie in 23B dargestellt, zeigt das Gerät 100 als Reaktion auf das Erfassen einer Wischgeste in einer ersten Richtung auf dem Angebot 2302 ein Antwortangebot 2304 zum Beantworten der Nachricht an. Wie in 23C dargestellt, zeigt das Gerät 100 als Reaktion auf das Erfassen eines Kontakts auf dem Antwortangebot 2304 optional eine Anweisung 2306 an, die den Benutzer anweist, das elektronische Gerät anzuheben, um eine Audionachricht aufzuzeichnen, um eine Antwortnachricht zu senden. In einigen Ausführungsformen beginnt das Gerät 100 in Reaktion auf das Erfassen eines Anhebens des Geräts 100 mit der Aufzeichnung einer Audionachricht, wie oben bezüglich 22A bis 22B beschrieben, und das Gerät 100 sendet ebenso in Reaktion auf ein nachfolgendes Absenken des Geräts die Audionachricht, wie oben bezüglich 22C beschrieben.
  • Es wird wieder auf 23A Bezug genommen. In Reaktion auf das Erfassen einer Wischgeste auf dem Angebot 2302 in der entgegengesetzten Richtung fordert das Gerät 100 den Benutzer optional zum Entsperren des Geräts 100 auf, und das Gerät 100 zeigt in einigen Ausführungsformen die empfangene Nachricht als Teil eines angezeigten Nachrichtenaustauschs nach dem Entsperren des Geräts 100 an.
  • In einigen Ausführungsformen, wie in 24A dargestellt, zeigt das Gerät 100 eine Benachrichtigung 2402 über eine empfangene Audionachricht in einem Benachrichtigungsfeld 2004 der Anzeige an. Wie in 24B dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen in Reaktion auf das Erfassen eines Kontakts auf der Benachrichtigung 2402 oder dem Benachrichtigungsfeld 2404, wie einem Ziehen nach unten oder einem Antippen, eine Benutzerschnittstelle mit einem Wiedergabeangebot 2406 zum Wiedergeben der Audionachricht an, ein Audioerfassungsangebot 608 zum Aufzeichnen einer Antwortaudionachricht und ein Abbruchangebot 2408 zum Beenden der Benutzerschnittstelle. In einigen Ausführungsformen, wie in 24C dargestellt, zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf dem Audioerfassungsangebot 608 einen visuell unterschiedenen Bereich 2410 mit mehreren Angeboten zum Aufzeichnen und Senden einer Audionachricht an, wie zum Beispiel bezüglich 6D und 20 dargestellt und beschrieben.
  • Ähnlich wie in den oben beschriebenen Prozessen zum Aufzeichnen von Audionachrichten kann das Gerät 100 in einigen Ausführungsformen in Reaktion auf das Anheben und Absenken des Geräts 100 Videonachrichten wiedergeben, aufzeichnen und senden. In solchen Ausführungsformen kann das Gerät 100 Gesichtserkennungstechniken verwenden, um zu bestimmen, ob das Gerät 100 in eine geeignete Position zur Wiedergabe oder zur Aufzeichnung einer Videonachricht angehoben wurde.
  • In einigen Ausführungsformen umfassen die vom Gerät 100 mit den oben beschriebenen Benutzerschnittstellen erfassten Medien Metadaten. Die Metadaten können zum Beispiel eine Darstellung einer Position des Geräts 100 enthalten. In einigen Ausführungsformen stellt das Gerät 100 eine Option bereit, um einem Benutzer die Angabe zu ermöglichen, ob das Senden von Metadaten zusammen mit dem Medium unterbunden werden soll.
  • Wie oben erörtert, kann das Gerät 100 Nachrichten, die Medien (wie Audio, Video oder Bild), Text oder beides enthalten, senden und empfangen. In einigen Ausführungsformen, wenn das Gerät 100 mehrere Nachrichten innerhalb einer Zeitspanne empfängt und die empfangenen Nachrichten ein Nachrichtengruppierungskriterium erfüllen, stellt das Gerät 100 die Nachrichten in einem einzelnen umrahmten Nachrichtengruppenfeld dar, anstelle die Nachrichten in mehreren umrahmten Nachrichtenfeldern darzustellen. Die Zeitspanne kann zum Beispiel von 10 Sekunden bis 10 Minuten reichen.
  • Die Gruppierung der Darstellungen von Nachrichten auf diese Weise kann die im Nachrichtenbereich zur Anzeige von Nachrichten benötigte Fläche verringern und kann die Unübersichtlichkeit beim Empfang mehrerer Nachrichten verringern. Die Gruppierung kann im Besonderen bei Audionachrichten nützlich sein, die für die Anzeige in relativ kleine Darstellungen komprimiert werden können.
  • In einigen Ausführungsformen weisen die Nachrichtengruppierungskriterien ein Kriterium auf, das erfüllt wird, wenn die Anzahl der Nachrichten einen numerischen Grenzwert übersteigt. Wenn zum Beispiel das Gerät 100 einige aufeinanderfolgende Nachrichten in der Zeitspanne empfängt, und die Anzahl über dem numerischen Grenzwert liegt, kann das Gerät optional bestimmen, dass die Nachrichten das Nachrichtengruppierungskriterium erfüllen und Darstellungen der Nachrichten in einem einzelnen umrahmten Nachrichtengruppenfeld anzeigen. Der Grenzwert kann drei, fünf, sieben oder zehn Nachrichten betragen, die innerhalb der Zeitspanne empfangen wurden.
  • In einigen Ausführungsformen weisen die Nachrichtengruppierungskriterien ein Kriterium auf, das erfüllt wird, wenn die empfangenen Nachrichten voneinander um weniger als einen zeitlichen Grenzwert beabstandet sind. Zum Beispiel können aufeinanderfolgende Nachrichten, die voneinander um weniger als 30, 20, 10 oder 5 Sekunden beabstandet sind, das Nachrichtengruppierungskriterien erfüllen. Wenn zum Beispiel das Gerät 100 eine Textnachricht empfängt, auf die weniger als 30 Sekunden später eine Audionachricht folgt, kann das Gerät 100 optional bestimmen, dass die Nachrichten dem Nachrichtengruppierungskriterium entsprechen und eine gruppierte Darstellung der Nachrichten im Nachrichtenaustausch anzeigen.
  • In einigen Ausführungsformen basieren die Nachrichtengruppierungskriterien auf der Art der empfangenen Nachricht. Wenn zum Beispiel das Gerät 100 mehrere aufeinanderfolgende Audionachrichten innerhalb der Zeitspanne empfängt, kann das Gerät 100 optional bestimmen, dass die Nachrichten das Nachrichtengruppierungskriterium erfüllen. Wenn jedoch das Gerät 100 dazwischenliegende Nachrichten empfängt, die keine Audionachrichten sind, kann das Gerät 100 optional bestimmen, dass die empfangenen Nachrichten das Nachrichtengruppierungskriterium nicht erfüllen, und Darstellungen der empfangenen Nachrichten in separaten umrahmten Nachrichtenfeldern anzeigen.
  • In einigen Ausführungsformen basieren die Nachrichtengruppierungskriterien auf dem Sender der Nachricht. Zum Beispiel können aufeinanderfolgende Nachrichten, die von einem einzelnen Teilnehmer im Nachrichtenaustausch empfangen wurden, das Nachrichtengruppierungskriterium erfüllen, aber aufeinanderfolgende Nachrichten, die von verschiedenen Teilnehmern empfangen wurden, können das Nachrichtengruppierungskriterium nicht erfüllen.
  • In einigen Ausführungsformen basieren die Nachrichtengruppierungskriterien darauf, ob alle Nachrichten den gleichen Lesestatus besitzen. In einigen Ausführungsformen entspricht der Lesestatus dem, ob eine Nachricht gelesen, wiedergegeben oder angezeigt wurde. Zum Beispiel können aufeinanderfolgende Audionachrichten, die alle nicht gelesen sind (z. B. nicht wiedergegeben) die Nachrichtengruppierungskriterien erfüllen, jedoch aufeinanderfolgende Audionachrichten mit verschiedenen Lesezuständen – d. h., einige davon wurden wiedergegeben und einige davon wurden nicht wiedergegeben – können das Nachrichtengruppierungskriterium nicht erfüllen.
  • 25A stellt ein Beispiel der Anzeige von Darstellungen von mehreren Audionachrichten dar, die Nachrichtengruppierungskriterien in einem umrahmten Nachrichtengruppenfeld 2502 erfüllen. In einigen Ausführungsformen zeigt das Gerät 100 ein Gesamtwiedergabeangebot 2504 zur Wiedergabe aller Audionachrichtengruppen zusätzlich oder anstelle eines Wiedergabeangebots 2506 für jede einzelne Audionachricht an. In einigen Ausführungsformen gibt das Gerät 100 alle der gruppierten Audionachrichten in Reaktion auf das Erfassen eines Anhebens des Geräts 100 wieder. In einigen Ausführungsformen zeigt das Gerät 100 eine Anweisung an, die einen Benutzer anweist, das Gerät 100 anzuheben, um alle der mehreren gruppierten Audionachrichten wiederzugeben.
  • In der in 25A gezeigten Ausführungsform wird jede der Audionachrichten durch ein eigenes Wellenformbild dargestellt. In einigen Ausführungsformen jedoch zeigt das Gerät 100 eine einzelne zusammengesetzte Wellenform an, die mehrere Audiogruppennachrichten darstellt.
  • 25B stellt ein Beispiel der Anzeige mehrerer Audionachrichten dar, die keine Nachrichtengruppierungskriterien in mehreren umrahmten Nachrichtenfeldern 2508 erfüllen.
  • In einigen Ausführungsformen zeigt das Gerät 100 als Reaktion auf das Erfassen eines Kontakts in einem umrahmten Nachrichtengruppenfeld 2502, wie in 25A dargestellt, alle Nachrichten, die im umrahmten Nachrichtengruppenfeld 2502 dargestellt werden, in separaten umrahmten Nachrichtenfeldern 2508 an, wie in 25B dargestellt.
  • 25C stellt ein Beispiel der Anzeige einer Miniaturbilderdarstellung von mehreren Bildnachrichten 2510 dar, die das Nachnchtengruppierungskriterium in einem umrahmten Nachrichtengruppenfeld 2512 erfüllen. 25D stellt ein Beispiel der Anzeige von Darstellungen mehrerer Bildnachrichten in mehreren umrahmten Nachrichtenfeldern 2514 dar, die das Nachrichtengruppierungskriterium nicht erfüllen.
  • In einigen Ausführungsformen zeigt das Gerät 100 als Reaktion auf das Erfassen eines Kontakts in einem umrahmten Nachrichtengruppenfeld 2512, wie in 25C dargestellt, Darstellungen der Bildnachrichten in separaten umrahmten Nachrichtenfeldern 2514 an, wie in 25D dargestellt.
  • Wie in 25E dargestellt, zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf einem umrahmten Nachrichtengruppenfeld 2512, das mehrere Bild- oder Videonachrichten darstellt, Miniaturbilder 2518 auf der Anzeige an, die Bilder oder Videos in einem Filmstreifen 2516 darstellen. In einigen Ausführungsformen sind die im Filmstreifen 2516 angezeigten Miniaturbilder 2518 größer als die Miniaturbilder, die im umrahmten Nachrichtenbereich angezeigt werden, und sind optional scrollbar.
  • Da die oben beschriebenen Benutzerschnittstellen Teilnehmern den Austausch von Medien in einem Nachrichtenaustausch vereinfachen, können Teilnehmer in einigen Fällen viele Mediennachrichten in einem Nachrichtenaustausch austauschen. Zum Beispiel können Teilnehmer mehrere kurze Audionachrichten im Laufe eines Nachrichtenaustauschs austauschen. In einigen Fällen können solche ausgetauschten Nachrichten als schnelle informelle Kommunikation gedacht sein, die nicht aufbewahrt werden muss, und die die Anzeige der vom Benutzer ausgetauschten Nachrichten nur unübersichtlich macht. Demgemäß plant das Gerät 100 in einigen Ausführungsformen, dass Nachrichten in einem Nachrichtenaustausch basierend auf der Erfüllung bestimmter Ablaufkriterien nicht mehr angezeigt werden. In einigen Ausführungsformen umfasst das Beenden der Anzeige einer Nachricht auch das Löschen der Nachricht vom Gerät 100. Der Zweck des automatischen Löschens ist nicht der Datenschutz, sondern um den Nachrichtenaustausch nicht mit veralteten Nachrichten unübersichtlich zu machen.
  • In einigen Ausführungsformen basieren die Ablaufkriterien darauf, ob die Nachricht einen beliebigen Medieninhalt enthält, oder darauf, welche Art von Medieninhalt eine Nachricht enthält. Zum Beispiel können Audionachrichten andere Ablaufkriterien als Videonachrichten haben. In einigen Ausführungsformen haben Textnachrichten kein Ablaufkriterium und werden daher nie automatisch gelöscht.
  • In einigen Ausführungsformen basieren die Ablaufkriterien auf einer Zeitspanne. In einigen Ausführungsformen kann die Zeitspanne ab dem Zeitpunkt der Erfassung der Medien gemessen werden (z. B. für den Teilnehmer in einem Nachrichtenaustausch, der die Medien erfasst hat) oder ab dem Zeitpunkt, ab dem die Medien wiedergegeben wurden (z. B. für den Teilnehmer im Nachrichtenaustausch, der die Medien empfangen hat). In einigen Ausführungsformen unterscheiden sich die Ablaufkriterien einer Nachricht für einen ersten Teilnehmer und für einen zweiten Teilnehmer. In einigen Ausführungsformen kann die Zeitspanne zum Beispiel 1 Minute, 2 Minuten, 3 Minuten, 4 Minuten, 5 Minuten oder 10 Minuten betragen.
  • In einigen Ausführungsformen basieren die Ablaufkriterien darauf, ob das Medienobjekt mithilfe der Nachrichtenbenutzerschnittstellen erfasst wurde, die zum Beispiel oben bezüglich 6A bis 14 beschrieben wurden, oder mit einer anderen Anwendung wie einer Kameraanwendung erfasst wurde. In einigen Ausführungsformen können Medien, die mit dem oben bezüglich 6A bis 14 beschriebenen Ansatz zum schnellen Erfassen von Medien erfasst und hinzugefügt wurden, die als informelle flüchtige Kommunikation gedacht sein können, andere Ablaufkriterien haben als Medien, die zum Nachrichtenaustausch mit einem anderen Ansatz hinzugefügt wurden, wie eine Medienauswahl-Benutzerschnittstelle, wie bezüglich 15A bis 18C beschrieben.
  • Ein Fachmann wird die oben beschriebenen beispielhaften Ablaufkriterien verstehen, die auf viele Arten kombiniert oder modifiziert werden können.
  • In einigen Ausführungsformen, wie in 26 dargestellt, stellt das Gerät 100 einen Hinweis auf das Ablaufkriterium 2602 in der Darstellung der Nachricht bereit. In der in 26 dargestellten Ausführungsform umfasst der Hinweis auf das Ablaufkriterium 2602 eine Zeitspanne, nach der die Nachrichten nicht mehr im Nachrichtenaustausch angezeigt werden.
  • Wie in 26 dargestellt, zeigt das Gerät 100 in einigen Ausführungsformen ein Aufbewahrungsangebot 2604 zum Aufbewahren einer Nachricht an, die andernfalls nach Erfüllung der Ablaufkriterien gelöscht werden würde. In einigen Ausführungsformen ignoriert das Gerät 100 in Reaktion auf das Erfassen einer Auswahl des Aufbewahrungsangebots 2604 die Ablaufkriterien und setzt die Anzeige der Nachricht im Nachrichtenaustausch fort. In einigen Ausführungsformen beendet das Gerät 100 als Reaktion auf das Erfassen eines Kontakts auf dem Aufbewahrungsangebot 2604 die Anzeige des Hinweises des Ablaufkriteriums und/oder beendet die Anzeige des Aufbewahrungsangebots.
  • In einigen Ausführungsformen werden Mediennachrichten, die zu einem Nachrichtenaustausch mithilfe von in 6A bis 14 beschriebenen Schnittstellen hinzugefügt wurden, die als informelle flüchtige Kommunikation gedacht sein können, beim Senden oder Empfangen nicht zur Medienbibliothek hinzugefügt (wie einer Kamerarolle oder einer Audiobibliothek), sondern zur Medienbibliothek werden Mediennachrichten hinzugefügt, die zu einem Nachrichtenaustausch unter Verwendung der in 15A bis 18C beschriebenen Schnittstellen hinzugefügt wurden. In einigen Ausführungsformen fügt das Hinzufügen einer Mediennachricht (z. B. durch Auswahl des Aufbewahrungsangebots) die Medien zur Medienbibliothek hinzu.
  • In einigen Ausführungsformen kann eine Nachricht mit einem zugeordneten Ablaufkriterium, die von einem ersten Teilnehmer an einen zweiten Teilnehmer in einem Nachrichtenaustausch gesendet wird, vom ersten Teilnehmer, vom zweiten Teilnehmer, von beiden oder von keinem beibehalten werden.
  • Wie in 27A dargestellt, stellt das Gerät 100 optional nach dem Senden einer Audionachricht von einem ersten Teilnehmer an einen zweiten Teilnehmer in einem Nachrichtenaustausch dem ersten Teilnehmer einen Hinweis 2702 bereit, dass die Audionachricht dem zweiten Teilnehmer zugestellt wurde. Wie in 27B dargestellt, stellt das Gerät 100 optional als Reaktion auf die Erfassung, dass der zweite Teilnehmer wenigstens einen Teil der Audionachricht wiedergegeben hat, dem ersten Teilnehmer einen Hinweis 2704 bereit, dass die Audionachricht wiedergegeben wurde. Wie in 27C dargestellt, stellt das Gerät 100 optional als Reaktion auf das Erfassen, dass der zweite Teilnehmer ein mit der Audionachricht verknüpftes Aufbewahrungsangebot ausgewählt hat, dem ersten Teilnehmer einen Hinweis 2706 bereit, dass der zweite Teilnehmer die Nachricht aufbewahrt hat. In einigen Ausführungsformen ersetzt der Hinweis, dass die Nachricht aufbewahrt wurde, einen Hinweis, dass die Nachricht zugestellt oder wiedergegeben/angezeigt/gelesen wurde.
  • In einigen Ausführungsformen kann das Gerät 100 auch statische Standortinformationen senden oder dynamische Standortinformationen zwischen zwei oder mehr Teilnehmern in einem Nachrichtenaustausch teilen und die Standortinformation von zwei oder mehreren Teilnehmern auf einer Karte anzeigen.
  • In einigen Ausführungsformen, wie in 28A dargestellt, zeigt das Gerät 100 während der Anzeige eines Nachrichtenaustauschs eine Detailangabe 2702 zum Anzeigen weitere Details zu einem Nachrichtenaustausch an. Wie in 28B dargestellt, zeigt in einigen Ausführungsformen in Reaktion auf das Erfassen eines Kontakts auf dem Detailangebot das Gerät 100 Darstellungen 2704 (wie Miniaturbilder oder Wellenformen) der Medien an, die während des Nachrichtenaustauschs ausgetauscht wurden, ein Angebot 2706 zum Senden des Standorts zum Senden der aktuellen Standortinformation des Geräts 100 an einen oder mehrere Teilnehmer im Nachrichtenaustausch, und ein Angebot 2708 zum Teilen des Standorts zum Teilen (bzw. Freigabe, Sharing) der Standortinformationen des Geräts 100 mit einem oder mehreren Teilnehmern für eine bestimmte Zeitspanne.
  • In einigen Ausführungsformen stellt das Gerät 100 in Reaktion auf das Erfassen einer Auswahl des Angebots 2706 zum Senden des Standorts einem Teilnehmer im Nachrichtenaustausch aktuelle Standortinformationen des Geräts 100 bereit. Wie in 28C dargestellt, fügt das Gerät 100 in einigen Ausführungsformen eine Karte 2710 in den Nachrichtenaustausch ein, die die aktuellen Standortinformationen darstellt. In einigen Ausführungsformen ist die in Reaktion auf das Erfassen des Kontakts auf dem Angebot 2706 zum Senden des Standorts gesendete Standortinformation statisch und wird nachfolgend nicht entsprechend Änderungen im Standort des Geräts 100 aktualisiert.
  • Wie in 29A bis 29B dargestellt, zeigt in einigen Ausführungsformen in Reaktion auf das Erfassen einer Auswahl des Angebots 2708 zum Teilen eines Standorts das Gerät 100 eine Benutzerschnittstelle 2902 zur Auswahl einer bestimmten Zeitspanne an, in der Standortinformationen freigegeben sind. In Reaktion auf das Erfassen einer Auswahl einer der bestimmten Zeitspannen stellt das Gerät 100 einem Teilnehmer im Nachrichtenaustausch Informationen bereit, die es dem Teilnehmer ermöglichen, die Position des Geräts 100 in der ausgewählten Zeitspanne zu bestimmen. In einigen Ausführungsformen bewirkt das Bereitstellen der Informationen, dass ein vom Teilnehmer verwendetes entferntes elektronisches Gerät Informationen empfängt, um den Teilnehmer aufzufordern, seinen Standort für den Benutzer von Gerät 100 freizugeben. In einigen Ausführungsformen kann das Gerät 100, nachdem die ausgewählte Zeitspanne verstrichen ist, das Teilen der Standortinformationen mit dem Teilnehmer beenden.
  • In einigen Ausführungsformen beinhaltet das Ermöglichen eines Teilnehmers, die Position des Geräts 100 zu bestimmen, dass es dem Teilnehmer ermöglicht wird, Informationen über den Standort des Geräts 100 von einem Positionsserver abzufragen, an den das Gerät 100 Standortinformationen sendet.
  • Wie in 29C dargestellt, zeigt in einigen Ausführungsformen das Gerät 100 während des Teilens von Standortinformationen ein Angebot 2904 zum Beenden des Teilens an, um das Teilen der Standortinformationen für den Teilnehmer zu beenden, bevor die Zeitspanne verstrichen ist.
  • In einigen Ausführungsformen kann das Gerät 100 Standortinformationen von einem anderen Teilnehmer im Nachrichtenaustausch empfangen. In einigen Ausführungsformen fordert das Gerät 100, wie in 30 dargestellt, in Reaktion auf den Empfang der Standortinformationen, den Benutzer von Gerät 100 auf, die Standortinformationen mit dem anderen Teilnehmer zu teilen. In einigen Ausführungsformen stellt das Gerät 100 in Reaktion auf das Erfassen der Auswahl des Benutzers, die Standortinformation freizugeben, dem anderen Teilnehmer Informationen bereit, die dem Teilnehmer die Bestimmung des Standorts von Gerät 100 ermöglichen. Wie oben bezüglich 29B erörtert, kann das Gerät 100 dem Benutzer es optional ermöglichen, eine bestimmte Zeitspanne auszuwählen, in der die Standortinformationen freigegeben sind.
  • Wie oben erörtert, empfängt das Gerät 100 in einigen Ausführungsformen freigegebene Standortinformationen von einem Teilnehmer in einem Nachrichtenaustausch. In einigen Ausführungsformen umfasst die Standortinformation den Standort eines externen Geräts. In einigen Ausführungsformen zeigt das Gerät 100 in Reaktion auf den Empfang der Standortinformation eine Karte an, die sowohl den Standort des elektronischen Geräts als auch den Standort des externen Geräts darstellt.
  • Wie in 31 dargestellt, kann das Gerät 100 in einigen Ausführungsformen geteilte Standortinformationen von mehreren Teilnehmern in einem Nachrichtenaustausch empfangen, und als Reaktion darauf eine Karte 3102 anzeigen, die die Standorte 3104 der mehreren Teilnehmer und den Standort 3106 des Geräts 100 anzeigt (auf der gleichen Karte). In einigen Ausführungsformen zeigt das Gerät 100 Informationen 3108 über jeden der Teilnehmer an, dessen Standort auf der Karte angezeigt wird.
  • In einigen Ausführungsformen kann ein beliebiger von mehreren Teilnehmern in einem Nachrichtenaustausch einen oder mehrere Teilnehmer zum Nachrichtenaustausch hinzufügen oder daraus entfernen oder kann den Namen des Nachrichtenaustauschs ändern.
  • Wie in 32A dargestellt, zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf einer Karte 3202 in einem Nachrichtenaustausch eine größere Version der Karte 3204 an. In einigen Ausführungsformen zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf der größeren Karte 3204 ein Satellitenbild 3206 der Standortinformationen, die vom einem Teilnehmer in einem Nachrichtenaustausch freigegeben sind, und Angebote zum Anzeigen von Richtungen 3210 hin oder Richtungen 3212 weg von der Standortinformation an.
  • Wie oben bezüglich 28A bis 28C und 29A bis 29C beschrieben, stellt in einigen Ausführungsformen das Gerät 100 Nachrichtenbenutzerschnittstellen bereit, die Teilnehmern das einfache Senden des aktuellen Standorts aneinander oder das Teilen ihrer Standorte miteinander für eine bestimmte Zeitspanne erlauben.
  • In einigen Ausführungsformen verändert das Gerät 100, nachdem die bestimmte Zeitspanne verstrichen ist, die Farbe der angezeigten Karte (z. B. Karte 2710 in 28C), um anzugeben, dass sie nicht länger mit Standortinformationen aktualisiert wird. In einigen Ausführungsformen zeigt das Gerät 100 in Reaktion auf das Erfassen eines Kontakts auf der Karte, nachdem die bestimmte Zeitspanne verstrichen ist, ein Angebot an, das darauf hinweist, dass die Standortinformationen nicht mehr länger geteilt werden.
  • 33 ist ein Ablaufdiagramm, das den Prozess 3300 zum schnellen Erfassen und Senden von Medien veranschaulicht. Der Prozess 3300 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 3302 zeigt das Gerät auf der berührungsempfindlichen Anzeige davon ein Medienangebot und einen Nachrichtenbereich zum Anzeigen von Nachrichten an, die zwischen Teilnehmern in einem Nachrichtenaustausch gesendet werden. In Block 3304 erfasst das Gerät eine Geste auf der berührungsempfindlichen Oberfläche, die das Erfassen eines Kontakts an einer Position der berührungsempfindlichen Oberfläche aufweist, die einer Position des Medienangebots auf der Anzeige entspricht. In Block 3306 zeigt das Gerät in Reaktion auf das Erfassen des Kontakts auf der berührungsempfindlichen Anzeige ein Sendeangebot an. In Block 3308 erfasst das Gerät eine Fortsetzung der Geste, die eine Erfassung der Bewegung des Kontakts über die berührungsempfindliche Oberfläche gefolgt vom Erfassen des Abhebens des Kontakts von der berührungsempfindlichen Oberfläche umfasst. In Block 3310 bestimmt das Gerät, ob der Kontakt an eine Position auf der berührungsempfindlichen Oberfläche bewegt wird, die einer Position des Sendeangebots auf der Anzeige entspricht. In Block 3312 sendet das Gerät gemäß einer Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Oberfläche bewegt wurde, die der Position des Sendeangebots entspricht, und in Reaktion auf das Erfassen des Abhebens ein Medium, das als Reaktion auf wenigstens einen Teil der Geste erfasst wurde, an einen Teilnehmer im Nachrichtenaustausch zu senden. Optional kann das Gerät in einigen Ausführungsformen als Reaktion auf das Erfassen des in Block 3304 dargestellten Kontakts ein Abbruchangebot auf der Anzeige anzeigen, bestimmen, ob der Kontakt an eine Position auf der berührungsempfindlichen Oberfläche bewegt wurde, die einer Position des Abbruchangebots auf der Anzeige entspricht, und gemäß einer Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Anzeige bewegt wurde, die der Position des Abbruchangebots entspricht, gefolgt von einem Abheben, auf das Senden des erfassten Mediums an den Teilnehmer verzichten. In einigen Ausführungsformen kann das Gerät gemäß einer Bestimmung, dass der Kontakt weder an die Position auf der berührungsempfindlichen Oberfläche bewegt wurde, die dem Kontakt des Sendeangebots entspricht, noch an die Position auf der berührungsempfindlichen Oberfläche, die der Position des Abbruchangebots entspricht, und in Reaktion auf das Erfassen des Abhebens ein Bild im Nachrichtenerstellungsfeld anzeigen, wobei das Bild eine Wellenform hat, die das erfasste Medium darstellt (in 33 durch B dargestellt). In einigen Ausführungsformen kann das Gerät gemäß einer Bestimmung, dass der Kontakt weder an die Position auf der berührungsempfindlichen Oberfläche bewegt wurde, die dem Kontakt des Sendeangebots entspricht, noch an die Position auf der berührungsempfindlichen Oberfläche, die der Position des Abbruchangebots entspricht, und in Reaktion auf das Erfassen der Bewegung die Erfassung des Mediums (in 33 durch B' dargestellt) beenden.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3300 (z. B. 33 und 6 bis 14) beschriebenen Prozesse ebenso in analoger Weise auf andere in dem vorliegenden Dokument beschriebene Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3400, 3500, 3600, 3700, 3800, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3300 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3300 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 50 beschriebenen.
  • 34 ist ein Ablaufdiagramm, das den Prozess 3400 zum schnellen Erfassen von Videos veranschaulicht. Der Prozess 3400 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 3402 zeigt das Gerät auf der Anzeige davon ein Medienangebot und einen Nachrichtenbereich zum Anzeigen von Nachrichten an, die zwischen Teilnehmern in einem Nachrichtenaustausch gesendet werden. In Block 3404 erfasst das Gerät eine erste Eingabe, die einer Position des Medienangebots auf der Anzeige der berührungsempfindlichen Oberfläche entspricht. In Block 3406 zeigt das Gerät als Reaktion auf das Erfassen der ersten Eingabe ein Aufzeichnungsangebot und ein Sendeangebot an. In Block 3408 erfasst das Gerät eine zweite Eingabe, die einer Position des Medienangebots auf der Anzeige der berührungsempfindlichen Oberfläche entspricht. In Block 3434 beginnt das Gerät als Reaktion auf das Erfassen der zweiten Eingabe mit der Aufzeichnung eines Videos. In Block 3412 erfasst das Gerät eine dritte Eingabe, die einer Position des Sendeangebots auf der Anzeige der berührungsempfindlichen Oberfläche entspricht. In Block 3414 sendet das Gerät in Reaktion auf das Erfassen der dritten Eingabe das aufgezeichnete Video an einen Teilnehmer und entfernt das Sendeangebot und das Aufzeichnungsangebot von der Anzeige. Optional kann das Gerät in Block 3414 in Reaktion auf das Erfassen der dritten Eingabe eine Miniaturbilddarstellung des aufgezeichneten Videos in den angezeigten Nachrichtenaustausch einfügen.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3400 (z. B. 34 und 10A bis 10B und 12A bis 14) beschriebenen Prozesse ebenso in analoger Weise auf andere in dem vorliegenden Dokument beschriebene Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3500, 3600, 3700, 3800, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3400 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3400 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 51 beschriebenen.
  • 35 ist ein Ablaufdiagramm, das den Prozess 3500 zum Antworten auf eine Audionachricht durch Anheben eines elektronischen Geräts veranschaulicht. Der Prozess 3500 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 3502 zeigt das Gerät eine Darstellung einer ersten Audionachricht an, die von einem ersten Teilnehmer in einem Nachrichtenaustausch empfangen wurde. In Block 3504 erfasst das Gerät eine Anforderung zur Wiedergabe der ersten Audionachricht. Optional erfasst in Block 3504 das Gerät in einigen Ausführungsformen die Anforderung zur Wiedergabe der ersten Audionachricht durch Erfassen eines separaten Anhebens des Geräts, während die Darstellung der ersten Audionachricht angezeigt wird. Optional erfasst das Gerät in Block 3504 in einigen Ausführungsformen die Anforderung zur Wiedergabe der ersten Audionachricht, indem ein Kontakt an einer Position der berührungsempfindlichen Oberfläche erfasst wird, die der Position der angezeigten Darstellung der ersten Audionachricht entspricht. In Block 3506 gibt das Gerät in Reaktion auf das Erfassen der Anforderung die erste Audionachricht wieder. In Block 3508 erfasst das Gerät nach der Wiedergabe der ersten Audionachricht ein Anheben des Geräts. In Block 3510 zeichnet das Gerät in Reaktion auf das Anheben des Geräts eine zweite Audionachricht auf. Optional kann das Gerät in Block 3510 während der Aufzeichnung der zweiten Audionachricht ein Absenken des Geräts erfassen und in Reaktion auf das Erfassen des Absenkens des Geräts kann das Gerät die Aufzeichnung der zweiten Audionachricht beenden. In Block 3512 sendet das Gerät nach Aufzeichnen der zweiten Audionachricht die zweite Audionachricht an den ersten Teilnehmer. Optional kann das Gerät in Block 3512 in Reaktion auf das Erfassen des Absenkens des Geräts und nach Beenden der Aufzeichnung der zweiten Audionachricht die zweite Audionachricht an den ersten Teilnehmer senden.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3500 (z. B. 35 und 21A bis 24C) beschriebenen Prozesse ebenso in analoger Weise auf andere in dem vorliegenden Dokument beschriebene Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3600, 3700, 3800, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3500 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3500 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 52 beschriebenen.
  • 36 ist ein Ablaufdiagramm, das den Prozess 3600 zur Gruppierung von Nachrichten veranschaulicht. Der Prozess 3600 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 3602 empfängt das Gerät mehrere Nachrichten von einem ersten Teilnehmer innerhalb einer Zeitspanne. In Block 3604 bestimmt das Gerät, ob die Mehrzahl der Nachrichten Nachrichtengruppierungskriterien erfüllen. In einigen Ausführungsformen enthalten die Nachrichtengruppierungskriterien ein Kriterium, das erfüllt wird, wenn die Mehrzahl der Nachrichten einen numerischen Grenzwert übersteigen. In einigen Ausführungsformen können die Nachrichtengruppierungskriterien ein Kriterium erhalten, das erfüllt wird, wenn die Mehrzahl der Nachrichten voneinander um weniger als einen zeitlichen Grenzwert beabstandet sind. In einigen Ausführungsformen können die Nachrichtengruppierungskriterien ein Kriterium enthalten, das erfüllt wird, wenn die Mehrzahl der Nachrichten sequenziell aufeinanderfolgende Nachrichten sind. In einigen Ausführungsformen können die sequenziell aufeinanderfolgenden Nachrichten Nachrichten enthalten, die den gleichen Lesestatus haben, ohne dass dazwischen Nachrichten mit einem anderen Lesestatus empfangen wurden. In Block 3606 zeigt das Gerät gemäß einer Bestimmung, dass die Mehrzahl der Nachrichten den Nachrichtengruppierungskriterien entsprechen, eine einzelne Gruppe in einem umrahmten Nachrichtenfeld an, das die Mehrzahl der Nachrichten darstellt. Optional kann das Gerät in Block 3606 in einigen Ausführungsformen, in denen das umrahmte Nachrichtengruppenfeld mindestens zwei Audionachrichten darstellt, eine Anforderung zur sequenziellen Wiedergabe der wenigstens zwei Audionachrichten empfangen und in Reaktion auf das Empfangen der Anforderung die wenigstens zwei Audionachrichten nacheinander wiedergeben. In Block 3608 zeigt das Gerät gemäß einer Bestimmung, dass die Mehrzahl der Nachrichten die Nachrichtengruppierungskriterien nicht erfüllen, mehrere umrahmte Nachrichtenfelder an, die die Mehrzahl der Nachrichten darstellen.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3600 (z. B. 36 und 25A bis 25E) beschriebenen Prozesse ebenso in analoger Weise auf andere in dem vorliegenden Dokument beschriebene Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3700, 3800, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3600 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3600 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 53 beschriebenen.
  • 37 ist ein Ablaufdiagramm, das den Prozess 3700 zum Verwalten der Nachrichtenanzeige basierend auf Ablaufkriterien darstellt. Der Prozess 3700 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 3702 empfängt das Gerät eine erste Nachricht. In Block 3704 zeigt das Gerät eine Darstellung der ersten Nachricht an, die von der Anzeige gelöscht werden soll, wenn Ablaufkriterien erfüllt sind. In einigen Ausführungsformen basieren die Ablaufkriterien auf einer Zeitspanne. In einigen Ausführungsformen können die Ablaufkriterien darauf basieren, ob die erste Nachricht Medien enthält. In einigen Ausführungsformen können die Ablasskriterium darauf basieren, ob die Medien mit einem Ansatz zum schnellen Erfassen von Medien, wie bezüglich 6A bis 14 beschrieben, oder mit einem anderen Ansatz erfasst wurden. In Block 3706 zeigt das Gerät ein Angebot zum Aufbewahren der ersten Nachricht an. In Block 3708 behält das Gerät die erste Nachricht gemäß einer Bestimmung bei, dass das Angebot vor der Erfüllung des Ablaufkriteriums ausgewählt wurde. Wenn die erste Nachricht Medien enthält, kann das Gerät in Block 3708 optional die Medien in einer Medienbibliothek gemäß einer Bestimmung speichern, dass das Angebot vor der Erfüllung des Ablaufkriteriums ausgewählt wurde. In einigen Ausführungsformen speichert das Gerät 100 nur Medien, die mithilfe des Ansatzes zum schnellen Erfassen von Medien erfasst wurden, wie bezüglich 6A bis 14 beschrieben. Wenn die erste Nachricht Medien enthält und der Ablauf auf einer Zeitspanne basiert, kann in einigen Ausführungsformen die Zeitspanne ab dem Zeitpunkt gemessen werden, ab dem das Medium wiedergegeben wird. Wenn die erste Nachricht Medien enthält und der Ablauf auf einer Zeitspanne basiert, kann in einigen Ausführungsformen die Zeitspanne ab dem Zeitpunkt gemessen werden, ab dem das Medium erstellt wird. In Block 3710 beendet das Gerät die Anzeige der Darstellung der ersten Nachricht auf der Anzeige gemäß einer Bestimmung, dass das Ablaufkriterium erfüllt wurde, ohne dass die Auswahl des Angebots erfasst wurde. Optional kann das Gerät in Block 3710 eine zweite Nachricht empfangen, die nicht basierend auf dem Ablaufkriterium gelöscht wird.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3700 (z. B. 37 und 26 bis 27C) beschriebenen Prozesse ebenso in analoger Weise auf andere in dem vorliegenden Dokument beschriebene Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3600, 3800, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3700 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3700 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 54 beschriebenen.
  • 38 ist ein Ablaufdiagramm, das den Prozess 3800 zum Teilen von Standorten veranschaulicht. Der Prozess 3800 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 3802 zeigt das Gerät auf der Anzeige davon einen Nachrichtenbereich zum Anzeigen von Nachrichten an, die zwischen einem ersten Teilnehmer und einem zweiten Teilnehmer in einem Nachrichtenaustausch gesendet werden. In Block 3804 zeigt das Gerät eine Anforderung zum Teilen des Standorts zum Teilen des Standorts des ersten Teilnehmers mit dem zweiten Teilnehmer an, wenn sich der Standort in wenigstens einer bestimmten Zeitspanne ändert. In Block 3806 erfasst das Gerät einen Kontakt an einer Position auf der berührungsempfindlichen Oberfläche, die einer Position des Angebots zum Teilen des Standorts auf der Anzeige entspricht. In Block 3808 stellt das Gerät in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Anzeige, die der Position des Angebots zum Teilen des Standorts entspricht, dem zweiten Teilnehmer Informationen bereit, die es dem zweiten Teilnehmer ermöglichen, einen aktuellen Standort des ersten Teilnehmers in wenigstens der bestimmten Zeitspanne zu bestimmen. In einigen Ausführungsformen kann das Gerät dem Benutzer die Auswahl einer Zeitspanne erlauben. Optional kann das Gerät in Block 3808 in Reaktion auf das Erfassen des Kontakts an der Position, die dem Angebot zum Teilen des Standorts entspricht, wenigstens zwei Angebote anzeigen, die wenigstens zwei bestimmten Zeitspannen entsprechen, einen Kontakt an einer Position auf der berührungsempfindlichen Oberfläche erfassen, die einer Position von einem der wenigstens zwei Angebote auf der Anzeige entspricht, und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberfläche, die der Position von einem der wenigstens zwei Angebote auf der Anzeige entspricht, dem zweiten Teilnehmer Informationen bereitstellen, die es dem zweiten Teilnehmer ermöglichen, die aktuelle Position des ersten Teilnehmers in der bestimmten Zeitspanne entsprechend dem einen der wenigstens zwei Angebote zu bestimmen. Optional kann das Gerät in Block 3808 vom zweiten Teilnehmer Standortinformationen empfangen, die dynamisch einen Standort eines ersten externen Geräts angeben, und auf der Anzeige einen Standort des elektronischen Geräts und den Standort des ersten externen Geräts auf einer Karte anzeigen. Optional kann in Block 3808 das Gerät einen dritten Teilnehmer zum Nachrichtenaustausch hinzufügen, vom dritten Teilnehmer Standortinformationen empfangen, die einen Standort des zweiten externen Geräts angeben und auf der Anzeige den Standort des zweiten externen Geräts auf der Karte anzeigen. Optional kann in Block 3808 das Gerät auf der Anzeige zusammen mit dem Nachrichtenaustausch ein Detailangebot anzeigen, einen Kontakt an einer Position auf der berührungsempfindlichen Oberfläche erfassen, die einer Position des Detailangebots der Anzeige entspricht, und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberfläche, die der Position der Detailanforderung auf der Anzeige entspricht, die Karte anzeigen, die den Standort der zwei oder mehreren Teilnehmer im Nachrichtenaustausch anzeigt, die ihre Standorte teilen.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3800 (z. B. 38 und 28A bis 32C) beschriebenen Prozesse ebenso in analoger Weise auf die in dem vorliegenden Dokument beschriebenen Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3600, 3700, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3800 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3800 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 55 beschriebenen.
  • 39 ist ein Ablaufdiagramm, das den Prozess 3900 zum Hinzufügen von Medien in einen Nachrichtenaustausch veranschaulicht. Der Prozess 3900 kann bei einem elektronischen Gerät mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem Kamerasensor durchgeführt werden. In Block 3902 zeigt das Gerät auf der Anzeige einen Nachrichtenbereich zum Anzeigen eines Nachrichtenaustauschs an. In Block 3904 erfasst das Gerät eine Anforderung zum Hinzufügen von Medien zum Nachrichtenaustausch. In Block 3906 zeigt das Gerät als Reaktion auf das Empfangen der Anforderung eine Medienauswahl-Benutzerschnittstelle gleichzeitig mit wenigstens einem Teil des Nachrichtenaustauschs an, wobei die Medienauswahl-Benutzerschnittstelle eine Mehrzahl von Angeboten enthält, wobei wenigstens eine Teilmenge davon Miniaturbilddarstellungen der Medien enthalten, die zum Hinzufügen in den Nachrichtenaustausch verfügbar sind, um die Medien zum Hinzufügen in den Nachrichtenaustausch auszuwählen. In Block 3908 erfasst das Gerät die Auswahl eines entsprechenden Angebots aus der Mehrzahl der Angebote. In Block 3910 wählt das Gerät in Reaktion auf das Erfassen der Auswahl des entsprechenden Angebots die zugehörigen Medien zum Hinzufügen in den Nachrichtenaustausch aus. Optional kann das Gerät in Block 3910 in Reaktion auf das Erfassen der Auswahl des entsprechenden Angebots die Medien zum Nachrichtenaustausch hinzufügen. Optional, wenn die mehreren Angebote ein Live-Vorschauangebot beinhalten, kann das Gerät in Block 3910 einen Kontakt an einer Position auf der berührungsempfindlichen Anzeige erfassen, die einer Position des Live-Vorschauangebots auf der Anzeige entspricht, und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberfläche, die der Position der Live-Kameravorschau entspricht, ein neues Bilds basierend auf der Live-Kameravorschau erfassen und das neue Bild zum Hinzufügen in den Nachrichtenaustausch auswählen.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 3900 (z. B. 39 und 15A bis 18C) beschriebenen Prozesse ebenso in analoger Weise auf die in dem vorliegenden Dokument beschriebenen Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3600, 3700, 3800, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 3900 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 3900 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 56 beschriebenen.
  • 40 ist ein Ablaufdiagramm, das den Prozess 4000 zum Initiieren einer Audiooperation veranschaulicht. Der Prozess 4000 wird bei einem elektronischen Gerät (z. B. Gerät 100) mit einer Anzeige (z. B. Anzeige 112 von Gerät 100) und einem Mikrofon (z. B. Mikrofon 113 von Gerät 100) ausgeführt. In Block 4002 erfasst das Gerät eine Änderung des Gerätekontexts basierend auf einer Bewegung des elektronischen Geräts und einen oder mehreren Lesewerten des Näherungssensors (z. B. durch eine Anhebebewegung, wie in 21B dargestellt). In Block 4004 bestimmt das Gerät als Reaktion auf das Erfassen der Änderung des Gerätekontexts, ob das Gerät Audiooperationskriterien erfüllt. Audiooperationskriterien umfassen zum Beispiel ein Kriterium, das erfüllt wird, wenn die Bewegung des elektronischen Geräts ein Bewegungskriterium erfüllt und die Lesewert(e) des Näherungssensors ein Näherungskriterium erfüllen. In Block 4006 initiiert das Gerät eine Audiooperation gemäß einer Bestimmung, dass eine Änderung des Gerätekontexts die Audiooperationskriterien erfüllt. In Block 4008 unterbindet das Gerät eine Initiierung der Audiooperation gemäß einer Bestimmung, dass eine Änderung des Gerätekontexts die Audiooperationskriterien nicht erfüllt.
  • Der Prozess 4000 ermöglicht Benutzer zweckmäßigerweise die Initiierung einer Audiooperation mit einer einfachen Geste (z. B. durch Anheben eines Telefons an das Ohr des Benutzers). Der Prozess 4000 reduziert für Benutzer die Notwendigkeit, das Gerät zu inspizieren und Angebote darauf auszuwählen, um eine Audiooperation zu initiieren, wie das Senden von Audionachrichten. Weiterhin wirken Bewegungskriterium und Näherungskriterium zusammen, um in vorteilhafter Weise den Umfang an fehlerhaften Audiooperationen zu verringern. Die erhöhte Effizienz der Benutzerschnittstelle und das verringerte Auftreten und die kürzere Dauer von fehlerhaften Audiooperationen senken beide den Energieverbrauch des Geräts, was vor allem für akkubetriebene Geräte wichtig ist, in denen ein verringerter Energieverbrauch die Lebensdauer des Akkus erhöht.
  • In einigen Ausführungsformen wird ein Bewegungskriterium erfüllt, wenn das Gerät entlang der in 21A bis 22C dargestellten nach oben verlaufenden Bahnen bewegt wird. In einigen Ausführungsformen wird die Bewegung des Geräts mithilfe von einem oder mehreren Beschleunigungsmessern 168 und optionalen Sensoren auf dem Gerät 100 verfolgt (1A). In einigen Ausführungsformen wird ein Bewegungskriterium erfüllt, wenn sich das Gerät in einer Ausrichtung befindet, die sich von einer bestimmten Ausrichtung bzw. von bestimmten Ausrichtungen unterscheidet (z. B. erfüllt ist, wenn das Gerät nicht umgedreht ist). In einigen Ausführungsformen wird das Bewegungskriterium erfüllt, wenn das Gerät entlang einer im Allgemeinen nach oben verlaufenden Bahn bewegt wird, oder einer Bahn, die nach oben gerichtet ist, wobei das Gerät von einer Position, in der die Anzeige in etwa parallel zur Erdoberfläche ausgerichtet ist (z. B., wenn der Benutzer die Anzeige der Kommunikation auf der Anzeige betrachtet) zu einer Position, in der die Anzeige in etwa vertikal zur Erdoberfläche ist (z. B., wenn der Benutzer das Gerät angehoben hat, um es neben dem Ohr des Benutzers zu platzieren, um eine Audionachricht abzuhören oder aufzuzeichnen), gedreht wird.
  • In einigen Ausführungsformen wird ein Näherungskriterium erfüllt, wenn sich das Telefon, wie in 21B dargestellt, am Gesicht des Benutzers befindet. In einigen Ausführungsformen werden die Lesewerte des Näherungssensors durch den Näherungssensor 166 von Gerät 100 geliefert, und das Näherungskriterium wird erfüllt, wenn der Sensor eine enge Nähe zu einem Objekt angibt (z. B. ein paar Zentimeter), das das Gesicht eines Benutzers sein kann.
  • 41A und 41B sind Ablaufdiagramme, die optionale Unterprozesse in Block 4002 von Prozess 4000 (40) veranschaulichen. In einigen Ausführungsformen werden eine oder mehrere der in 41A dargestellten optionalen Prozesse 4102 bis 4106 in Block 4002 ausgeführt (40). In Block 4102 empfängt das Gerät eine Kommunikation, zum Beispiel, eine Audionachricht, Textnachricht, Sprachnachricht oder einen Telefonanruf. In Block 4104 stellt das Gerät in Reaktion auf den Empfang der Kommunikation und vor dem Erfassen der Änderung des Gerätekontexts (z. B. vor Block 4004 von Prozess 4000 in 40) einen Hinweis bereit, dass die Kommunikation erhalten wurde. Zu den möglichen Hinweisen gehören eine visuelle Benachrichtigung (z. B. ein Banner „Nachricht erhalten”, oder eine anwendungsspezifische Anzeige, wie eine Sprechblase), eine taktile Benachrichtigung (z. B. Vibration) oder eine Audiobenachrichtigung (z. B. Antippen oder einen Klingelton). Zu den möglichen Hinweisen gehören sowohl solche, die auf einer Benutzerschnittstelle im gesperrten Status angezeigt werden wie auch solche, die auf einer Benutzerschnittstelle im entsperrten Status angezeigt werden. In einigen Ausführungsformen umfasst das Anzeigen des Hinweises, dass die Kommunikation empfangen wurde, das Starten einer Messaging-Anwendung. Eine Messaging-Anwendung (bzw. Nachrichtenübertragungsanwendung) ist eine Anwendung, die dazu ausgestaltet ist, Kurznachrichten über Services zu verarbeiten, wie SMS und MMS und/oder Textnachrichten über Services, wie iMessage®, der zum Beispiel von Apple, Inc. mit Sitz in Cupertino, Kalifornien, bereitgestellt wird.
  • In Block 4106 gibt das Gerät eine Audiokomponente der empfangenen Kommunikation vor dem Erfassen der Änderung des Gerätekontexts wieder. Zum Beispiel, wenn die Kommunikation eine Nachricht mit einer Audiokomponente enthält, die vom Gerät nicht wiedergegeben wurde, zum Beispiel eine neue Audionachricht, dann weist die Audiooperation die Wiedergabe der Audiokomponente der Nachricht auf. Als weiteres Beispiel, wenn die Kommunikation eine Sprachnachricht aufweist, dann wird die Sprachnachricht wiedergegeben.
  • Es wird auf 41B Bezug genommen, wo in einigen Ausführungsformen in Block 4002 optionale Prozesse 4108 und 4110 ausgeführt werden (40) In Block 4108 erfasst das Gerät vor dem Erfassen einer Änderung des Gerätekontexts, dass es sich in einem Audio-Messaging-Kontext befindet. Zum Beispiel bestimmt das Gerät, dass es sich im Messaging-Kontext befindet, wenn eine eingehende Nachricht mit einer Audiokomponente empfangen wird (optional in einem Aktualitätsfenster). Als weiteres Beispiel bestimmt das Gerät, dass es sich im Nachrichtenkontext befindet, wenn eine Messaging-Anwendung aktiv ist. In Block 4110 erfasst das Gerät eine Änderung des Gerätekontexts nur, wenn das elektronische Gerät sich in einem Audio-Messaging-Kontext befindet (z. B., wenn eine Kommunikationsanwendung geöffnet ist oder eine Kommunikation vor kurzem empfangen wurde). Ein vorteilhafter Effekt der Prozesse 4108 und 4110 besteht darin, dass der Beschleunigungsmesser und/oder der Näherungssensor, die zum Erfassen einer Bewegung nach oben zum Sprechen erforderlich sind, abgeschaltet sein können (oder wenigstens nicht aktiv überwacht werden), wenn das Gerät sich nicht im Audiokontext befindet, wodurch der Stromverbrauch gesenkt wird (z. B., werden die Ressourcen verringert, die zur Überwachung von Änderungen im Gerätekontext benötigt werden, ebenso werden Ressourcen verringert, die zum Aufzeichnen und Verarbeiten von Audio aus falschen positiven Erfassungen verwendet werden), und somit wird Strom gespart und die Akkulebensdauer für das Gerät verlängert.
  • In einigen Ausführungsformen, wie oben erörtert, überwacht das Gerät in Block 4110 Änderungen im Gerätekontext nur, wenn sich das Gerät in einem Audio-Messaging-Kontext befindet. In einigen Ausführungsformen überwacht das Gerät Änderungen im Gerätekontext, die die Audiooperationskriterien erfüllen, selbst wenn eine Multimedia-Messaging-Anwendung offen ist, außer ein aktuell ausgewählter Nachrichtenaustausch in der Multimedia-Messaging-Anwendung enthält wenigstens eine Nachricht mit einer Audiokomponente (z. B. eine Audiokomponente, die von dem Benutzer oder einem der anderen Teilnehmer im Nachrichtenaustausch aufgezeichnet und gesendet wurde). Wie oben beschrieben, senkt die Reduzierung von Situationen, in denen das Gerät Änderungen des Gerätekontexts überwacht, den Stromverbrauch des Geräts, wodurch Strom eingespart wird und bei akkubetriebenen Geräten die Lebensdauer des Akkus verlängert wird. Darüber hinaus senkt die Reduzierung von Situationen, in denen das Gerät Änderungen im Gerätekontext überwacht, die Wahrscheinlichkeit einer falschen positiven Initiierung von Audiooperationen (z. B. Start einer Audioaufzeichnung, wenn der Benutzer das Gerät hochhebt und auf einer Kommode ablegt, während eine Nachrichtenanwendung aktiv ist), wodurch die Gesamtqualität der Benutzererfahrung verbessert wird.
  • 42A bis 43C sind Ablaufdiagramme, die optionale Unterprozesse in Block 4004 von Prozess 4000 (40) veranschaulichen. Es wird wieder auf 42A Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4202 in Block 4004 ausgeführt wird (40). In Block 4202 bestimmt das Gerät, ob die Nachricht in einer bestimmten Zeitspanne vor dem Erfassen der Änderung des Gerätekontexts empfangen wurde, und die Wiedergabe der Audiokomponente der Nachricht beinhaltet das Abspielen der Audiokomponente der Nachricht, wenn die Nachricht in der bestimmten Zeitspanne empfangen wurde. Wenn die Nachricht nicht innerhalb der Zeitspanne empfangen wurde, liefert Block 4202 (und damit Block 4004) das Ergebnis „Nein” und die Verarbeitung geht zu Block 4008 weiter (40), wo das Gerät die Möglichkeit der Initiierung einer Audiooperation, wie die Aufzeichnung einer neuen Audionachricht, verwirft. Wenn die Nachricht innerhalb der Zeitspanne empfangen wurde, liefert Block 4202 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4004 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4006 weiter (40), wo das Gerät eine Audiooperation initiieren kann, wie die Aufzeichnung einer neuen Audionachricht. Als Beispiel ist die neu aufgezeichnete Audionachricht eine Antwort auf eine empfangene Kommunikation.
  • Es wird auf 42B Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4204 in Block 4004 von Prozess 4000 ausgeführt wird (40). Wie oben beschrieben wurde, hat das Gerät in einigen Ausführungsformen vor Erreichen von Prozess 4204 die Audiokomponente der empfangenen Kommunikation wiedergegeben. In diesen Situationen kann das Gerät den optionalen Block 4204 ausführen, um zu bestimmen, ob eine erfasste Änderung im Gerätekontext innerhalb der bestimmten Zeitspanne der Wiedergabe der Audionachricht aufgetreten ist. Wenn die Änderung im Gerätekontext außerhalb der Zeitspanne aufgetreten ist, liefert Block 4204 (und damit Block 4004) das Ergebnis „Nein” und die Verarbeitung geht zu Block 4008 weiter (40), wo das Gerät die Möglichkeit der Initiierung einer Audiooperation, wie die Aufzeichnung einer neuen Audionachricht, verwirft. Wenn eine Kontextänderung innerhalb der bestimmten Zeitspanne ab dem Zeitpunkt der Wiedergabe der Audiokomponente erfasst wurde, liefert Block 4204 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4004 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4006 weiter, wo das Gerät eine Audiooperation, wie die Aufzeichnung einer neuen Nachricht, initiieren kann.
  • Es wird auf 43A Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4302 in Block 4004 von Prozess 4000 ausgeführt wird (40). In Block 4302 bestimmt das Gerät ein Ende der Bewegung und eine Ausrichtung des elektronischen Geräts am Ende der Bewegung. Zum Beispiel beinhaltet das Bestimmen eines Endes der Bewegung die Bestimmung, dass das Gerät nach der Bewegung über einer bestimmten Grenzwertgeschwindigkeit (z. B. 22,86 cm/s–1, 30 cm/s–1 , 45 cm/s–1, 60 cm/s–1) nicht länger als einen bestimmten Zeitraum (z. B. 0,5 Sekunden, 0,75 Sekunden 1 Sekunde 1,25 Sekunden, 1,5 Sekunden) über einen Grenzwertbetrag bewegt wurde (z. B. einen Geräuschfilterwert, wie von einem Fachmann angesichts des konkreten verwendeten Beschleunigungsmessers bestimmt). Zum Beispiel beinhaltet die Bestimmung einer Ausrichtung des Geräts die Bestimmung, ob das Gerät sich in einer bestimmten Ausrichtung befindet (z. B. mit der Oberseite nach oben oder mit der Oberseite nach unten, mit dem Mikrofon nach unten oder mit dem Mikrofon nach oben). In einigen Ausführungsformen wird das Bewegungskriterium erfüllt, wenn sich das elektronische Gerät nicht in einer bestimmten Ausrichtung (z. B. mit der Oberseite nach unten) am Ende des Bewegungsendes befindet.
  • Vorteilhafterweise hat dieses Merkmal die Wirkung, das Auftreten von fehlerhaften Audiooperationen zu reduzieren. Da einige Geräteausrichtungen unwahrscheinlich mit einer Audiooperation verknüpft sind, verringert das Unterbunden von Audiooperationen, wenn sich das Gerät in diesen Ausrichtungen befindet, das Auftreten fehlerhaften Audiooperationen. Die erhöhte Effizienz der Benutzerschnittstelle und das geringere Auftreten und die kürzere Dauer von fehlerhaften Audiooperationen senken beide den Energieverbrauch des Geräts, was vor allem für akkubetriebene Geräte wichtig ist, in denen ein geringerer Energieverbrauch die Lebensdauer des Akkus erhöht.
  • In einigen Ausführungsformen weist das elektronische Gerät einen Lautsprecher (z. B. Lautsprecher 111 in 2) auf, der auf einer Oberseite des Geräts angeordnet ist und in der bestimmten Ausrichtung mit der Oberfläche nach unten zeigt (z. B. im Bezug zur Schwerkraft). In einigen Ausführungsformen weist das elektronische Gerät einen Lautsprecher auf, und in der bestimmten Ausrichtung ist das Mikrofon über dem Ohrstück angeordnet (z. B. bezüglich der Schwerkraft). Wenn die Geräteausrichtung am Ende der Bewegung das Bewegungskriterium nicht erfüllt, liefert Block 4302 (und damit Block 4004) das Ergebnis „Nein” und die Verarbeitung geht zu Block 4008 weiter (40), wo das Gerät die Möglichkeit der Initiierung einer Audiooperation, wie die Aufzeichnung einer neuen Audionachricht, verwirft. Wenn die Geräteausrichtung am Ende der Bewegung die Bewegungskriterien erfüllt, liefert Block 4302 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4004 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4006 weiter, wo das Gerät eine Audiooperation, wie die Aufzeichnung einer neuen Nachricht, initiieren kann.
  • Es wird auf 43B Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4302 in Block 4004 von Prozess 4000 ausgeführt wird (40). In Block 4304 bestimmt das Gerät, ob die Lesewerte des Näherungssensors die Erfassung eines Objekts in der Nähe des elektronischen Geräts innerhalb einer bestimmten Zeitspanne nach der Bewegung angeben, nachdem eine Bewegung erfasst wurde, die das Bewegungskriterium erfüllt. Ein Objekt in der Nähe des Geräts befindet sich optional innerhalb eines vernünftigen Grenzwerts, wie 0,025 cm, 0,05 cm, 2,5 cm, 5 cm oder 12,5 cm, oder einem anderen vernünftigen Grenzwert des Geräts. Das bestimmte Zeitintervall umfasst zum Beispiel 0,5, 0,7 5,1, 1,25 oder 1,5 Sekunden. Wenn der Lesewert des Näherungssensors außerhalb der Zeitspanne erfasst wurde, liefert Block 4304 (und damit Block 4004) das Ergebnis „Nein” und die Verarbeitung geht zu Block 4008 weiter (40), wo das Gerät die Möglichkeit der Initiierung einer Audiooperation, wie die Aufzeichnung einer neuen Audionachricht, verwirft. Wenn der Lesewert des Näherungssensors innerhalb der Zeitspanne empfangen wurde, liefert Block 4304 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4004 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4006 weiter, wo das Gerät eine Audiooperation, wie die Aufzeichnung einer neuen Audionachricht, initiieren kann.
  • Es wird auf 43C Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4306 in Block 4004 von Prozess 4000 ausgeführt wird (40) In Block 4306 bestimmt das Gerät, ob das elektronische Gerät sich in der bestimmten Ausrichtung innerhalb einer bestimmten Zeitspanne (z. B. 3 Sekunden) ab der Bestimmung befindet, dass die Bewegung das Bewegungskriterium erfüllt, und die einen oder mehreren Lesewerte des Näherungssensors das Näherungskriterium erfüllen. Wenn sich das Gerät innerhalb der bestimmten Zeitspanne in der bestimmten Ausrichtung befindet und das Gerät die Audiooperationskriterien nicht erfüllt, dann liefert Block 4306 (und damit Block 4004) das Ergebnis „Nein” und die Verarbeitung geht zu Block 4008 weiter (40), wo das Gerät die Möglichkeit der Initiierung einer Audiooperation, wie die Aufzeichnung einer neuen Audionachricht, verwirft. Wenn sich das Gerät nicht in der bestimmten Ausrichtung innerhalb der Zeitspanne befindet, liefert Block 4304 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4004 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4006 weiter, wo das Gerät eine Audiooperation, wie die Aufzeichnung einer neuen Nachricht, initiieren kann.
  • 44A bis 45C sind Ablaufdiagramme, die optionale Unterprozesse in Block 4006 von Prozess 4000 (40) veranschaulichen. In einigen Ausführungsformen weist Block 4006 optionale Prozesse 4402 bis 4406 auf, die in 44A dargestellt sind. In Block 4402 (44A) bestimmt das Gerät nach dem Initiieren der Audiooperation, ob sich das elektronische Gerät in einer bestimmten Ausrichtung befindet. Wenn ja, geht die Verarbeitung zu Block 4404 weiter, wo das Gerät die Audiooperation gemäß einer Bestimmung beendet, dass sich das elektronische Gerät in der bestimmten Ausrichtung befindet. Das Beenden der Audiooperation umfasst optional das Beenden der Audiowiedergabe und/oder das Beenden der Audioaufzeichnung; optional das Löschen von allen bereits aufgezeichneten Audiodaten; optional das Speichern bereits aufgezeichneter Audiodaten und die Aufforderung an einen Benutzer, die aufgezeichneten Audiodaten zu senden. Im Falle von „Nein” geht die Verarbeitung zu Block 4406 weiter, das Gerät verwirft das Beenden der Audiooperation gemäß einer Bestimmung, dass sich das elektronische Gerät nicht in der bestimmten Ausrichtung befindet.
  • In einigen Ausführungsformen weist das elektronische Gerät einen Lautsprecher (z. B. Lautsprecher 111 von Gerät 100) auf, der auf einer Oberseite des Geräts angeordnet ist und die Oberfläche in der bestimmten Ausrichtung nach unten zeigt (z. B. im Bezug zur Schwerkraft). In einigen Ausführungsformen weist das elektronische Gerät ein Ohrstück auf, und in der bestimmten Ausrichtung ist das Mikrofon über dem Ohrstück angeordnet (z. B. bezüglich der Schwerkraft).
  • Es wird auf 44B Bezug genommen, wo in einigen Ausführungsformen optionale Prozesse 4408 bis 4410 in Block 4006 von Prozess 4000 ausgeführt werden (40). In Block 4408 erfasst das Gerät nach Initiieren der Audiooperation, dass eine charakteristische Bewegung des elektronischen Geräts über einem bestimmten Grenzwert liegt. Die charakteristische Bewegung kann auf einer Ausgabe eines Beschleunigungsmessers über die Zeit (Durchschnitt), eine Spitzenausgabe, eine Ausgabe der Dauer oder einer Wiederholung basieren. Eine beispielhafte charakteristische Bewegung, die ein unwahrscheinliches Szenario für eine Audionachrichtenübertragung ist, ist das Wischen des Telefons an einem Ärmel. In Block 4410 beendet das Gerät die Audiooperation als Reaktion auf die Erfassung, dass eine charakteristische Bewegung des elektronischen Geräts über einem bestimmten Grenzwert liegt. Das Beenden der Audiooperation umfasst optional das Beenden der Audiowiedergabe und/oder das Beenden der Audioaufzeichnung; optional das Löschen von allen bereits aufgezeichneten Audiodaten; optional das Speichern bereits aufgezeichneter Audiodaten und die Aufforderung an einen Benutzer, die aufgezeichneten Audiodaten zu senden.
  • Diese Merkmale, die auf die Fähigkeit ausgerichtet sind, eine Audiooperation zu beenden, nachdem sie begonnen wurde, haben den vorteilhaften Effekt, Beeinträchtigungen der Benutzererfahrung aufgrund fehlerhafter Audiooperationen zu verringern. Es ist vorteilhaft, Audiooperationen schnell zu initiieren, um dadurch die Reaktionsfähigkeit zu verbessern und die Benutzererfahrung zu optimieren. In solchen Situationen sehen viele Dinge danach aus, dass ein Benutzer die Initiierung einer Audiooperation beabsichtigt. Zum Beispiel können das Anheben eines Telefons und das Einstecken in eine Tasche Bewegungskriterien und Näherungssensorkriterien auslösen. Die obigen charakteristischen Bewegungen und bestimmten Ausrichtungen sind höchstwahrscheinlich nicht mit Audio verknüpft. Das Beenden der Audiooperation, wenn diese Bewegungen und/oder Ausrichtungen erfasst werden, reduziert in vorteilhafter Weise die Anzahl der fehlerhaften Audiooperationen, während es die Wahrnehmung des Benutzers bezüglich der Reaktionsfähigkeit des Geräts nicht beeinflusst. Die erhöhte Effizienz der Benutzerschnittstelle und das verringerte Auftreten und die kürzere Dauer fehlerhafter Audiooperationen senken in beiden Fällen den Energieverbrauch des Geräts, was vor allem für akkubetriebene Geräte wichtig ist, in denen ein verringerter Energieverbrauch die Lebensdauer des Akkus erhöht.
  • Es wird auf 44C Bezug genommen. In einigen Ausführungsformen enthält der Block 4006 von Prozess 4000 (40) optionale Prozesse 4412 bis 4416. Wie oben erörtert, kann das Gerät die Aufzeichnung einer neuen Nachricht als Ergebnis einer vorgelagerten Verarbeitung initiieren. In Block 4412 bestimmt das Gerät, ob die Nachricht Sprache enthält. Zum Erfassen von Sprache vergleicht das Gerät optional ein erfasstes Signal mit bekannten Eigenschaften von Sprachwellenformen: Wenn die aufgezeichneten Daten eine bzw. mehrere bekannte Eigenschaft(en) von Sprachwellenformen enthalten, bestimmt das Gerät, dass die Nachricht Sprache enthält; wenn die Daten keine solche(n) Eigenschaft(en) enthalten, bestimmt das Gerät, dass die Nachricht keine Sprache enthält. In Block 4414 beendet das Gerät die Aufzeichnung der Nachricht gemäß einer Bestimmung, dass die Nachricht keine Sprache enthält. Das Beenden der Audiooperation umfasst optional das Beenden der Audiowiedergabe und/oder das Beenden der Audioaufzeichnung; optional das Löschen von allen bereits aufgezeichneten Audiodaten; optional das Speichern bereits aufgezeichneter Audiodaten und eine Aufforderung an einen Benutzer, die aufgezeichneten Audiodaten zu senden. In Block 4416 unterbindet das Gerät die Beendigung der Aufzeichnung der Nachricht gemäß einer Bestimmung, dass die Nachricht Sprache enthält.
  • Es wird auf 45A Bezug genommen, wo in einigen Ausführungsformen in Block 4006 optionale Prozesse 4502 bis 4504 von Prozess 4000 ausgeführt werden (40). Nach Wiedergabe einer Sprachnachricht erfasst das Gerät in Block 4502 eine Pumpbewegung des elektronischen Geräts. Die Pumpbewegung weist optional eine Bewegung nach unten auf, gefolgt von einer Bewegung nach oben (z. B. eine Bewegung, die die Kriterien einer Audiooperation erfüllt). Eine beispielhafte Pumpbewegung ist in 22A bis 22C dargestellt. In Block 4504 initiiert das Gerät in Reaktion auf das Erfassen der Pumpbewegung einen Telefonanruf bei einer Telefonnummer, die der Sprachnachricht zugeordnet ist (z. B. macht das Gerät einen Rückruf).
  • Es wird auf 45B Bezug genommen, wo in einigen Ausführungsformen optionale Prozesse 4506 bis 4510 in Block 4006 von Prozess 4000 ausgeführt werden (40). In Block 4506 bestimmt das Gerät, dass die Audiowiedergabekriterien erfüllt wurden. In Block 4508 gibt das Gerät gemäß einer Bestimmung, dass die Audiowiedergabekriterien erfüllt wurden, Audioinhalt wieder, der einer empfangenen Kommunikation entspricht. In einigen Ausführungsformen beinhalten die Audiowiedergabekriterien ein Kriterium, das erfüllt wird, wenn die Kommunikation eine Audiokomponente umfasst, die zuvor nicht auf dem Gerät wiedergegeben wurde. In einigen Ausführungsformen beinhalten die Audiowiedergabekriterien ein Kriterium, das erfüllt wird, wenn die Kommunikation innerhalb einer bestimmten Zeitspanne ab der Erfassung der Veränderung des Gerätekontexts empfangen wurde. In einigen Ausführungsformen beinhalten die Audiowiedergabekriterien ein Kriterium, das erfüllt wird, wenn die Kommunikation einem Kommunikationshinweis entspricht, der auf der Anzeige des Geräts angezeigt wurde, als die Änderung des Gerätekontexts erfasst wurde (z. B. eine Popup-Benachrichtigung auf dem Sperrbildschirm der Benutzerschnittstelle, eine Popup-Benachrichtigung, die über eine andere auf der Anzeige angezeigte Benutzerschnittstelle gelegt wird oder eine Nachricht in einem Nachrichtenaustausch). In Block 4508 verwirft das Gerät die Wiedergabe gemäß einer Bestimmung, dass das Audiowiedergabekriterium nicht erfüllt wurde.
  • Es wird auf 45C Bezug genommen, wo in einigen Ausführungsformen in Block 4006 optionale Prozesse 4512 bis 4516 von Prozess 4000 ausgeführt werden (40). In Block 4512 bestimmt das Gerät, dass Audioaufzeichnungskriterien erfüllt wurden. In Block 4514 zeichnet das Gerät gemäß einer Bestimmung, dass die Audioaufzeichnungskriterien erfüllt wurden, Audioinhalt als Antwort auf eine empfangene Kommunikation auf. In einigen Ausführungsformen umfassen die Audioaufzeichnungskriterien ein Kriterium, das erfüllt wird, wenn eine Benutzerschnittstelle für eine Kommunikationsanwendung auf der Anzeige angezeigt wird (z. B. eine Wählanwendung für ein Telefon, ein Nachrichtenaustausch einer Multimedia-Messaging-Anwendung, in der wenigstens eine Audionachricht gesendet oder empfangen wurde). In einigen Ausführungsformen umfassen die Audiowiedergabekriterien ein Kriterium, das erfüllt wird, wenn eine Audiokomponente der Nachricht innerhalb einer bestimmten Zeitspanne wiedergegeben wurde, nachdem die Änderung im Gerätekontext erfasst wurde. In Block 4516 verwirft das Gerät die Aufzeichnung gemäß einer Bestimmung, dass das Audioaufzeichnungskriterium nicht erfüllt wurde.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 4000 (z. B. 40 bis 45 und 21 bis 22) beschriebenen Prozesse ebenso in analoger Weise auf die in dem vorliegenden Dokument beschriebenen Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3600, 3700, 3800, 3900, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 4000 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 4000 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 57 beschriebenen.
  • 46 ist ein Ablaufdiagramm, das den Prozess 4600 zum Senden einer Nachricht veranschaulicht. Der Prozess 4600 wird in einigen Ausführungsformen bei einem elektronischen Gerät (z. B. Gerät 100) mit einer Anzeige (z. B. Anzeige 112 von Gerät 100) und wenigstens einem Mikrofon (z. B. Mikrofon 113 von Gerät 100) ausgeführt. In Block 4602 erfasst das Gerät eine oder mehrere Bedingungen, die als Anforderung zur Aufzeichnung einer Audionachricht für einen angegebenen Kontakt interpretiert werden. Ein angegebener Kontakt beinhaltet optional eine Person in den Kontakten, E-Mail und Telefonnummer, die zu einer empfangenen Nachricht oder Sprachnachricht gehören. Eine Anwendung, die jedoch auf die Spracheingabe ohne weitere Merkmale reaktionsfähig ist, sollte nicht als ein „Kontakt” betrachtet werden. Ein angegebener Kontakt ist ein Kontakt, der von einem Benutzer oder vom Gerät 100 identifiziert (z. B. angegeben) wird. In Block 4604 generieren die Geräte in Reaktion auf das Erfassen einer oder mehrerer Bedingungen eine Audioaufzeichnung mit dem wenigstens einen Telefon. In Block 4606 bestimmt das Gerät, ob das Audioaufzeichnungskriterium erfüllt wurde. In Block 4608 sendet das Gerät die Audioaufzeichnung gemäß einer Bestimmung, dass das Ablehnungskriterium nicht erfüllt wurde, an den angegebenen Kontakt. In Block 4610 verwirft das Gerät das Senden der Audioaufzeichnung an den angegebenen Kontakt gemäß einer Bestimmung, dass das Ablehnungskriterium erfüllt wurde.
  • Der Prozess 4600 kann vorteilhafterweise das Senden von fehlerhaften Nachrichten verringern. Durch Überwachung einer gerade durchgeführten Audioaufzeichnung auf Ablehnungskriterien bestimmt das Gerät in vorteilhafter Weise, dass ein Benutzer eine Audioaufzeichnung unbeabsichtigt aktiviert hat oder es sich während der Aufzeichnung anders überlegt hat. Dies hat den Effekt, dass die Kundenzufriedenheit bei einem Nachrichtenübertragungssystem steigt. Die erhöhte Effizienz der Benutzerschnittstelle und das verringerte Auftreten und die kürzere Dauer von fehlerhaften Audiooperationen senken beide den Energieverbrauch des Geräts, was vor allem für akkubetriebene Geräte wichtig ist, in denen ein verringerter Energieverbrauch die Lebensdauer des Akkus erhöht.
  • Die eine oder mehreren Bedingungen in Block 4602 umfassen optional eine Änderung des Gerätekontexts oder eine Benutzereingabe wie eine Anhebegeste, die ausführlicher oben bezüglich Prozess 4000 (40) beschrieben wurde, oder eine andere Eingabe in einem Messaging-Kontext, wie z. B. dass eine Multimedia-Messaging-Anwendung auf der Anzeige angezeigt wird.
  • In einigen Ausführungsformen wird das Ablehnungskriterium in Block 4606 erfüllt, wenn die Dauer der Audioaufzeichnung eine bestimmte Zeitspanne überschreitet (z. B. 15 Sekunden). Dieses Merkmal verhindert in zweckmäßiger Weise das Senden von Audioaufzeichnungen, wenn der Benutzer abgelenkt ist.
  • 47A bis 47D sind Ablaufdiagramme, die in Block 4606 optionale Unterprozesse von Prozess 4600 (46) veranschaulichen. Es wird auf 47A Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4702 in Block 4606 von Prozess 4600 ausgeführt wird (46). In Block 4702 erfasst das Gerät, ob die Audioaufzeichnung Sprache enthält. Das Ablehnungskriterium wird erfüllt, wenn bestimmt wird, dass die Audioaufzeichnung nicht mehr als einen Grenzwertbetrag enthält. Ein ganzer Betrag ist optional ein absoluter Betrag oder ein relativer Betrag, wie ein Prozentsatz. In einigen Ausführungsformen ist der Grenzwertbetrag ein Energiegrenzwert, wie eine kurzzeitige Energie und eine Nullpunktrate. In einigen Ausführungsformen basiert der Grenzwertbetrag auf einem Sprachmodell. In einigen Ausführungsformen wird das Ablehnungskriterium erfüllt, wenn kein Klang (Sound) (über einem Geräuschfiltergrenzwert) erfasst wird.
  • Es wird nun auf Ablehnungskriterien basierend auf einer Position des Geräts eingegangen. In einigen Ausführungsformen wird das Ablehnungskriterium erfüllt, wenn sich das elektronische Gerät innerhalb eines Abstandsgrenzwerts von einer Klangquelle befindet. Optional bestimmt das Gerät, ob das elektronische Gerät innerhalb des Abstandgrenzwerts liegt, indem bestimmt wird, ob der Näherungssensor (z. B. Näherungssensor 166 von Gerät 100) des Geräts ein Objekt im Abstandsgrenzwert des Geräts erfasst hat.
  • Es wird auf 47B Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4704 in Block 4606 von Prozess 4600 ausgeführt wird (46). In Block 4704 bestimmt das Gerät, ob sich das elektronische Gerät in einem Abstandsgrenzwert von einer Klangquelle befindet, indem eine Wellenform analysiert wird, die durch Kombination von Signalen erzeugt wird, die von einem ersten Mikrofon und einem zweiten Mikrofon erfasst werden (z. B. durch Auswerten durch Strahlenformung, eine Basisabschwächung im ausgeformten Strahl, wobei die Auswertung optional auf einer Entzerrung eines Nahfeldstrahls basiert). Wenn sich das Gerät nicht innerhalb des Abstandsgrenzwerts befindet, erzeugt Block 4704 (und somit Block 4606) die Ausgabe „Nein”, die Verarbeitung geht zu Block 4610 weiter, wo das Gerät die gerade durchgeführte Aufzeichnung beendet. Wenn sich das Gerät nicht im Abstandsgrenzwert befindet, liefert Block 4704 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4604 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4608 weiter, wo das das Gerät optional die Aufzeichnung fortsetzt und die aufgezeichnete Nachricht sendet.
  • Es wird auf 47C Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4706 in Block 4606 von Prozess 4600 ausgeführt wird (46). In Block 4706 bestimmt das Gerät, ob das elektronische Gerät sich im Abstandsgrenzwert befindet, indem bestimmt wird, ob ein Schalldruckpegel an dem wenigstens einen Mikrofon einen Schalldruckpegel-Grenzwert überschreitet. In einigen Ausführungsformen basiert der Schalldruckpegel-Grenzwert auf einer Funktion (z. B. Durchschnitt über die Zeit, Referenzpegel für Flüstern, lautes Sprechen, leises Sprechen, normale Tonlage usw.) der Schalldruckpegel, die zuvor vom elektronischen Gerät erfasst wurden. Wenn sich das Gerät nicht innerhalb des Abstandsgrenzwerts befindet, erzeugt Block 4706 (und somit Block 4606) die Ausgabe „Nein”, die Verarbeitung geht zu Block 4610 weiter, wo das Gerät die gerade durchgeführte Aufzeichnung beendet. Wenn sich das Gerät nicht im Abstandsgrenzwert befindet, liefert Block 4704 das Ergebnis „Ja”, und wenn andere Anforderungen in Block 4604 ebenso erfüllt sind, dann geht die Verarbeitung zu Block 4608 weiter, wo das das Gerät optional die Aufzeichnung fortsetzen und die aufgezeichnete Nachricht senden kann.
  • Es wird auf 47D Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4708 in Block 4606 des Prozesses ausgeführt wird (46). In Block 4708 bestimmt das Gerät, ob sich das elektronische Gerät in dem Abstandsgrenzwert befindet, indem ein Schalldruckpegel mit einem von dem wenigstens einen Mikrofon erfassten Hallpegel verglichen wird (z. B. durch Berechnen eines Verhältnisses der Energie der direkten Sprache zur Hallenergie und dem Vergleich dieses Verhältnisses mit einem Grenzwert). Wenn das Verhältnis eine Fernfeld-Akustik angibt, geht die Verarbeitung zu Block 4610 weiter, wo das Gerät die gerade durchgeführte Aufzeichnung beendet. Wenn das Verhältnis eine Feld-Akustik angibt, und wenn andere Anforderungen in Block 4606 ebenso erfüllt sind, darin geht die Verarbeitung zu Block 4608 weiter, wo das Gerät optional die Aufzeichnung fortsetzen und die aufgezeichnete Nachricht senden kann.
  • Obwohl die Beschreibung hier primär bezüglich einer Audiooperation angegeben wird, versteht es sich, dass die beschriebenen Systeme und Verfahren auf andere Operationen übertragen werden können. Zum Beispiel kann das Bestimmen der Position eines Telefons in anderen Anwendungen genutzt werden und kann als Plattform-Service bereitgestellt werden, um Informationen darüber bereitzustellen, ob sich das Telefon nahe am Ohr des Benutzers oder weiter vom Benutzer entfernt befindet. Solche Informationen können zum Beispiel zur Einstellung der Lautstärke eines Klingeltons verwendet werden.
  • In einigen Ausführungsformen basiert das Ablehnungskriterium auf einer Ausrichtung des elektronischen Geräts. In einigen Ausführungsformen weist das elektronische Gerät einen Lautsprecher (z. B. Lautsprecher 111 von Gerät 100) auf, der auf einer Oberseite des Geräts angeordnet ist, und das Ablehnungskriterium wird erfüllt, wenn die Oberfläche nach unten zeigt (z. B. im Bezug zur Schwerkraft). In einigen Ausführungsformen weist das elektronische Gerät ein Ohrstück auf, und das Ablehnungskriterium ist erfüllt, wenn das Mikrofon über dem Ohrstück angeordnet ist (z. B. bezüglich der Schwerkraft).
  • In einigen Ausführungsformen ist das Ablehnungskriterium erfüllt, wenn eine charakteristische Bewegung des elektronischen Geräts einen Grenzwert überschreitet. Die charakteristische Bewegung umfasst optional eine Gyroskop- und/oder eine Beschleunigungsmesserausgabe über die Zeit (Durchschnitt), eine Spitzenbewegung, eine Dauer der Bewegung oder eine Wiederholung der Bewegung (wie das Wischen eines Telefons am Ärmel).
  • In einigen Ausführungsformen erfolgt die Bestimmung, ob die Audioaufzeichnung dem Ablehnungskriterium entspricht, als Reaktion auf das Erfassen einer oder mehrerer Bedingungen, die als eine Anforderung zum Senden der Audioaufzeichnung an den angegebenen Kontakt interpretiert wird/werden. In einigen Ausführungsformen wird die Bestimmung nach der Audioaufzeichnung durchgeführt (z. B., nachdem ein kurzes Audiosegment aufgezeichnet wurde). In einigen Ausführungsformen erfolgt die Bestimmung während der Audioaufzeichnung (z. B., um so die Aufzeichnung eines langen Audiosegments zu beenden, wenn der Benutzer keine Audioaufzeichnung beabsichtigt).
  • 48A bis 48B sind Ablaufdiagramme, die in einigen Ausführungsformen optionale Unterprozesse in Block 4610 von Prozess 4600 (46) veranschaulichen. Es wird auf 48A Bezug genommen, wo in einigen Ausführungsformen der optionale Prozess 4802 in Block 4610 von Prozess 4600 ausgeführt werden kann (46). Wenn die Audioaufzeichnung das Ablehnungskriterium erfüllt, zeigt in Block 4802 das Gerät gleichzeitig eine Darstellung einer Entwurfsnachricht, die die Audioaufzeichnung enthält, und ein Sendeangebot an. (Dieser Aspekt wird für Gerät 100 in 22D veranschaulicht). Bei Erfassen einer Benutzerauswahl des Sendeangebots sendet das Gerät die Entwurfsnachricht an den angegebenen Kontakt.
  • Es wird auf 48B Bezug genommen, wo in einigen Ausführungsformen optionale Prozesse 4804 bis 4808 in Block 4610 von Prozess 4600 ausgeführt werden (46). In Block 4804 (48B) bestimmt das Gerät, wenn die Audioaufzeichnung das Ablehnungskriterium erfüllt, ob eine zwischen dem Erfassen der einen oder mehreren Bedingungen (z. B. Empfang der Benutzereingabe oder Start der Audioaufzeichnung) und der Bestimmung, dass die Audioaufzeichnung das Ablehnungskriterium erfüllt, verstrichene Zeit eine zeitlichen Grenzwert überschreitet. In Block 4806 zeigt das Gerät gemäß einer Bestimmung, dass die verstrichene Zeit den zeitlichen Grenzwert überschreitet, eine Darstellung einer Entwurfsnachricht an, die die Audioaufzeichnung enthält (z. B. die Benutzerschnittstelle von Gerät 100 in 22D). In Block 4808 löscht das Gerät gemäß einer Bestimmung, dass die verstrichene Zeit den zeitlichen Grenzwert nicht überschreitet, die Audioaufzeichnung, ohne die Darstellung der Entwurfsnachricht anzuzeigen. Wenn zum Beispiel die Aufzeichnung der Audionachricht kurz nach dem Start der Audioaufzeichnung oder kurz nach Beendigung der Audioaufzeichnung als falsch bestimmt wird, dann wird die Audionachricht gelöscht und der Benutzer nicht mit der Anzeige einer Entwurfsaudionachricht belästigt. In diesem Fall besteht die hohe Wahrscheinlichkeit, dass die Aufzeichnung irrtümlicherweise initiiert wurde, und in dieser Ausführungsform braucht ein Benutzer nicht mit einer wahrscheinlich versehentlichen Aufzeichnung belästigt werden. Wenn jedoch die Aufzeichnung der Audionachricht nach dem zeitlichen Grenzwert nach der Audioaufzeichnung oder nach Beginn der Audioaufzeichnung als falsch bestimmt wird, wird die Audionachricht als Entwurfgespeichert, der zum Senden durch den Benutzer verfügbar ist, um so eine Verwirrung oder Verärgerung des Benutzers zu vermeiden.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 4600 (z. B. 46 bis 48, 21 und 22) beschriebenen Prozesse ebenso in analoger Weise auf die in dem vorliegenden Dokument beschriebenen Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3600, 3700, 3900, 4000, 4600 und 4900 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 4600 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 4600 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 58 beschriebenen.
  • 49 ist ein Ablaufdiagramm, das den Prozess 4900 zum Erfassen und Senden von Medien veranschaulicht. Der Prozess 4900 kann bei einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt werden, wie dem Gerät 100 (2). In Block 4902 zeigt das Gerät auf der Anzeige ein Medienangebot an, ein Nachrichtenerstellungsfeld und einen Nachrichtenaustausch zwischen Teilnehmern, wobei der Nachrichtenaustausch in einem Nachrichtenbereich angezeigt wird. In Block 4904 bestimmt das Gerät einen Kontakt an einer Position auf der berührungsempfindlichen Oberfläche, die der Position des Medienangebots auf der Anzeige entspricht. In Block 4906 zeigt das Gerät in Reaktion auf das Erfassen des Kontakts eine Live-Medienvorschau in dem Nachrichtenerstellungsfeld an. In Block 4908 erfasst das Gerät ein Abheben des Kontakts. In Block 4910 erfasst das Gerät als Reaktion auf das Erfassen des Abhebens ein neues Bild basierend auf der Live-Medienvorschau und sendet das erfasste Bild an einen Teilnehmer in dem Nachrichtenaustausch. Optional wird das erfasste Bild an den Teilnehmer in Reaktion auf das Erfassen des Abhebens gesendet. Optional zeigt das Gerät eine Sendeschaltfläche zum Senden der Nachricht an. Das erfasste Medium wird an den Teilnehmer in Reaktion auf das Erfassen eines Kontakts an einer Position, die der Sendeschaltfläche entspricht, gesendet. Optional wird in Reaktion auf das Erfassen des Abhebens eine Darstellung des erfassten Bilds im Nachrichtenerstellungsfeld angezeigt. Das Gerät erfasst einen Benutzereintrag von weiterem Inhalt im Nachrichtenerstellungsfeld. Der weitere Inhalt und das erfasste Bild werden an den Teilnehmer in Reaktion auf das Erfassen des Kontakts gesendet. Optional werden ein Miniaturbild des erfassten Bilds und der weitere Inhalt in einem umrahmten Nachrichtenfeld angezeigt, das in den angezeigten Nachrichtenaustausch eingefügt wird.
  • Es ist zu beachten, dass die Details der oben bezüglich Prozess 4900 (z. B. 49 und 11C bis 11G) beschriebenen Prozesse ebenso in analoger Weise auf die in dem vorliegenden Dokument beschriebenen Prozesse anwendbar sind. Zum Beispiel können die Prozesse 3300, 3400, 3500, 3600, 3700, 3800, 3900, 4000 und 4600 ein oder mehrere Merkmale der verschiedenen Prozesse enthalten, die oben mit Bezugnahme auf Prozess 4900 beschrieben wurden. Der Kürze halber werden diese Details nicht in den Beschreibungen der anderen Prozesse wiederholt. Die verschiedenen Verfahren und Techniken, die oben bezüglich Prozess (Verfahren) 4900 beschrieben wurden, können optional als eine oder mehrere Einheiten implementiert werden, wie die bezüglich 59 beschriebenen.
  • Wie in 50 dargestellt, weist ein elektronisches Gerät 5000 eine Anzeigeeinheit 5002 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; eine berührungsempfindliche Oberflächeneinheit 5004, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5006, die mit der Anzeigeeinheit 5002 und der berührungsempfindlichen Oberflächeneinheit 5004 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5006 eine Einheit 5008 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5010, eine Bestimmungseinheit 5012, eine Sendeeinheit 5014, eine Medienerfassungseinheit 5016, eine Zuweisungseinheit 5018 und eine Empfangseinheit 5020.
  • Die Verarbeitungseinheit 5006 ist dazu ausgestaltet, die Anzeige eines Medienangebots und eines Nachrichtenbereichs zum Anzeigen von Nachrichten zu ermöglichen (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige), die zwischen den Teilnehmern in einem Nachrichtenaustausch ausgetauscht wurden; eine Geste auf der berührungsempfindlichen Oberflächeneinheit 5004 zu erfassen (z. B. mit der Erfassungseinheit 5010), die das Erfassen eines Kontakts an einer Position an der berührungsempfindlichen Oberflächeneinheit 5004 beinhaltet, die einer Position des Medienangebots auf der Anzeigeeinheit 5002 entspricht; in Reaktion auf das Erfassen des Kontakts: die Anzeige eines Sendeangebot auf der Anzeige zu ermöglichen (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige); eine Fortsetzung der Geste zu erfassen, die das Erfassen einer Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 5004 gefolgt von einem Erfassen des Abhebens des Kontakts von der berührungsempfindlichen Oberflächeneinheit beinhaltet; zu bestimmen (z. B. mit der Bestimmungseinheit 5012), ob der Kontakt an eine Position auf der berührungsempfindlichen Oberflächeneinheit bewegt wurde, die einer Position des Sendeangebots entspricht; und gemäß einer Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Oberflächeneinheit bewegt wurde, die der Position des Sendeangebots entspricht, und in Reaktion auf das Erfassen des Abhebens Medien, die in Reaktion auf wenigstens einen Teil der Geste erfasst wurden (z. B. mit der Medienerfassungseinheit 5016), an einen Teilnehmer im Nachrichtenaustausch zu senden (z. B. mit der Sendeeinheit 5014).
  • In einigen Ausführungsformen ist der Kontakt, auf den die Bewegung des Kontakts folgt, ein einzelner fortgesetzter Kontakt auf der berührungsempfindlichen Oberflächeneinheit 5004.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: als Reaktion auf das Erfassen des Kontakts die Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) eines Abbruchangebots auf der Anzeigeeinheit 5002 zu ermöglichen; zu bestimmen (z. B. mit der Bestimmungseinheit 5012), ob der Kontakt an eine Position auf der berührungsempfindlichen Oberflächeneinheit 5004 bewegt wurde, die einer Position des Abbruchangebots entspricht, und gemäß einer Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Oberflächeneinheit bewegt wurde, die der Position des Abbruchangebots entspricht, gefolgt von einem Abheben, das Senden der erfassten Medien an den Teilnehmer zu verwerfen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: nach dem Erfassen (z. B. mit der Erfassungseinheit 5010) des Abhebens, das Entfernen des Sendeangebots von der Anzeigeeinheit zu ermöglichen (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: gemäß einer Bestimmung, dass sich der Kontakt an die Position auf der berührungsempfindlichen Oberflächeneinheit 5004 bewegt hat, die der Position des Sendeangebots auf der Anzeigeeinheit 5002 entspricht, und in Reaktion auf das Erfassen des Abhebens: das Medium zu erfassen (z. B. mit der Medienerfassungseinheit 5016) und das Medium an den Teilnehmer zu senden (z. B. mit der Sendeeinheit 5014).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen des Kontakts mit dem Erfassen des Mediums zu beginnen (z. B. mit der Medienerfassungseinheit 5016); und gemäß einer Bestimmung, dass sich der Kontakt an die Position auf der berührungsempfindlichen Oberflächeneinheit 5004 bewegt hat, die der Position des Sendeangebots auf der Anzeigeeinheit 5002 entspricht und in Reaktion auf das Erfassen des Abhebens: die Medienerfassung zu beenden und die Medien an den Teilnehmer zu senden (z. B. mit der Sendeeinheit 5014).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: als Reaktion auf das Erfassen des Kontakts, das Erfassen des Mediums (z. B. mit der Medienerfassungseinheit 5016) zu beginnen; in Reaktion auf das Erfassen der Bewegung des Kontakts die Medienerfassung zu beenden und gemäß einer Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Oberflächeneinheit 5004 bewegt wurde, die der Position des Sendeangebots auf der Anzeigeeinheit 5002 entspricht, und in Reaktion auf das Erfassen des Abhebens, während sich der Kontakt an der Position auf der berührungsempfindlichen Oberflächeneinheit befindet, die dem Sendeangebot entspricht, das Medium an den Teilnehmer zu senden (z. B. mit der Sendeeinheit 5014).
  • In einigen Ausführungsformen sind die Medien von einem Mikrofon empfangene Audiodaten, und das Abheben befindet sich an einer Position an der berührungsempfindlichen Oberflächeneinheit, die der Position des Sendeangebots auf der Anzeigeeinheit entspricht, und die Verarbeitungseinheit 5006 ist weiterhin dazu ausgestaltet: als Reaktion auf das Erfassen des Kontakts mit dem Erfassen der Audiodaten zu beginnen (z. B. mit der Medienerfassungseinheit 5016); und gemäß einer Bestimmung, dass der Kontakt an die Position auf der berührungsempfindlichen Oberflächeneinheit 5004 bewegt wurde, die der Position des Sendeangebots auf der Anzeigeeinheit 5002 entspricht und in Reaktion auf das Erfassen des Abhebens, die Audiodatenerfassung und zu beenden und die Audiodaten an den Teilnehmer zu senden (z. B. mit der Sendeeinheit 5014).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: die Anzeige (z. B. mit einer Einheit 5008 zum Ermöglichen der Anzeige) eines Nachrichtenerstellungsfelds auf der Anzeigeeinheit 5002 zu ermöglichen; und gemäß einer Bestimmung, dass der Kontakt nicht an die Position auf der berührungsempfindlichen Oberflächeneinheit 5004 bewegt wurde, die weder der Position des Sendeangebots noch der Position auf der berührungsempfindlichen Oberfläche entspricht, die der Position des Abbruchangebots entspricht; und in Reaktion auf das Erfassen des Abhebens: die Anzeige auf der Anzeigeeinheit 5002 eines Bilds im Nachrichtenerstellungsfeld zu ermöglichen, wobei das Bild eine Wellenform aufweist, die das erfasste Medium darstellt.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen des Abhebens den Austausch der Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) des Medienangebots durch die Anzeige einer Sendeschaltfläche zum Senden (z. B. unter Verwendung der Sendeeinheit 5014) des erfassten Mediums an den Teilnehmer zu ermöglichen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen (z. B. mit der Erfassungseinheit 5010) des Kontakts auf der berührungsempfindlichen Oberflächeneinheit 5004 die Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) einer Medienvorschau auf der Anzeigeeinheit 5002 zu ermöglichen; und nach dem Erfassen des Abhebens die Anzeige der Medienvorschau auf der Anzeigeeinheit zu beenden.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: während der Kontakt auf dem Medienangebot beibehalten wird: eine Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5002 eines visuell hervorgehobenen Bereichs zu ermöglichen, wobei der visuell hervorgehobene Bereich das Medienangebot und das Sendeangebot einschließt; und in Reaktion auf das Erfassen der Bewegung des Kontakts die Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) des visuell unterschiedenen Bereichs zu erweitern.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5002 einer visuellen Tastatur zum Eingeben einer Nachricht an den Teilnehmer zu ermöglichen (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige); und eine Anzeige des Medienangebots entlang einer bestimmten Kante der Anzeigeeinheit 5002 über der virtuellen Tastatur zu ermöglichen (z. B. mit der Einheit zum Ermöglichen der Anzeige 5008), wobei der angezeigte visuell unterschiedene Bereich teilweise von der bestimmten Kante eingerahmt wird.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: die Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) des Medienangebots an einer Ecke der Anzeigeeinheit 5002 zu ermöglichen, wobei der angezeigte visuell hervorgehobene Bereich teilweise von zwei verschiedenen Kanten der Anzeigeeinheit eingerahmt wird.
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberflächeneinheit 5004 eine berührungsempfindliche Anzeige (z. B. ist die berührungsempfindliche Oberflächeneinheit 5004 Teil der Anzeigeeinheit 5002), und die Verarbeitungseinheit 5006 ist weiterhin dazu ausgestaltet: einen Eingabebereich für das Medienangebot zuzuweisen (z. B. mit der Zuweisungseinheit 5018), wobei der Eingabebereich ein Bereich der Anzeigeeinheit ist, der auf eine Berührungseingabe reaktionsfähig ist, und wobei der Eingabebereich eine größere Größe aufweist, wenn eine virtuelle Tastatur auf der Anzeigeeinheit angezeigt wird, als wenn die virtuelle Tastatur nicht angezeigt wird.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: eine Dauer des Kontakts auf dem Medienangebot zu bestimmen (z. B. mit der Bestimmungseinheit 5012); und gemäß einer Bestimmung, dass die Dauer des Kontakts unter einer Grenzwertdauer liegt, die Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5002 einer Medienauswahl-Benutzerschnittstelle zum Auswählen bestehender Medien zum Senden an den Teilnehmer anzuzeigen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5006 weiterhin dazu ausgestaltet: eine Benutzerangabe zu empfangen (z. B. mit der Empfangseinheit 5020), ob das Senden einer Gruppe von Metadaten der erfassten Medien an den Teilnehmer unterbunden werden soll.
  • In einigen Ausführungsformen umfassen die Metadaten eine Darstellung des Standorts des elektronischen Geräts.
  • In einigen Ausführungsformen ist das Medienangebot ein erstes Medienangebot, und die Verarbeitungseinheit 5006 ist weiterhin dazu ausgebildet: eine Anzeige (z. B. mit der Einheit 5008 zum Ermöglichen der Anzeige) eines zweiten Medienangebots auf der Anzeige 5002 zu ermöglichen.
  • In einigen Ausführungsformen ist das erste Medienangebot ein Audioerfassungsangebot zum Erfassen von Audiodaten, und das zweite Medienangebot ist ein Angebot zur Erfassung visueller Medien zum Erfassen von Videos oder Bildern.
  • In einigen Ausführungsformen laufen die Medien, die an den Teilnehmer gesendet werden, basierend auf Ablaufkriterien ab.
  • Die oben mit Bezugnahme auf 33 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 50 dargestellt sind. Zum Beispiel können die Operation 3302 zum Ermöglichen der Anzeige, die Erfassungsoperation 3304 und/oder die Bestimmungsoperation 3310 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180 und den Event Handler 190 implementiert werden. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob eine Geste auf der berührungsempfindlichen Oberfläche einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Aktivierung eines Angebots auf einer Benutzerschnittstelle. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 50 dargestellten Komponenten implementiert werden können.
  • Wie in 51 dargestellt, weist ein elektronisches Gerät 5100 eine Anzeigeeinheit 5102 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; eine berührungsempfindliche Oberflächeneinheit 5104, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5106, die mit der Anzeigeeinheit 5102 und der berührungsempfindlichen Oberflächeneinheit 5104 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5106 eine Einheit 5108 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5110, eine Bestimmungseinheit 5112, eine Sendeeinheit 5114, eine Medienerfassungseinheit 5116 und eine Medienwiedergabeeinheit 5118.
  • Die Verarbeitungseinheit 5106 ist dazu ausgestaltet, eine Anzeige (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5102 eines Medienangebots und eines Nachrichtenbereichs zur Anzeige der Nachrichten, die zwischen den Teilnehmern in einem Nachrichtenaustausch gesendet werden, zu ermöglichen; eine erste Eingabe auf einer berührungsempfindlichen Oberflächeneinheit 5104 zu erfassen (z. B. mit der Erfassungseinheit 5110), wobei die erste Eingabe einer Position auf dem Medienangebot auf der Anzeigeeinheit 5102 entspricht; als Reaktion auf das Erfassen der ersten Eingabe die Anzeige eines Aufzeichnungsangebots und eines Sendeangebots auf der Anzeigeeinheit 5102 zu ermöglichen (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige); eine zweite Eingabe auf der berührungsempfindlichen Oberflächeneinheit 5104 zu erfassen (z. B. mit der Erfassungseinheit 5110), wobei die zweite Eingabe einer Position des Aufzeichnungsangebots auf der Anzeigeeinheit 5102 entspricht; in Reaktion auf das Erfassen der zweiten Eingabe die Aufzeichnung eines Videos zu beginnen (z. B. mit der Medienerfassungseinheit 5116); eine dritte Eingabe auf einer berührungsempfindlichen Oberflächeneinheit 5104 zu erfassen, wobei die dritte Eingabe einer Position des Sendeangebots auf der Anzeigeeinheit 5102 entspricht, und in Reaktion auf das Erfassen der dritten Eingabe: das aufgezeichnete Video an einen Teilnehmer zu senden (z. B. mit der Sendeeinheit 5114), und das Entfernen des Sendeangebots und des Aufzeichnungsangebots von der Anzeigeeinheit 5102 zu ermöglichen (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen sind die erste Eingabe, die zweite Eingabe und die dritte Eingabe drei separate Kontakte auf der berührungsempfindlichen Oberflächeneinheit 5104.
  • In einigen Ausführungsformen ist die erste Eingabe ein Kontakt auf einer berührungsempfindlichen Oberflächeneinheit 5104, und die zweite Eingabe ist eine Fortsetzung des Kontakts auf der berührungsempfindlichen Oberflächeneinheit 5104, die eine Bewegung des Kontakts aufweist von einer Position auf der berührungsempfindlichen Oberflächeneinheit 5104, die der Position des Medienangebots auf der Anzeigeeinheit 5102 entspricht, an eine Position auf der berührungsempfindlichen Oberflächeneinheit 5104, die der Position des Aufzeichnungsangebots auf der Anzeigeeinheit 5102 entspricht.
  • In einigen Ausführungsformen ist die erste Eingabe ein Kontakt auf einer berührungsempfindlichen Oberflächeneinheit 5104, und die zweite Eingabe ist ein separater Kontakt auf der berührungsempfindlichen Oberflächeneinheit 5104, und die dritte Eingabe ist eine Fortsetzung des separaten Kontakts auf der berührungsempfindlichen Oberflächeneinheit 5104, die eine Bewegung des Kontakts von einer Position auf der berührungsempfindlichen Oberflächeneinheit 5104, die einer Position des Aufzeichnungsangebots auf der Anzeigeeinheit 5102 entspricht, an eine Position auf der berührungsempfindlichen Oberflächeneinheit 5104, die der Position des Sendeangebots auf der Anzeigeeinheit 5102 entspricht, aufweist.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5106 weiterhin dazu ausgestaltet: als Reaktion auf das Erfassen der dritten Eingabe das Einfügen einer Miniaturbilddarstellung des aufgezeichneten Videos in den angezeigten Nachrichtenaustausch zu ermöglichen (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5106 weiterhin dazu ausgestaltet: während der Aufzeichnung des Videos ein Abheben des zweiten Kontakts zu erfassen (z. B. mit der Erfassungseinheit 5110); und die Videoaufzeichnung nach dem Abheben fortzusetzen (z. B. mit der Medienerfassungseinheit 5116).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5106 weiterhin dazu ausgestaltet: während der Aufzeichnung des Videos ein Abheben des zweiten Kontakts zu erfassen (z. B. mit der Erfassungseinheit 5110); und als Reaktion auf die Erfassung des Abhebens die Videoaufzeichnung zu beenden.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5106 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen des Abhebens den Austausch der Anzeige (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige) des Aufzeichnungsangebots auf der Anzeigeeinheit 5102 durch die Anzeige eines Wiedergabeangebots zum Wiedergeben des Videos zu ermöglichen, wobei das Video noch nicht an den Teilnehmer gesendet wurde.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5106 weiterhin dazu ausgestaltet: während der Aufzeichnung des Videos die Anzeige (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige) auf der Anzeige 5102 einer Angabe der Dauer des aufgezeichneten Videos zu ermöglichen.
  • In einigen Ausführungsformen umfasst das Ermöglichen des Einfügens der Miniaturbilddarstellung des erfassten Videos in den angezeigten Nachrichtenaustausch: eine Anzeige (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5102 eines umrahmten Nachrichtenfelds im Nachrichtenaustausch zu ermöglichen, und die Anzeige (z. B. mit der Einheit 5108 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5102 eines Wiedergabeangebots im umrahmten Nachrichtenfeld zu ermöglichen. Die Verarbeitungseinheit 5106 ist weiterhin dazu ausgestaltet: einen fünften Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5104 zu erfassen (z. B. mit der Erfassungseinheit 5110), die einer Position des Wiedergabeangebots auf der Anzeigeeinheit 5102 entspricht, und in Reaktion auf das Erfassen des fünften Kontakts das aufgezeichnete Video innerhalb der Begrenzungen des umrahmten Nachrichtenfelds wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5118).
  • In einigen Ausführungsformen läuft das an den Teilnehmer zu sendende aufgezeichnete Video basierend auf Ablaufkriterien ab.
  • Die oben mit Bezugnahme auf 34 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 51 dargestellt sind. Zum Beispiel können die Operationen 3402, 3406 zum Ermöglichen der Anzeige und/oder die Erfassungsoperationen 3404, 3408 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180 und den Event Handler 190 implementiert werden. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 oder einer anderen Eingabesteuerungseinrichtung 116, und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob eine erste Eingabe, die einer Anzeigeposition entspricht, einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Aktivierung eines Angebots auf einer Benutzerschnittstelle. Wenn ein entsprechendes bestimmtes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 51 dargestellten Komponenten implementiert werden können.
  • Wie in 52 dargestellt, weist ein elektronisches Gerät 5200 eine Anzeigeeinheit 5202 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; optional eine berührungsempfindliche Oberflächeneinheit 5204, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5206, die mit der Anzeigeeinheit 5202 und optional mit der berührungsempfindlichen Oberflächeneinheit 5204 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5206 eine Einheit 5208 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5210, eine Bestimmungseinheit 5212, eine Sendeeinheit 5214, eine Medienerfassungseinheit 5216 und eine Medienwiedergabeeinheit 5218.
  • Die Verarbeitungseinheit 5206 ist dazu ausgestaltet, die Anzeige auf der Anzeigeeinheit 5202 einer Darstellung einer ersten Audionachricht zu ermöglichen (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige), die von einem ersten Teilnehmer in einem Nachrichtenaustausch empfangen wurde; eine Anforderung zur Wiedergabe der ersten Audionachricht zu erfassen (z. B. mit der Erfassungseinheit 5210); in Reaktion auf das Erfassen der Anforderung die erste Audionachricht wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5218); nach der Wiedergabe der ersten Audionachricht ein Anheben des Geräts 5200 zu erfassen (z. B. mit der Erfassungseinheit 5210); in Reaktion auf das Erfassen des Anheben des Geräts 5200 eine zweite Audionachricht aufzuzeichnen (z. B. mit der Medienerfassungseinheit 5216); und nach dem Aufzeichnen der zweiten Audionachricht die zweite Audionachricht an den ersten Teilnehmer zu senden (z. B. mit der Sendeeinheit 5214).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5206 weiterhin dazu ausgestaltet: während des Aufzeichnens der zweiten Audionachricht ein Absenken des Geräts 5200 zu erfassen (z. B. mit der Erfassungseinheit 5210), und in Reaktion auf das Absenken des Geräts: die Aufzeichnung der zweiten Audionachricht zu beenden und die aufgezeichnete zweite Audionachricht an den ersten Teilnehmer zu senden (z. B. mit der Sendeeinheit 5214).
  • In einigen Ausführungsformen umfasst das Erfassen der Anforderung zur Wiedergabe der ersten Audionachricht das Erfassen eines separaten Anhebens des Geräts 5200, während die Darstellung der ersten Audionachricht auf der Anzeigeeinheit 5200 angezeigt wird.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5206 weiterhin dazu ausgestaltet: nach Wiedergabe der ersten Audionachricht und vor Aufzeichnung der zweiten Audionachricht eine Absenkung des Geräts 5200 zu erfassen (z. B. mit der Erfassungseinheit 5210).
  • In einigen Ausführungsformen umfasst das Erfassen der Anforderung zur Wiedergabe der ersten Audionachricht das Erfassen eines Kontakts an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5204, die der Position der angezeigten Darstellung der ersten Audionachricht auf der Anzeigeeinheit 5202 entspricht.
  • In einigen Ausführungsformen ist die Anzeigeeinheit 5202 eine berührungsempfindliche Anzeigeeinheit und das Ermöglichen der Anzeige der Darstellung umfasst: eine Anzeige auf der Anzeigeeinheit 5202 eines Angebots zu ermöglichen (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige), das die empfangene Nachricht anzeigt; eine Wischgeste auf dem angezeigten Angebot zu erfassen (z. B. mit der Erfassungseinheit 5210); und in Reaktion auf das Erfassen der Wischgeste die Anzeige (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige) einer Anweisung auf der Anzeigeeinheit 5202 zu ermöglichen, die den Benutzer anweist, das Gerät 5200 zur Aufzeichnung der zweiten Audionachricht anzuheben.
  • In einigen Ausführungsformen wird das Angebot, das die empfangene Nachricht anzeigt, auf einem Sperrbildschirm der Anzeigeeinheit 5202 angezeigt.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5206 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen der Wischgeste: die Anzeige auf der Anzeigeeinheit 5202 eines Antwortangebots zum Beantworten der empfangenen Nachricht zu ermöglichen (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige), eine Auswahl des Antwortangebots zu erfassen (z. B. mit der Erfassungseinheit 5210), und in Reaktion auf das Erfassen der Auswahl des Antwortangebots die Anzeige (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5202 der Anweisung, die den Benutzer anweist, das Gerät 5200 zum Aufzeichnen der zweiten Audionachricht anzuheben, zu ermöglichen.
  • In einigen Ausführungsformen wird die Anweisung, die den Benutzer anweist, das Gerät 5200 zum Aufzeichnen der zweiten Audionachricht anzuheben, in einem Nachrichtenerstellungsfeld auf der Anzeigeeinheit 5202 angezeigt, und die Verarbeitungseinheit 5200 ist weiterhin dazu ausgebildet: die Anzeige eines Medienangebots auf der Anzeigeeinheit 5202 zu ermöglichen (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige); einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5204 zu erfassen (mit der Erfassungseinheit 5210), die einer Position des Medienangebots auf der Anzeigeeinheit 5202 entspricht; in Reaktion auf das Erfassen des Kontakts eine zweite Audionachricht (z. B. mit der Medienerfassungseinheit 5216) aufzuzeichnen; und nach Aufzeichnen der zweiten Audionachricht die zweite Audionachricht an den ersten Teilnehmer zu senden (z. B. mit der Sendeeinheit 5214).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5206 weiterhin dazu ausgestaltet, einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5204 zu erfassen (z. B. mit der Erfassungseinheit 5210), die einer Position auf dem Nachrichteneingabefeld auf der Anzeigeeinheit 5202 entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberflächeneinheit 5204, die der Position des Nachrichteneingabefelds entspricht, die Anzeige (z. B. mit der Einheit 5208 zum Ermöglichen der Anzeige) einer virtuellen Tastatur auf der Anzeigeeinheit 5202 zu ermöglichen.
  • In einigen Ausführungsformen läuft die zweite Audionachricht basierend auf Ablaufkriterien ab.
  • Die oben mit Bezugnahme auf 35 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 52 dargestellt sind. Zum Beispiel werden die Erfassungsoperationen 3504, 3508 optional durch den Beschleunigungsmesser 168, den Ereignissortierer 170, das Ereigniserkennungsmodul 180 und/oder den Event Handler 190 implementiert. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst eine Anforderung, wie eine Anforderung, die durch einen Kontakt oder durch das Anheben des Geräts dargestellt wird, und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob die Anforderung einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Anforderung zur Wiedergabe einer Audionachricht. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen greift der Event Handler 190 auf den Audioschaltkreis 110 zur Wiedergabe einer Audionachricht zu. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 52 dargestellten Komponenten implementiert werden können.
  • Wie in 53 dargestellt, weist ein elektronisches Gerät 5300 eine Anzeigeeinheit 5302 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; optional eine berührungsempfindliche Oberflächeneinheit 5304, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5306, die mit der Anzeigeeinheit 5302 und optional mit der berührungsempfindlichen Oberflächeneinheit 5304 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5306 eine Einheit 5308 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5310, eine Bestimmungseinheit 5312, eine Empfangseinheit 5314 und eine Medienwiedergabeeinheit 5316.
  • Die Verarbeitungseinheit 5306 ist dazu ausgestaltet, mehrere Nachrichten von einem ersten Teilnehmer in einer Zeitspanne zu empfangen (z. B. mit der Empfangseinheit 5314) und zu bestimmen (z. B. mit der Bestimmungseinheit 5312), ob die Mehrzahl der Nachrichten die Nachrichtengruppierungskriterien erfüllen. Gemäß einer Bestimmung, dass die Mehrzahl der Nachrichten die Nachrichtengruppierungskriterien nicht erfüllen, ist die Verarbeitungseinheit 5306 dazu ausgestaltet, die Anzeige (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5302 von mehreren separaten umrahmten Nachrichtenfeldern zu ermöglichen, die mehrere Nachrichten darstellen. Gemäß einer Bestimmung, dass die Mehrzahl der Nachrichten die Nachrichtengruppierungskriterien erfüllen, ist die Verarbeitungseinheit 5306 dazu ausgestaltet, die Anzeige (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5302 eines einzelnen umrahmten Nachrichtenfelds zu ermöglichen, das die Mehrzahl der Nachrichten darstellt.
  • In einigen Ausführungsformen enthalten die Nachrichtengruppierungskriterien ein Kriterium auf, das erfüllt wird, wenn die Mehrzahl der Nachrichten einen numerischen Grenzwert übersteigen.
  • In einigen Ausführungsformen weisen die Nachrichtengruppierungskriterien ein Kriterium auf, das erfüllt wird, wenn die Mehrzahl der Nachrichten voneinander um weniger als einen zeitlichen Grenzwert beabstandet sind.
  • In einigen Ausführungsformen weisen die Nachrichtengruppierungskriterien ein Kriterium auf, das erfüllt wird, wenn die Mehrzahl der Nachrichten sequenziell aufeinanderfolgende Nachrichten sind.
  • In einigen Ausführungsformen sind die sequenziell aufeinanderfolgenden Nachrichten Nachrichten, die von einem einzelnen Teilnehmer empfangen werden, ohne dass dazwischen andere Nachrichten von anderen Teilnehmern empfangen werden.
  • In einigen Ausführungsformen sind die sequenziell aufeinanderfolgenden Nachrichten Nachrichten des gleichen Typs, die empfangen werden, ohne dass dazwischen andere Nachrichten eines anderen Typs empfangen werden.
  • In einigen Ausführungsformen können die sequenziell aufeinanderfolgenden Nachrichten Nachrichten aufweisen, die den gleichen Lesestatus haben, ohne dass dazwischen Nachrichten mit einem anderen Lesestatus empfangen wurden.
  • In einigen Ausführungsformen ist eine Nachricht der Mehrzahl der Nachrichten eine Audionachricht und die Verarbeitungseinheit ist weiterhin dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5302 von einem Wellenformbild in dem umrahmten Nachrichtenfeld zu ermöglichen (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige), das einer Audionachricht entspricht, wobei das Wellenformbild eine Wellenform hat, die die Inhalte der Audionachricht darstellt.
  • In einigen Ausführungsformen umfasst das Ermöglichen der Anzeige eines Wellenformbilds im umrahmten Nachrichtenfeld: die Anzeige der Wellenform in einer Anfangsfarbe zu ermöglichen; eine Anforderung zur Wiedergabe der Audionachricht zu empfangen (z. B. mit der Empfangseinheit 5114); und in Reaktion auf den Empfang der Anforderung der Wiedergabe der Audionachricht, die Audionachricht wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5316) und eine Änderung einer Farbe (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige) von wenigstens einem Teil der Wellenform während der Wiedergabe zu ermöglichen, um den bereits wiedergegebenen Teil der Audionachricht anzugeben.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5306 weiterhin dazu ausgestaltet: die Änderung der Farbe des Teils der Wellenform zu ermöglichen, wenn ein entsprechender Teil der Audionachricht wiedergegeben wird (z. B. durch die Medienwiedergabeeinheit 5316).
  • In einigen Ausführungsformen stellt das umrahmte Nachrichtengruppenfeld wenigstens zwei Audionachrichten dar, und die Verarbeitungseinheit 5306 ist weiterhin dazu ausgestaltet: eine Anforderung zur aufeinanderfolgenden Wiedergabe der wenigstens zwei Audionachrichten zu empfangen (z. B. mit der Empfangseinheit 5314), und in Reaktion auf den Empfang der Anforderungen die wenigstens zwei Audionachrichten nacheinander wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5316).
  • In einigen Ausführungsformen umfasst die Anforderung zum aufeinanderfolgenden Wiedergeben der wenigstens zwei Audionachrichten das Erfassen eines Anhebens des Geräts 5300.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5306 weiterhin dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5302 eines Angebots zur Wiedergabe der aufeinanderfolgenden Audionachrichten zu ermöglichen (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige), wobei das Empfangen der Anforderung zur Wiedergabe der wenigstens zwei Audionachrichten nacheinander die Erfassung (z. B. mit der Erfassungseinheit 5310) eines Kontakts auf dem Angebot umfasst.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5306 weiterhin dazu ausgestaltet, eine Auswahl des umrahmten Nachrichtengruppenfelds zu erfassen (z. B. mit der Erfassungseinheit 5310); und in Reaktion auf das Erfassen der Auswahl des umrahmten Nachrichtengruppenfelds das Austauschen der Anzeige (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5302 eines einzelnen umrahmten Nachrichtengruppenfelds durch die Anzeige einer Mehrzahl von Darstellungen der Mehrzahl der Nachrichten zu ermöglichen.
  • In einigen Ausführungsformen weist das umrahmte Nachrichtengruppenfeld Text auf, der eine erste Nachricht der Mehrzahl der Nachrichten darstellt, und ein Miniaturbild, das eine zweite Nachricht der Mehrzahl der Nachrichten darstellt, und die Verarbeitungseinheit 5006 ist weiterhin dazu ausgestaltet: einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5304 zu erfassen (z. B. mit der Erfassungseinheit 5310), die einer Position des angezeigten Miniaturbilds entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position, die dem angezeigten Miniaturbild entspricht, auf der Anzeigeeinheit 5302 die Anzeige (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige) einer größeren Version des durch das Miniaturbild dargestellten Bilds zu ermöglichen.
  • In einigen Ausführungsformen umfasst die Anzeige einer größeren Bildversion die Anzeige des Bilds als Vollbildschirmbild.
  • In einigen Ausführungsformen weist das umrahmte Nachrichtengruppenfeld Text auf, der eine erste Nachricht der Mehrzahl der Nachrichten darstellt, und ein Miniaturbild, das eine zweite Nachricht der Mehrzahl der Nachrichten darstellt, und die Verarbeitungseinheit 5306 ist weiterhin dazu ausgestaltet: einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 3504 zu erfassen (z. B. mit der Erfassungseinheit 5310), die der Position des angezeigten Miniaturbilds entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position der berührungsempfindlichen Oberflächeneinheit 5304, die der Position des Miniaturbilds entspricht, die durch das Miniaturbild dargestellte Videonachricht (z. B. mit der mit Wiedergabeeinheit 5116) wiederzugeben.
  • In einigen Ausführungsformen umfasst die Wiedergabe der Videonachricht die Wiedergabe der Videonachricht im Vollbildschirmmodus.
  • In einigen Ausführungsformen umfasst die Wiedergabe der Videonachricht die Wiedergabe der Videonachricht in einem umrahmten Nachrichtengruppenfeld.
  • In einigen Ausführungsformen weist das umrahmte Nachrichtengruppenfeld Text auf, der eine erste Nachricht der Mehrzahl der Nachrichten darstellt, und ein Wellenformbild, das eine Audionachricht der Mehrzahl der Nachrichten darstellt, und die Verarbeitungseinheit 5306 ist weiterhin dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5302 eines Wiedergabeangebots im umrahmten Nachrichtengruppenfeld zu ermöglichen (z. B. mit der Einheit 5308 zum Ermöglichen der Anzeige), wobei das Wiedergabeangebot mit dem Wellenformbild verknüpft ist; einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5304 zu erfassen (z. B. mit der Erfassungseinheit 5310), die der Position des Wiedergabeangebots im angezeigten umrahmten Nachrichtengruppenfeld entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberflächeneinheit 5304, die der Position des Wiedergabeangebots entspricht, die durch das Wellenformbild dargestellte Audionachricht wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5316).
  • Die oben mit Bezugnahme auf 36 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 53 dargestellt sind. Zum Beispiel werden die Empfangsoperation 3602, die Bestimmungsoperation 3604 und/oder die Operation 3606 zum Ermöglichen der Anzeige optional durch die Peripheriegeräteschnittstelle 118, den Ereignissortierer 170 und den Event Handler 190 implementiert. Die Peripheriegeräteschnittstelle 118 empfängt Nachrichten, und der Ereignismonitor 171 im Ereignissortierer 170 erfasst das Ereignis, dass die Nachricht empfangen wurde. Das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob die Mehrzahl der empfangenen Nachrichten einem bestimmten Ereignis oder untergeordneten Ereignis entsprechen, wie der Erfüllung eines Gruppierungskriteriums. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 53 dargestellten Komponenten implementiert werden können.
  • Wie in 54 dargestellt, weist ein elektronisches Gerät 5400 eine Anzeigeeinheit 5402 auf, um Benutzerschnittstellen anzuzeigen, und eine Verarbeitungseinheit 5406, die mit der Anzeigeeinheit 5402 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5406 eine Einheit 5408 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5410, eine Bestimmungseinheit 5412, eine Empfangseinheit 5414, eine Beibehaltungseinheit 5416, eine Speichereinheit 5418 und eine Bereitstellungseinheit 5420.
  • Die Verarbeitungseinheit 5406 ist dazu ausgestaltet: eine erste Nachricht zu empfangen (z. B. mit der Empfangseinheit 5414); eine Anzeige einer Darstellung der ersten Nachricht auf der Anzeigeeinheit 5402 zu ermöglichen (z. B. mit der Einheit 5408 zum Ermöglichen der Anzeige), wobei das Löschen der ersten Nachricht bei Erfüllung des Ablaufkriteriums geplant ist, eine Anzeige auf der Anzeigeeinheit 5402 eines Angebots zum Beibehalten der ersten Nachricht zu ermöglichen (zum Beispiel mit der Einheit 5408 zum Ermöglichen der Anzeige); gemäß einer Bestimmung (z. B. mit der Bestimmungseinheit 5412), dass das Angebot vor Erfüllung des Ablaufkriteriums ausgewählt wurde, die erste Nachricht beizubehalten (z. B. mit der Beibehaltungseinheit 5416); und gemäß einer Bestimmung, dass das Ablaufkriterium erfüllt wurde, ohne dass eine Auswahl des Angebots erfasst wurde, das Ermöglichen der Anzeige der Darstellung der ersten Nachricht auf der Anzeigeeinheit 5402 zu beenden.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5406 weiterhin dazu ausgestaltet: eine zweite Nachricht zu empfangen (z. B. mit der Empfangseinheit 5414), wobei die zweite Nachricht nicht basierend auf dem Ablaufkriterium gelöscht wird.
  • In einigen Ausführungsformen basiert das Ablaufkriterium auf einer Zeitspanne.
  • In einigen Ausführungsformen basiert das Ablaufkriterium darauf, ob die erste Nachricht Medien enthält.
  • In einigen Ausführungsformen basiert das Ablaufkriterium darauf, ob die Medien mit einer Messaging-Anwendung erfasst wurden.
  • In einigen Ausführungsformen enthält die erste Nachricht ein Medium und das Zeitintervall wird ab dem Zeitpunkt gemessen, ab dem das Medium wiedergegeben werden.
  • In einigen Ausführungsformen enthält die erste Nachricht ein Medium und das Zeitintervall wird ab dem Zeitpunkt gemessen, ab dem das Medium erstellt wird.
  • In einigen Ausführungsformen enthält die erste Nachricht ein Medium und die Verarbeitungseinheit 5406 ist weiterhin dazu ausgestaltet: gemäß einer Bestimmung, dass das Angebot vor der Erfüllung des Ablaufkriteriums ausgewählt wurde, das Medium in einer Medienbibliothek zu speichern (z. B. mit der Speichereinheit 5418).
  • In einigen Ausführungsformen enthält die erste Nachricht ein Medium und die Verarbeitungseinheit 5406 ist weiterhin dazu ausgebildet: zu bestimmen (z. B. mit der Bestimmungseinheit 5412), ob das Medium mit einer Messaging-Anwendung erfasst wurde; und gemäß einer Bestimmung, dass das Medium nicht mit einer Messaging-Anwendung erfasst wurden, das Medium in einer Medienbibliothek zu speichern.
  • In einigen Ausführungsformen wurde die erste Nachricht von einem ersten Teilnehmer empfangen und die Verarbeitungseinheit 5406 ist weiterhin dazu ausgebildet: gemäß einer Bestimmung, dass das Angebot vor Erfüllung der Ablaufkriterien ausgewählt wurde, dem ersten Teilnehmer einen Hinweis bereitzustellen (z. B. mit der Bereitstellungseinheit 5420), dass die erste Nachricht beibehalten wurde.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5406 weiterhin dazu ausgestaltet: zu bestimmen (z. B. mit der Bestimmungseinheit 5112), ob die erste Nachricht eine Audionachricht ist; und gemäß einer Bestimmung, dass die erste Nachricht eine Audionachricht ist, die Anzeige (z. B. mit der Einheit 5408 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5402 des Angebots zum Beibehalten der ersten Nachricht zu ermöglichen.
  • In einigen Ausführungsformen ist die zweite Nachricht eine Textnachricht.
  • In einigen Ausführungsformen umfassen die Ablaufkriterien ein Kriterium, dass die Textnachricht nicht abläuft.
  • Die oben mit Bezugnahme auf 37 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 54 dargestellt sind. Zum Beispiel werden die Empfangsoperation 3702, die Bestimmungsoperation 3704 und/oder die Beibehaltungsoperation 3708 optional durch die Peripheriegeräteschnittstelle 118, den Ereignissortierer 170, das Ereigniserkennungsmodul 180 und den Event Handler 190 implementiert. Die Peripheriegeräteschnittstelle 118 empfängt eine Nachricht, und der Ereignismonitor 171 im Ereignissortierer 170 erfasst das Ereignis, dass Nachrichten empfangen wurden. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob die Auswahl einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Aktivierung oder einer Auswahl eines Angebots auf einer Benutzerschnittstelle. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 54 dargestellten Komponenten implementiert werden können.
  • Wie in 55 dargestellt, weist ein elektronisches Gerät 5500 eine Anzeigeeinheit 5502 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; optional eine berührungsempfindliche Oberflächeneinheit 5504, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5506, die mit der Anzeigeeinheit 5502 und optional mit der berührungsempfindlichen Oberflächeneinheit 5504 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5506 eine Einheit 5508 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5510, eine Bestimmungseinheit 5512, eine Empfangseinheit 5514, eine Bereitstellungseinheit 5516, eine Hinzufügungseinheit 5518, eine Sendeeinheit 5520 und eine Einfügeeinheit 5522.
  • Die Verarbeitungseinheit 5506 ist dazu ausgestaltet: eine Anzeige (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5502 eines Nachrichtenbereichs zum Anzeigen von zwischen einem ersten Teilnehmer und einem zweiten Teilnehmer in einem Nachrichtenaustausch gesendeten Nachrichten zu ermöglichen; eine Anzeige (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige) auf der Anzeige 5502 eines Angebots zum Teilen des Standorts zu ermöglichen, um den Standort des ersten Teilnehmers mit dem zweiten Teilnehmer zu teilen, wenn sich der Standort über wenigstens eine bestimmte Zeitspanne ändert; eine Auswahl des Angebots zum Teilen des Standorts zu erfassen (z. B. mit der Erfassungseinheit 5510); und in Reaktion auf das Erfassen der Auswahl des Angebots zum Teilen des Standorts: dem zweiten Teilnehmer Informationen bereitzustellen (z. B. mit der Bereitstellungseinheit 5516), die es dem zweiten Teilnehmer ermöglichen, einen aktuellen Standort des ersten Teilnehmers während wenigstens der bestimmten Zeitspanne zu bestimmen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet: vom zweiten Teilnehmer Standortinformationen zu empfangen (z. B. mit der Empfangseinheit 5514), die einen Standort eines ersten externen Geräts dynamisch angeben; und die Anzeige (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5502 eines Standorts des elektronischen Geräts und den Standort des ersten externen Geräts auf einer Karte zu ermöglichen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet: einen dritten Teilnehmer zum Nachrichtenaustausch hinzuzufügen (z. B. mit der Hinzufügungseinheit 5518); vom dritten Teilnehmer Standortinformationen zu empfangen (z. B. mit der Empfangseinheit 5514), die einen Standort des zweiten externen Geräts angeben; und die Anzeige auf der Anzeigeeinheit des Standorts des zweiten externen Geräts auf der Karte zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgebildet, als Reaktion auf das Erfassen des Kontakts an der Position, die dem Angebot zum Teilen des Standorts entspricht, die Anzeige auf der Anzeigeeinheit 5502 von wenigstens zwei Angeboten zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige), die wenigstens zwei bestimmten Zeitspannen entsprechen, einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5504 zu erfassen (z. B. mit der Erfassungseinheit 5510), die einer Position von einem der wenigstens zwei Angebote auf der Anzeigeeinheit 5502 entspricht, und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberflächeneinheit, die der Position von einem der wenigstens zwei Angebote auf der Anzeigeeinheit entspricht; dem zweiten Teilnehmer Informationen bereitzustellen (z. B. mit der Bereitstellungseinheit 5516), die es dem zweiten Teilnehmer ermöglichen, die aktuelle Position des ersten Teilnehmers in der bestimmten Zeitspanne entsprechend dem einen der wenigstens zwei Angebote zu bestimmen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet, die Anzeige auf der Anzeigeeinheit 5502 einer Angabe einer Restzeit zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige), in der der Standort geteilt wird.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet, die Anzeige auf der Anzeigeeinheit 5502 eines Angebots zum Beenden der Bereitstellung von Informationen für den zweiten Teilnehmer zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet: eine Anzeige auf der Anzeigeeinheit 5502 eines Detailangebots zusammen mit dem Nachrichtenaustausch zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige); einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5504 zu erfassen (z. B. mit der Erfassungseinheit 5510), die einer Position des Detailangebots auf der Anzeigeeinheit 5502 entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberflächeneinheit 5504, die der Position der Detailanforderung auf der Anzeigeeinheit 5502 entspricht, die Anzeige auf der Anzeigeeinheit 5502 der Karte zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige), die den Standort der zwei oder mehreren Teilnehmer im Nachrichtenaustausch angibt, die ihre Standorte teilen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5502 von Informationen zu ermöglichen (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige), die zwei oder mehrere Teilnehmer im Nachrichtenaustausch identifizieren, die ihre Standorte teilen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet, den zwei oder mehreren Teilnehmern eine Option zum Entfernen eines Teilnehmers der zwei oder mehreren Teilnehmer aus dem Nachrichtenaustausch bereitzustellen (z. B. mit der Bereitstellungseinheit 5516).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet, den zwei oder mehreren Teilnehmern eine Option zum Hinzufügen eines neuen Teilnehmers zum Nachrichtenaustausch bereitzustellen (z. B. mit der Bereitstellungseinheit 5516).
  • In einigen Ausführungsformen weist der Nachrichtenaustausch einen Namen auf, und die Verarbeitungseinheit 5506 ist weiterhin dazu ausgebildet: den zwei oder mehreren Teilnehmern eine Option zum Ändern des Namens des Nachrichtenaustauschs bereitzustellen (z. B. mit der Bereitstellungseinheit 5516).
  • In einigen Ausführungsformen ist die Karte nicht mit einer bestimmten Nachricht im Nachrichtenaustausch verknüpft.
  • In einigen Ausführungsformen startet das Antippen einer berührungsempfindlichen Oberflächeneinheit 5504 an einer Position, die der angezeigten Position auf der Karte auf der Anzeigeeinheit 5502 entspricht, eine Kartenanwendung, und die Kartenanwendung stellt eine Option zum Erhalt von Richtungen zu einem auf der Karte angezeigten Standort bereit.
  • In einigen Ausführungsformen veranlasst das Bereitstellen (z. B. mit der Bereitstellungseinheit 5516) von Informationen für den zweiten Teilnehmer ein vom zweiten Teilnehmer verwendetes entferntes elektronisches Gerät, den zweiten Teilnehmer dazu aufzufordern, den Standort zu teilen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5506 weiterhin dazu ausgestaltet: die Anzeige (z. B. mit der Einheit 5508 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5502 eines Angebots zum Senden des Standorts zu ermöglichen, um dem zweiten Teilnehmer die statischen Standortinformation des ersten Teilnehmers zu senden (z. B. mit der Sendeeinheit 5520), wobei die statische Standortinformation nicht gemäß dem Standort des Geräts aktualisiert wird; eine Auswahl des Angebots zum Senden des Standorts zu erfassen (z. B. mit der Erfassungseinheit 5510); und in Reaktion auf das Erfassen der Auswahl des Angebots zum Senden des Standorts die statischen Standortinformationen an den zweiten Teilnehmer zu senden (z. B. mit der Sendeeinheit 5520).
  • In einigen Ausführungsformen umfasst das Senden der statischen Standortinformationen das Einfügen (z. B. mit der Einfügeeinheit 5522) einer statischen Karte mit statischen Standortinformationen in den Nachrichtenaustausch.
  • In einigen Ausführungsformen ist die statische Karte nicht mit einer bestimmten Nachricht im Nachrichtenaustausch verknüpft.
  • In einigen Ausführungsformen startet das Antippen der statischen Karte eine Kartenanwendung, und die Kartenanwendung stellt eine Option zum Erhalt von Richtungen zu den in der statischen Karte angezeigten Standortinformationen bereit.
  • Die oben mit Bezugnahme auf 38 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 55 dargestellt sind. Zum Beispiel können die Operation 3802 zum Ermöglichen der Anzeige, die Erfassungsoperation 3806 und/oder die Bestimmungsoperation 3808 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180, den Event Handler 190 und die Peripheriegeräteschnittstelle 118 implementiert werden. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob der Kontakt auf der berührungsempfindlichen Oberfläche einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Aktivierung eines Angebots auf einer Benutzerschnittstelle. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren, oder auf die Peripheriegeräteschnittstelle 118 zugreifen, um einem externen Gerät Daten bereitzustellen. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 55 dargestellten Komponenten implementiert werden können.
  • Wie in 56 dargestellt, weist ein elektronisches Gerät 5600 eine Anzeigeeinheit 5602 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; optional eine berührungsempfindliche Oberflächeneinheit 5604, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5606, die mit der Anzeigeeinheit 5602 und optional mit der berührungsempfindlichen Oberflächeneinheit 5604 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5606 eine Einheit 5608 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5610, eine Bestimmungseinheit 5612, eine Empfangseinheit 5614, eine Auswahleinheit 5616, eine Hinzufügungseinheit 5618, eine Einfügeeinheit 5620, eine Anweisungseinheit 5622, eine Sendeeinheit 5624 und eine Erfassungseinheit 5626.
  • Die Verarbeitungseinheit 5606 ist dazu ausgestaltet: eine Anzeige (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5602 eines Nachrichtenbereichs zum Anzeigen eines Nachrichtenaustauschs zu ermöglichen; eine Anforderung zum Hinzufügen von Medien zum Nachrichtenaustausch zu empfangen (z. B. mit der Empfangseinheit 5614); als Reaktion auf das Empfangen der Anforderung die Anzeige (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5602 einer Medienauswahl-Benutzerschnittstelle gleichzeitig mit wenigstens einem Teil des Nachrichtenaustauschs zu ermöglichen, wobei die Medienauswahl-Benutzerschnittstelle eine Mehrzahl an Angeboten zum Auswählen von Medien zum Hinzufügen in den Nachrichtenaustausch enthält; wenigstens eine Teilmenge der Mehrzahl von Angeboten, die Miniaturbilddarstellungen der Medien aufweisen, die zum Hinzufügen zum Nachrichtenaustausch verfügbar sind; eine Auswahl des entsprechenden Angebots aus der Mehrzahl der Angebote zu erfassen (z. B. mit der Erfassungseinheit 5610); und in Reaktion auf das Erfassen der Auswahl des entsprechenden Angebots das zugehörige Medium zum Hinzufügen zum Nachrichtenaustausch auszuwählen (z. B. mit der Auswahleinheit 5616).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5606 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen der Auswahl des zugehörigen Angebots die Medien zum Nachrichtenaustausch hinzuzufügen (z. B. mit der Hinzufügungseinheit 5618).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5606 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen der Auswahl des entsprechenden Angebots die Medien in ein Nachrichtenerstellungsfeld einzufügen (z. B. mit Einfügeeinheit 5620) und die Anzeige eines Sendeangebots zum Hinzufügen von Inhalt in das Nachrichtenerstellungsfeld des Nachrichtenaustauschs auf der Anzeigeeinheit 5602 zur ermöglichen (mit der Einheit 5608 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5606 weiterhin dazu ausgestaltet: eine Wischgeste auf der berührungsempfindlichen Oberflächeneinheit 5604 an einer Position zu erfassen (z. B. mit der Erfassungseinheit 5610), die der Position der Medienauswahl-Benutzerschnittstelle auf der Anzeigeeinheit 5602 entspricht; und in Reaktion auf das Erfassen der Wischgeste auf der Anzeigeeinheit 5602 das Scrollen der Mehrzahl der Angebote zu ermöglichen (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen entspricht die Mehrzahl der Angebote den zuletzt erhaltenen Fotos in einer Kamerarolle.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5606 weiterhin dazu ausgestaltet: in Reaktion auf das Erfassen der Auswahl eines Angebots aus der Mehrzahl der Angebote eine Vergrößerung auf der Anzeigeeinheit 5602 der Medienauswahl-Benutzerschnittstelle zu ermöglichen (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5606 weiterhin dazu ausgestaltet: die Anzeige (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige) des Medienangebots auf der Anzeigeeinheit 5602 zu ermöglichen, wobei die Anforderung zum Hinzufügen von Medien zum Nachrichtenaustausch einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5604 umfasst, die einer Position des Medienangebots auf der Anzeigeeinheit 5602 entspricht; in Reaktion auf das Erfassen des Kontakts eine Dauer des Kontakts zu bestimmen (z. B. mit der Bestimmungseinheit 5612); gemäß einer Bestimmung, dass die Dauer des Kontakts keinen Grenzwert überschreitet, die Anzeige (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5602 eines Angebots zum Erfassen eines neuen Bilds mithilfe eines Kamerasensors zu ermöglichen, während das Angebot zum Erfassen des neuen Bilds angezeigt wird, eine Wischgeste auf der berührungsempfindlichen Oberflächeneinheit 5604 zu erfassen (z. B. mit Erfassungseinheit 5610); und in Reaktion auf das Erfassen der Wischgeste: den Kamerasensor zum Erfassen eines Bilds anzuweisen (z. B. mit der Anweisungseinheit 5622); und das Bild an einen Teilnehmer im Nachrichtenaustausch zu senden (z. B. mit der Sendeeinheit 5624).
  • In einigen Ausführungsformen umfasst die Anzeige der Medienauswahl-Benutzerschnittstelle: einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5604 zu erfassen (z. B. mit der Erfassungseinheit 5610), die einer Position des ersten Angebots auf der Anzeigeeinheit 5602 entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberflächeneinheit 5604, die der Position des ersten Angebots auf der Anzeigeeinheit 5602 entspricht, das zugehörige Medium an einen Teilnehmer im Nachrichtenaustausch zu senden (z. B. mit der Sendeeinheit 5624).
  • In einigen Ausführungsformen umfasst die Anzeige der Medienauswahl-Benutzerschnittstelle: die Anzeige (z. B. mit der Einheit 5608 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit eines Sendeangebots zu ermöglichen; Kontakte an Positionen auf der berührungsempfindlichen Oberflächeneinheit 5604 zu erfassen (z. B. mit der Erfassungseinheit 5610), die Positionen eines ersten Angebots, eines zweiten Angebots und des Sendeangebots auf der Anzeigeeinheit 5602 entsprechen; und in Reaktion auf das Erfassen der Kontakte an Positionen auf der berührungsempfindlichen Oberflächeneinheit 5604, die Positionen des ersten Angebots, des zweiten Angebots und des Sendeangebots entsprechen: ein entsprechendes erstes Medium und ein zweites Medium an einen Teilnehmer im Nachrichtenaustausch zu senden (z. B. mit Sendeeinheit 5624).
  • In einigen Ausführungsformen umfasst die Mehrzahl der Angebote ein Live-Vorschauangebot, und die Verarbeitungseinheit 5606 ist weiterhin dazu ausgebildet: einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5604 zu erfassen (z. B. mit der Erfassungseinheit 5610), die einer Position des Live-Vorschauangebots auf der Anzeigeeinheit 5602 entspricht; und in Reaktion auf das Erfassen des Kontakts an der Position auf der berührungsempfindlichen Oberflächeneinheit 5604, die der Position der Live-Kameravorschau entspricht: ein neues Bild basierend auf der Live-Kameravorschau zu erfassen (z. B. mit Erfassungseinheit 5626) und das neue Bild zum Hinzufügen zum Nachrichtenaustausch auszuwählen (z. B. mit der Auswahleinheit 5616).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5606 weiterhin dazu ausgestaltet: eine Anforderung zum Senden des neuen Bilds zu erfassen (z. B. mit der Erfassungseinheit 5610); und in Reaktion auf die Anforderung des neue Bild an den ersten Teilnehmer zu senden (z. B. mit der Sendeeinheit 5624).
  • Die oben mit Bezugnahme auf 39 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 56 dargestellt sind. Zum Beispiel werden die Operationen 3902, 3906 zum Ermöglichen der Anzeige, die Empfangsoperation 3904, die Erfassungsoperation 3908 und/oder die Auswahloperation 3910 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180, den Event Handler 190 und andere Eingabesteuerungseinrichtungen 116 implementiert. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 oder einer anderen Benutzereingabe von Eingabesteuerungseinrichtungen 116, und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob der Kontakt oder die andere Eingabe einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Aktivierung eines Angebots auf einer Benutzerschnittstelle oder einer anderen Benutzeranforderung. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 56 dargestellten Komponenten implementiert werden können.
  • Wie in 57 dargestellt, weist ein elektronisches Gerät eine Verarbeitungseinheit 5702 auf. In einigen Ausführungsformen weist die Verarbeitungseinheit 5702 eine Erfassungseinheit 5704, eine Bestimmungseinheit 5706, eine Initiierungseinheit 5708, eine Empfangseinheit 5710, eine Bereitstellungseinheit 5712, eine Medienwiedergabeeinheit 5714 und eine Aufzeichnungseinheit 5716 auf.
  • Die Verarbeitungseinheit 5702 ist dazu ausgestaltet: eine Änderung des Gerätekontexts basierend auf einer Bewegung des elektronischen Geräts 5700 und einen oder mehrerer Näherungssensor-Lesewerte zu erfassen (z. B. mit der Erfassungseinheit 5704); in Reaktion auf das Erfassen der Änderung des Gerätekontexts: zu bestimmen (z. B. mit der Bestimmungseinheit 5706), ob das Gerät die Audiooperationskriterien erfüllt, wobei die Audiooperationskriterien ein Kriterien umfassen, das erfüllt wird, wenn die Bewegung des elektronischen Geräts 5700 das Bewegungskriterium erfüllt und die einen oder mehreren Näherungssensor-Lesewerte ein Näherungskriterium erfüllen; und gemäß einer Bestimmung, dass eine Änderung des Gerätekontexts das Kriterium erfüllt, eine Audiooperation zu initiieren (z. B. mit der Initiierungseinheit 5707); und gemäß einer Bestimmung, dass die Änderung des Gerätekontexts das Audiooperationskriterium nicht erfüllt, auf die Initiierung der Audiooperation zu verzichten.
  • In einigen Ausführungsformen weist das Bewegungskriterium eine bestimmte Bahn auf.
  • In einigen Ausführungsformen umfasst die Bestimmung, ob die Bewegung ein Bewegungskriterium erfüllt, eine Bestimmung eines Endes der Bewegung und eine Ausrichtung des elektronischen Geräts am Ende der Bewegung auf, und wobei das Bewegungskriterium erfüllt wird, wenn sich das elektronische Gerät nicht in der bestimmten Ausrichtung am Ende des Bewegungsendes befindet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5702 weiterhin dazu ausgestaltet, nach dem Initiieren der Audiooperation: Zu bestimmen (z. B. mit der Bestimmungseinheit 5706), ob sich das elektronische Gerät in einer bestimmten Ausrichtung befindet; und gemäß einer Bestimmung, dass sich das elektronische Gerät in einer bestimmten Ausrichtung befindet: die Audiooperation zu beenden.
  • In einigen Ausführungsformen weist eine Bestimmung, dass sich das elektronische Gerät in einer bestimmten Ausrichtung befindet, weiterhin eine Bestimmung auf, dass sich das elektronische Gerät in der bestimmten Ausrichtung innerhalb eines bestimmten Zeitintervalls der Bestimmung befindet, dass die Bewegung das Bewegungskriterium erfüllt und der eine oder die mehreren Näherungssensor-Lesewerte das Näherungskriterium erfüllen.
  • In einigen Ausführungsformen weist das elektronische Gerät 5700 weiterhin einen Lautsprecher auf, und wobei der Lautsprecher auf einer Oberseite des Geräts 5700 angeordnet ist, und wobei in der bestimmten Ausrichtung die Oberseite nach unten zeigt.
  • In einigen Ausführungsformen weist das elektronische Gerät 5700 weiterhin ein Ohrstück auf und in der bestimmten Ausrichtung ist das Mikrofon über dem Ohrstück angeordnet.
  • In einigen Ausführungsformen umfasst die Bestimmung, ob einer oder mehrere Näherungssensor-Lesewerte das Näherungskriterien erfüllen, die Bestimmung, ob ein Näherungssensor-Lesewert, der die Erfassung eines Objekts in der Nähe des elektronischen Geräts angibt, in einer bestimmten Zeitspanne nach der Erfassung der Bewegung, die das Bewegungskriterium erfüllt, erfasst wurde.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5702 weiterhin dazu ausgestaltet, nach dem Initiieren der Audiooperation: eine charakteristische Bewegung des elektronischen Geräts zu erfassen (z. B. mit der Erfassungseinheit 5704), die über einen bestimmten Grenzwert liegt; und in Reaktion auf das Erfassen, dass eine charakteristische Bewegung des elektronischen Geräts über einem bestimmten Grenzwert liegt: die Audiooperation zu beenden.
  • In einigen Ausführungsformen weist die Audiooperation die Aufzeichnung einer neuen Nachricht auf, und die Verarbeitungseinheit 5702 ist weiterhin dazu ausgebildet: zu bestimmen (z. B. mit der Bestimmungseinheit 5706), ob die Nachricht Sprache enthält; und gemäß einer Bestimmung, dass die Nachricht keine Sprache enthält: die Aufzeichnung der neuen Nachricht zu beenden.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit weiterhin dazu ausgestaltet, eine Kommunikation zu empfangen (z. B. mit der Empfangseinheit 5710); und in Reaktion auf das Empfangen der Kommunikation und vor dem Erfassen der Änderung des Gerätekontexts einen Hinweis bereitzustellen (z. B. mit der Bereitstellungseinheit 5712), dass die Kommunikation empfangen wurde.
  • In einigen Ausführungsformen umfasst die Bereitstellung eines Hinweises, dass die Kommunikation empfangen wurde, das Starten einer Messaging-Anwendung.
  • In einigen Ausführungsformen umfasst die Kommunikation eine Nachricht mit einer Audiokomponente, die vom Gerät nicht wiedergegeben wurde, und die Audiooperation umfasst die Wiedergabe (z. B. mit der Medienwiedergabeeinheit 5714) der Audiokomponente der Nachricht.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5702 weiterhin dazu ausgestaltet, zu bestimmen (z. B. mit der Bestimmungseinheit 5706), ob die Nachricht in einer bestimmten Zeitspanne empfangen wurde, bevor die Änderung des Gerätekontexts erfasst wurde, wobei die Wiedergabe der Audiokomponente der Nachricht die Wiedergabe (z. B. mit der Medienwiedergabeeinheit 5714) der Audiokomponente der Nachricht umfasst, wenn die Nachricht in der bestimmten Zeitspanne empfangen wurde.
  • In einigen Ausführungsformen weist die Kommunikation eine Sprachnachricht auf und wobei die Audiooperation eine Wiedergabe (z. B. mit der Medienwiedergabeeinheit 5714) der Sprachnachricht beinhaltet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5702 weiterhin dazu ausgestaltet: nach Wiedergabe der Sprachnachricht eine Pumpbewegung des elektronischen Geräts zu erfassen (z. B. mit Erfassungseinheit 5704), wobei eine Pumpbewegung eine Bewegung nach unten gefolgt von der Bewegung nach oben aufweist; und in Reaktion auf das Erfassen einer Pumpbewegung des elektronischen Geräts einen Telefonanruf bei einer mit der Sprachnachricht verknüpften Telefonnummer zu initiieren (z. B. mit der Initiierungseinheit 5708).
  • In einigen Ausführungsformen umfasst die Kommunikation eine Sprachnachricht, die einem Telefonanruf von einer Telefonnummer entspricht, und eine Verarbeitungseinheit 5702 ist weiterhin dazu ausgestaltet: vor dem Erfassen der Änderung des Gerätekontexts wenigstens einen Teil der Sprachnachricht wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5714), und die Audiooperation beinhaltet das Initiieren (z. B. mit der Initiierungseinheit 5708) eines Telefonanrufs bei der der Sprachnachricht zugeordneten Telefonnummer.
  • In einigen Ausführungsformen weist die Kommunikation die Aufzeichnung einer Nachricht mit einer Audiokomponente auf, und die Verarbeitungseinheit 5702 ist weiterhin dazu ausgebildet: vor dem Erfassen der Änderung im Gerätekontext die Audiokomponente der Nachricht wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5714); und zu bestimmen (z. B. mit der Bestimmungseinheit 5706), ob die Bewegung des elektronischen Geräts in einer bestimmten Zeitspanne nach der Wiedergabe der Audionachricht erfasst wurde, und wobei das Initiieren der Audiooperation die Audioaufzeichnung (z. B. mit der Aufzeichnungseinheit 5716) für eine neue Nachricht umfasst, wenn die Änderung des Gerätekontexts in dem bestimmten Zeitintervall ab dem Zeitpunkt erfasst wurde, an dem die Audiokomponente der Nachricht wiedergegeben wurde.
  • In einigen Ausführungsformen umfasst die Kommunikation eine Nachricht mit einer Audiokomponente, die bereits vom Gerät wiedergegeben wurde, und die Audiooperation umfasst die Aufzeichnung (z. B. mit der Aufzeichnungseinheit 5716) einer neuen Nachricht.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5702 weiterhin dazu ausgestaltet: vor dem Erfassen einer Änderung im Gerätekontext zu erfassen (z. B. mit der Erfassungseinheit 5704), ob sich das elektronische Gerät in einem Audio-Messaging-Kontext befindet; und eine Änderung im Gerätekontext nur zu erfassen (z. B. mit der Erfassungseinheit 5704), wenn das elektronische Gerät sich in einem Audio-Messaging-Kontext befindet.
  • In einigen Ausführungsformen umfasst das Initiieren der Audiooperation: gemäß einer Bestimmung, dass das Audiowiedergabekriterium erfüllt wurde, Audio entsprechend einer empfangenen Kommunikation wiederzugeben (z. B. mit der Medienwiedergabeeinheit 5714); und gemäß einer Bestimmung, dass das Audioaufzeichnungskriterium erfüllt wurde, Audio für die Antwort auf die empfangene Kommunikation aufzuzeichnen.
  • Die oben mit Bezugnahme auf 40 bis 45C beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 57 dargestellt sind. Zum Beispiel werden die Erfassungsoperation 4002, die Bestimmungsoperation 4004 und/oder die Initiierungsoperation 4006 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180, den Event Handler 190, den Näherungssensor 166 und den Beschleunigungsmesser 168 implementiert. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst eine Änderung des Gerätekontext basierend auf Lesewerten von einem oder mehreren Sensoren, wie dem Näherungssensor 166 und/oder dem Beschleunigungsmesser 168. Das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob die Änderung des Gerätekontexts einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie der Erfüllung bestimmter Kriterien. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen greift der Event Handler 190 auf den Audioschaltkreis 110 zum Initiieren einer Audiooperation zu. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 40 bis 45C dargestellten Komponenten implementiert werden können.
  • Wie in 58 dargestellt, weist ein elektronisches Gerät 5800 wenigstens ein Mikrofon 5820 und optional eine Anzeigeeinheit 5802 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen, und eine Verarbeitungseinheit 5804, die mit dem wenigstens einen Mikrofon 5820 verbunden ist, und optional die Anzeigeeinheit 5802. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5804 eine Einheit 5806 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5808, eine Bestimmungseinheit 5810, eine Generierungseinheit 5812, eine Sendeeinheit 5814, eine Vergleichseinheit 5816 und eine Löscheinheit 5818.
  • Die Verarbeitungseinheit 5804 ist dazu ausgestaltet: eine oder mehrere Bedingungen zu erfassen (z. B. mit der Erfassungseinheit 5808), die als Anforderung zur Aufzeichnung einer Audionachricht für einen angegebenen Kontakt interpretiert werden; in Reaktion auf das Erfassen einer oder mehrerer Bedingungen eine Audioaufzeichnung mit dem wenigstens einen Mikrofon 5820 zu generieren (z. B. mit der Generierungseinheit 5812); zu bestimmen (z. B. mit der Bestimmungseinheit 5810), ob die Audioaufzeichnung Ablehnungskriterien erfüllt; gemäß einer Bestimmung, dass das Ablehnungskriterium nicht erfüllt ist, die Audioaufzeichnung an den angegebenen Kontakt zu senden (z. B. mit der Sendeeinheit 5814); und gemäß einer Bestimmung, dass das Ablehnungskriterium erfüllt ist, auf das Senden der Audioaufzeichnung an den angegebenen Kontakt zu verzichten.
  • In einigen Ausführungsformen wird das Ablehnungskriterium erfüllt, wenn die Dauer der Audioaufzeichnung eine bestimmte Zeitspanne überschreitet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5804 weiterhin dazu ausgestaltet: zu erfassen (z. B. mit der Erfassungseinheit 5808), ob die Audioaufzeichnung Sprache enthält, und das Ablehnungskriterium ist erfüllt, wenn bestimmt wird, dass die Audioaufzeichnung nicht mehr als einen Grenzwertbetrag an menschlicher Sprache enthält.
  • In einigen Ausführungsformen basiert das Ablehnungskriterium auf einer Position des Geräts.
  • In einigen Ausführungsformen wird das Ablehnungskriterium erfüllt, wenn das Gerät sich innerhalb eines Abstandsgrenzwerts von einer Klangquelle befindet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5804 weiterhin dazu ausgestaltet: zu bestimmen (z. B. mit der Bestimmungseinheit 5810), ob das elektronische Gerät sich im Abstandsgrenzwert befindet, indem bestimmt wird, ob ein Näherungssensor des Geräts ein Objekt innerhalb des Aufstandsgrenzwerts des Geräts erfasst hat.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5804 weiterhin dazu ausgestaltet: zu bestimmen (z. B. mit der Bestimmungseinheit 5810), ob das elektronische Gerät sich innerhalb des Abstandsgrenzwerts befindet, indem eine Wellenform analysiert wird, die durch Kombination der von dem wenigstens einen Mikrofon erfassten Signale erzeugt wird, wobei das wenigstens eine Mikrofon wenigstens ein erstes Mikrofon und ein zweites Mikrofon umfasst.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5806 weiterhin dazu ausgestaltet: zu bestimmen (z. B. mit der Bestimmungseinheit 5810), ob das elektronische Gerät sich im Abstandsgrenzwert befindet, indem bestimmt wird, ob ein Schalldruckpegel an dem wenigstens einen Mikrofon einen Schalldruckpegel-Grenzwert überschreitet.
  • In einigen Ausführungsformen basiert der Schalldruckpegel-Grenzwert auf einer Funktion des Schalldruckpegels, der zuvor vom elektronischen Gerät erfasst wurde.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5804 weiterhin dazu ausgestaltet: zu bestimmen (z. B. mit der Bestimmungseinheit 5810), ob sich das elektronische Gerät 5800 im Abstandsgrenzwert befindet, indem ein Schalldruckpegel mit einem Hallpegel verglichen wird (z. B. mit der Vergleichseinheit 5816), der von dem wenigstens einen Mikrofon erfasst wurde.
  • In einigen Ausführungsformen basiert das Ablehnungskriterium auf einer Ausrichtung des elektronischen Geräts 5800.
  • In einigen Ausführungsformen weist das elektronische Gerät 5800 einen Lautsprecher (z. B. ein Ohrstück) auf, und der Lautsprecher ist auf einer Oberseite des Geräts angeordnet, und das Ablehnungskriterium wird erfüllt, wenn die Oberseite nach unten zeigt.
  • In einigen Ausführungsformen weist das elektronische Gerät 5800 einen Lautsprecher (z. B. ein Ohrstück) auf und das Ablehnungskriterium wird erfüllt, wenn die Ausrichtung des elektronischen Geräts das Mikrofon über dem Lautsprecher anordnet.
  • In einigen Ausführungsformen ist das Ablehnungskriterium erfüllt, wenn eine charakteristische Bewegung des elektronischen Geräts einen Grenzwert überschreitet.
  • In einigen Ausführungsformen weist das elektronische Gerät eine Anzeigeeinheit 5802 auf, und die Verarbeitungseinheit 5804 ist weiterhin dazu ausgestaltet, wenn die Audioaufzeichnung das Ablehnungskriterium erfüllt, gleichzeitig die Anzeige (z. B. mit der Einheit 5806 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5802 zu ermöglichen von: einer Darstellung einer Entwurfsnachricht, die die Audioaufzeichnung beinhaltet; und eines Sendeangebots, wobei das Sendeangebot, bei Auswahl durch einen Benutzer, das Gerät dazu veranlasst, die Entwurfsnachricht an den angegebenen Kontakt zu senden.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5804 weiterhin dazu ausgestaltet, wenn die Audioaufzeichnung das Ablehnungskriterium erfüllt: zu bestimmen (z. B. mit der Bestimmungseinheit 5810), ob eine zwischen dem Erfassen der einen oder mehreren Bedingungen und der Bestimmung, dass die Audioaufzeichnung das Ablehnungskriterium erfüllt, verstrichene Zeit den zeitlichen Grenzwert überschreitet; gemäß einer Bestimmung, dass die verstrichene Zeit den zeitlichen Grenzwert überschreitet, die Anzeige auf der Anzeigeeinheit 5802 einer Darstellung einer Entwurfsnachricht zu ermöglichen (z. B. mit der Einheit 5806 zum Ermöglichen der Anzeige), die die Audioaufzeichnung beinhaltet; und gemäß einer Bestimmung, dass die verstrichene Zeit den zeitlichen Grenzwert nicht überschreitet, die Audioaufzeichnung zu löschen (z. B. mit der Löscheinheit 5818), ohne die Anzeige der Darstellung der Entwurfsnachricht zu ermöglichen.
  • Die oben mit Bezugnahme auf 46 bis 48B beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 58 dargestellt sind. Zum Beispiel werden die Erfassungsoperation 4602, die Operation 4802 zum Ermöglichen der Anzeige, die Generierungsoption 4604, die Bestimmungsoperation 4606 und/oder die Sendeoperation 4608 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180, den Event Handler 190, den Beschleunigungsmesser 168, den Näherungssensor 166 und die Peripheriegeräteschnittstelle 118 implementiert. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 und/oder eine Änderung des Gerätekontexts (z. B. mit dem Näherungssensor 166 und/oder dem Beschleunigungsmesser 168), und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob der Kontakt auf der berührungsempfindlichen Oberfläche oder die Änderung des Gerätekontexts einem bestimmten Ereignis oder untergeordneten Ereignis entsprechen, wie einer Anforderung zur Aufzeichnung einer Audionachricht. Wenn ein entsprechendes definiertes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen greift der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zu, um die von der Anwendung angezeigten Inhalte zu aktualisieren, oder er greift auf den Audioschaltkreis 110 und das Mikrofon 113 zu, um eine Audioaufzeichnung zu generieren. In einigen Ausführungsformen greift der Event Handler 190 auf die Peripheriegeräteschnittstelle 118 zu, um eine Aufzeichnung an einen angegebenen Kontakt zu senden. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 46 bis 48B dargestellten Komponenten implementiert werden können.
  • Wie in 59 dargestellt, weist ein elektronisches Gerät 5900 eine Anzeigeeinheit 5902 auf, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen; eine berührungsempfindliche Oberflächeneinheit 5904, die dazu ausgestaltet ist, Kontakte zu empfangen; und eine Verarbeitungseinheit 5906, die mit der Anzeigeeinheit 5902 und der berührungsempfindlichen Oberflächeneinheit 5904 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 5906 eine Einheit 5908 zum Ermöglichen der Anzeige, eine Erfassungseinheit 5910, eine Bestimmungseinheit 5912, eine Sendeeinheit 5914 und eine Medienerfassungseinheit 5916.
  • Die Verarbeitungseinheit 5906 ist dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5902 eines Medienangebots, eines Nachrichtenerstellungsfelds und eines Nachrichtenaustauschs zwischen Teilnehmern zu ermöglichen (z. B. mit der Einheit 5908 zum Ermöglichen der Anzeige), wobei der Nachrichtenaustausch in einem Nachrichtenbereich auf der Anzeigeeinheit 5902 angezeigt wird; einen Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5904 zu erfassen (z. B. mit der Erfassungseinheit 5910), die einer Position des Medienangebots auf der Anzeigeeinheit 5902 entspricht; in Reaktion auf das Erfassen des Kontakts die Anzeige auf der Anzeigeeinheit 5902 einer Medienvorschau im Nachrichtenerstellungsfeld zu ermöglichen (z. B. mit der Einheit 5908 zum Ermöglichen der Anzeige); ein Abheben des Kontakts von der berührungsempfindlichen Oberflächeneinheit 5904 zu erfassen (z. B. mit der Erfassungseinheit 5910); in Reaktion auf das Erfassen des Abhebens ein neues Bild basierend auf der Medienvorschau zu erfassen (z. B. mit der Medienerfassungseinheit 5916); und das erfasste Bild an einen Teilnehmer in dem Nachrichtenaustausch zu senden (z. B. mit der Sendeeinheit 5914).
  • In einigen Ausführungsformen wird das erfasste Bild an den Teilnehmer in Reaktion auf das Erfassen des Abhebens gesendet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5906 weiterhin dazu ausgestaltet: die Anzeige auf der Anzeigeeinheit 5902 einer Sendeschaltfläche zum Senden einer Nachricht an den Teilnehmer im Nachrichtenaustausch zu ermöglichen (z. B. mit der Einheit 5908 zum Ermöglichen der Anzeige); nachdem das Abheben und Erfassen des Mediums erfasst wurden, einen zweiten Kontakt an einer Position auf der berührungsempfindlichen Oberflächeneinheit 5904 zu erfassen (z. B. mit der Erfassungseinheit 5910), die einer Position der Sendeschaltfläche auf der Anzeigeeinheit 5902 entspricht, und das erfasste Bild wird an den Teilnehmer in Reaktion auf das Erfassen des zweiten Kontakts gesendet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5906 weiterhin dazu ausgestaltet: weiterhin in Reaktion auf das Erfassen des Abhebens die Anzeige (z. B. mit der Einheit 5908 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5902 einer Darstellung des erfassten Bilds im Nachrichtenerstellungsfeld zu ermöglichen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 5906 weiterhin dazu ausgestaltet: während die Darstellung des erfassten Bilds im Nachrichtenerstellungsfeld angezeigt wird, einen Benutzereintrag von weiterem Inhalt im Nachrichtenerstellungsfeld zu erfassen (z. B. mit der Erfassungseinheit 5910), und der weitere Inhalt und das erfasste Bild werden an den Teilnehmer in Reaktion auf das Erfassen des zweiten Kontakts gesendet.
  • In einigen Ausführungsformen umfasst die Anzeige der Medienvorschau im Nachrichtenerstellungsfeld das Ermöglichen einer Erweiterung (z. B. mit der Einheit 5908 zum Ermöglichen der Anzeige) auf der Anzeigeeinheit 5902 des Nachrichtenerstellungsfelds.
  • Die oben mit Bezugnahme auf 49 beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A bis 1B, 3, 5B oder 59 dargestellt sind. Zum Beispiel werden die Operation 4902 zum Ermöglichen der Anzeige, die Erfassungsoperation 4904 (Detecting Operation) und/oder die Erfassungsoperation 4910 (Capturing Operation) optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180, den Event Handler 190 und die Peripheriegeräteschnittstelle 118 implementiert. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112, und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein entsprechendes Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und bestimmt, ob ein Kontakt an einer Position auf der berührungsempfindlichen Anzeige einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Aktivierung eines Angebots auf einer Benutzerschnittstelle. Wenn ein entsprechendes bestimmtes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 kann den Daten-Updater 176 oder den Objekt-Updater 177 nutzen oder aufrufen, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen kann der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zugreifen, um die von der Anwendung angezeigten Inhalte zu aktualisieren. In einigen Ausführungsformen greift der Event Handler 190 zum Erfassen eines Bilds auf die Peripheriegeräteschnittstelle zu. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A bis 1B, 3, 5B oder 59 dargestellten Komponenten implementiert werden können.
  • Die obige Beschreibung wurde mit Bezugnahme auf spezielle Ausführungsformen zum Zwecke der Erläuterung beschrieben. Die der Veranschaulichung dienenden obigen Erörterungen sollen aber nicht als erschöpfend bzw. als Einschränkung der Erfindung auf die offen gelegten exakten Formen angesehen werden. Angesichts der obigen Lehren sind viele Modifikationen und Variationen möglich. Die Ausführungsformen wurden gewählt und beschrieben, um die Grundsätze der Techniken und deren praktischen Anwendungen in der besten Weise zu erläutern. Andere Fachleute werden dadurch in die Lage versetzt, die Techniken und verschiedene Ausführungsformen mit verschiedenen Modifikationen zu nutzen, die am besten für eine bestimmte angedachte Verwendung geeignet sind.
  • Obwohl die Offenlegung und Beispiele vollständig mit Bezugnahme auf die Zeichnungen im Anhang beschrieben wurden, ist hervorzuheben, dass verschiedene Änderungen und Modifikationen für Fachleute offensichtlich sein werden. Es versteht sich, dass solche Änderungen und Modifikationen im Umfang der Offenlegung und der Beispiele, wie durch die Ansprüche definiert, liegen sollen.
  • Wie oben beschrieben, besteht ein Aspekt der vorliegenden Technologie in der Sammlung und Verwendung von aus verschiedenen Quellen verfügbaren Daten, um Standortinformationen mit anderen Teilnehmern in einem Nachrichtenaustausch zu teilen. Die vorliegende Offenlegung berücksichtigt, dass in einigen Fällen diese gesammelten Informationen persönliche Daten enthalten können, die eine bestimmte Person eindeutig identifizieren oder dazu verwendet werden können, sie zu kontaktieren oder zu lokalisieren. Solche persönlichen Daten können demographische Datenangaben, standortbasierte Daten, Telefonnummern, E-Mail-Adressen, Postadressen oder jede andere beliebige Identifizierungsinformation aufweisen.
  • Die vorliegende Offenlegung erkennt an, dass die Verwendung solch persönlicher Datenangaben in der vorliegenden Technologie zum Vorteil der Benutzer verwendet werden kann. Zum Beispiel können die persönlichen Datenangaben dazu verwendet werden, Teilnehmern die Bestimmung der gegenseitigen Standorte und der geschätzten Ankunftszeit zu ermöglichen. Weiterhin werden andere Verwendungszwecke der persönlichen Datenangaben, die für den Benutzer vorteilhaft sind, ebenso von der vorliegenden Offenlegung in Betracht gezogen.
  • Die vorliegende Offenlegung berücksichtigt weiterhin, dass die Entitäten, die zur Sammlung, Analyse, Offenlegung, Übertragung, Speicherung oder für eine andere Verwendung solch persönlicher Datenangaben verantwortlich sind, die gut etablierten Datenschutzrichtlinien und/oder Verfahrensweisen für den Datenschutz erfüllen. Im Besonderen sollten solche Entitäten Datenschutzrichtlinien und -verfahren implementieren und in konsistenter Weise verwenden, die allgemein anerkannt sind, wie die Einhaltung oder die Übererfüllung industrieller oder staatlicher Anforderungen zur Wahrung der persönlichen Daten als privat und sicher. Zum Beispiel sollten persönliche Angaben von Benutzern für legitime und vernünftige Verwendungszwecke der Entität gesammelt werden und nicht außerhalb dieser legitimen Verwendungszwecke geteilt oder verkauft werden. Weiterhin sollte eine solche Sammlung nur erfolgen, nachdem die informierte Zustimmung der Benutzer erhalten wurde. Darüber hinaus ergreifen solche Entitäten alle erforderlichen Schritte zum Schutz und Sichern des Zugriffs auf persönliche Datenangaben und zum Sicherstellen, dass andere mit Zugriff auf die persönlichen Datenangaben die Datenschutzrichtlinien und -verfahren einhalten. Weiterhin können sich solche Entitäten selbst einer Bewertung durch Dritte unterziehen, um die Einhaltung allgemein akzeptierter Datenschutzrichtlinien und -vorgehensweisen zu zertifizieren.
  • Trotz des oben Ausgeführten berücksichtigt die vorliegende Offenlegung auch Ausführungsformen, in denen Benutzer in ausgewählter Weise die Verwendung von oder den Zugriff auf persönliche Datenangaben sperren. D. h., die vorliegende Offenlegung berücksichtigt, dass Hardware- und/oder Software-Elemente vorgesehen sein können, um den Zugriff auf solche persönliche Datenangaben zu verhindern oder zu sperren Zum Beispiel kann im Falle von Merkmalen zum Teilen von Standorten die vorliegende Technologie dazu ausgestaltet sein, Benutzern die Auswahl zu ermöglichen, ob Teilnehmern im Nachrichtenaustausch keine Standortinformationen bereitgestellt werden. In wiederum einen anderem Beispiel können Benutzer auswählen, keine präzise Standortinformationen bereitzustellen, jedoch das Teilen einer Standortzonen-Information zu gestatten.
  • Daher, obwohl die vorliegende Offenlegung die Verwendung von persönlichen Datenangaben zur Implementierung von einer oder mehreren verschiedenen offengelegten Ausführungsformen behandelt, berücksichtigt die vorliegende Offenlegung ebenso, dass die verschiedenen Ausführungsformen implementiert werden können, ohne dass auf solche persönlichen Datenangaben zugegriffen werden muss. Das heißt, die verschiedenen Ausführungsformen der vorliegenden Technologie werden nicht aufgrund des Fehlens von solchen persönlichen Daten insgesamt oder in einem Bereich als nicht durchführbar betrachtet. Zum Beispiel kann der Inhalt der geschätzten Ankunftszeit unter Verwendung eines bloßen Minimalbetrags an persönlichen Informationen bestimmt werden, wie Informationen zur Standortzone oder öffentlich verfügbaren Informationen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7657849 [0108]
    • US 6323846 [0112]
    • US 6570557 [0112]
    • US 6677932 [0112]
    • US 2002/0015024 A1 [0112]
    • US 20050190059 [0121]
    • US 20060017692 [0121]
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11a [0105]
    • IEEE 802.11b [0105]
    • IEEE 802.11g [0105]
    • IEEE 802.11n [0105]
    • IEEE 802.11ac [0105]

Claims (26)

  1. Elektronisches Gerät mit einer berührungsempfindlichen Oberfläche und einer Anzeige umfassend Mittel zum: Empfangen einer ersten Nachricht; Anzeigen einer Darstellung der ersten Nachricht auf der Anzeige, wobei geplant ist, dass die erste Nachricht gelöscht wird, wenn Ablaufkriterien erfüllt sind; Anzeigen eines Angebots zum Beibehalten der ersten Nachricht; in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Beibehalten der ersten Nachricht; und in Übereinstimmung mit einer Bestimmung, dass die Ablaufkriterien erfüllt waren, ohne dass eine Auswahl des Angebots erfasst wurde, Beenden der Anzeige der Darstellung der ersten Nachricht auf der Anzeige.
  2. Elektronisches Gerät nach Anspruch 1, ferner umfassend Mittel zum: Empfangen einer zweiten Nachricht, wo bei die zweite Nachricht nicht gelöscht wird basierend auf den Ablaufkriterien.
  3. Elektronisches Gerät nach irgendeinem der Ansprüche 1 oder 2, wobei die Ablaufkriterien auf einem Zeitintervall basieren.
  4. Elektronisches Gerät nach irgendeinem der Ansprüche 1 bis 3, wobei die Ablaufkriterien darauf basieren, ob die erste Nachricht Medien enthält.
  5. Elektronisches Gerät nach irgendeinem der Ansprüche 1 bis 4, wobei die Ablaufkriterien darauf basieren, ob die Medien unter Verwendung einer Nachrichtenanwendung aufgezeichnet wurden.
  6. Elektronisches Gerät nach irgendeinem der Ansprüche 3 bis 5, wobei die erste Nachricht Medien enthält, und wobei das Zeitintervall gemessen wird beginnend bei einer Zeit nachdem die Medien wiedergegeben wurden.
  7. Elektronisches Gerät nach irgendeinem der Ansprüche 3 bis 6, wobei die erste Nachricht Medien enthält, und wobei das Zeitintervall gemessen wird beginnend bei einer Zeit, bei welcher die Medien erstellt werden.
  8. Elektronisches Gerät nach Anspruch 1, wobei die erste Nachricht Medien enthält, wobei das elektronische Gerät ferner Mittel umfasst zum: in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Speichern der Medien in einer Medienbibliothek.
  9. Elektronisches Gerät nach Anspruch 1, wobei die erste Nachricht Medien enthält, wobei das elektronische Gerät ferner Mittel umfasst zum: Bestimmen, ob die Medien unter Verwendung einer Nachrichtenanwendung aufgezeichnet wurden; und in Übereinstimmung mit einer Bestimmung, dass die Medien nicht unter Verwendung einer Nachrichtenanwendung aufgezeichnet wurden, Speichern der Medien in einer Medienbibliothek.
  10. Elektronisches Gerät nach irgendeinem der Ansprüche 1 bis 9, wobei die erste Nachricht von einem ersten Teilnehmer empfangen wurde, wobei das elektronische Gerät ferner Mittel umfasst zum: in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Bereitstellen einer Angabe an den ersten Teilnehmer, dass die erste Nachricht beibehalten wurde.
  11. Elektronisches Gerät nach irgendeinem der Ansprüche 1 bis 10, ferner umfassend Mittel zum: Bestimmen, ob die erste Nachricht eine Audionachricht ist; und in Übereinstimmung mit einer Bestimmung, dass die erste Nachricht eine Audionachricht ist, Anzeigen des Angebots zum Beibehalten der ersten Nachricht.
  12. Elektronisches Gerät nach Anspruch 2, wobei die zweite Nachricht eine Textnachricht ist.
  13. Elektronisches Gerät nach Anspruch 1, wobei die Ablaufkriterien ein Kriterium umfassen, dass Textnachrichten nicht ablaufen.
  14. Computerlesbares Speichermedium umfassend ein oder mehrere Programme, die konfiguriert sind, um durch einen oder mehrere Prozessoren eines elektronischen Geräts mit einer berührungsempfindlichen Oberfläche und einer Anzeige ausgeführt zu werden, wobei das eine oder die mehreren Programme Anweisungen umfassen zum: Empfangen einer ersten Nachricht; Anzeigen einer Darstellung der ersten Nachricht auf der Anzeige, wobei geplant ist, dass die erste Nachricht gelöscht wird, wenn Ablaufkriterien erfüllt sind; Anzeigen eines Angebots zum Beibehalten der ersten Nachricht; in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Beibehalten der ersten Nachricht; und in Übereinstimmung mit einer Bestimmung, dass die Ablaufkriterien erfüllt waren, ohne dass eine Auswahl des Angebots erfasst wurde, Beenden der Anzeige der Darstellung der ersten Nachricht auf der Anzeige.
  15. Computerlesbares Speichermedium nach Anspruch 14, wobei das eine oder die mehreren Programme ferner Anweisungen umfassen zum: Empfangen einer zweiten Nachricht, wo bei die zweite Nachricht nicht gelöscht wird basierend auf den Ablaufkriterien.
  16. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 14 oder 15, wobei die Ablaufkriterien auf einem Zeitintervall basieren.
  17. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 14 bis 16, wobei die Ablaufkriterien darauf basieren, ob die erste Nachricht Medien enthält.
  18. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 14 bis 17, wobei die Ablaufkriterien darauf basieren, ob die Medien unter Verwendung einer Nachrichtenanwendung aufgezeichnet wurden.
  19. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 16 bis 18, wobei die erste Nachricht Medien enthält, und wobei das Zeitintervall gemessen wird beginnend bei einer Zeit nachdem die Medien wiedergegeben wurden.
  20. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 16 bis 19, wobei die erste Nachricht Medien enthält, und wobei das Zeitintervall gemessen wird beginnend bei einer Zeit, bei welcher die Medien erstellt werden.
  21. Computerlesbares Speichermedium nach Anspruch 14, wobei die erste Nachricht Medien enthält, wobei das eine oder die mehreren Programme ferner Anweisungen umfassen zum: in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Speichern der Medien in einer Medienbibliothek.
  22. Computerlesbares Speichermedium nach Anspruch 14, wobei die erste Nachricht Medien enthält, wobei das eine oder die mehreren Programme ferner Anweisungen umfassen zum: Bestimmen, ob die Medien unter Verwendung einer Nachrichtenanwendung aufgezeichnet wurden; und in Übereinstimmung mit einer Bestimmung, dass die Medien nicht unter Verwendung einer Nachrichtenanwendung aufgezeichnet wurden, Speichern der Medien in einer Medienbibliothek.
  23. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 14 bis 22, wobei die erste Nachricht von einem ersten Teilnehmer empfangen wurde, wobei das eine oder die mehreren Programme ferner Anweisungen umfassen zum: in Übereinstimmung mit einer Bestimmung, dass das Angebot vor der Erfüllung der Ablaufkriterien ausgewählt war, Bereitstellen einer Angabe an den ersten Teilnehmer, dass die erste Nachricht beibehalten wurde.
  24. Computerlesbares Speichermedium nach irgendeinem der Ansprüche 14 bis 23, wobei das eine oder die mehreren Programme ferner Anweisungen umfassen zum: Bestimmen, ob die erste Nachricht eine Audionachricht ist; und in Übereinstimmung mit einer Bestimmung, dass die erste Nachricht eine Audionachricht ist, Anzeigen des Angebots zum Beibehalten der ersten Nachricht.
  25. Computerlesbares Speichermedium nach Anspruch 15, wobei die zweite Nachricht eine Textnachricht ist.
  26. Computerlesbares Speichermedium nach Anspruch 14, wobei die Ablaufkriterien ein Kriterium umfassen, dass Textnachrichten nicht ablaufen.
DE202015009346.9U 2014-05-31 2015-05-22 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten Active DE202015009346U1 (de)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201462006071P 2014-05-31 2014-05-31
US62/006,071 2014-05-31
US201462047622P 2014-09-08 2014-09-08
US62/047,622 2014-09-08
US14/503,376 2014-09-30
US14/503,386 US9207835B1 (en) 2014-05-31 2014-09-30 Message user interfaces for capture and transmittal of media and location content
US14/503,355 2014-09-30
US14/503,376 US9185062B1 (en) 2014-05-31 2014-09-30 Message user interfaces for capture and transmittal of media and location content
US14/503,355 US20150350141A1 (en) 2014-05-31 2014-09-30 Message user interfaces for capture and transmittal of media and location content
US14/503,386 2014-09-30

Publications (1)

Publication Number Publication Date
DE202015009346U1 true DE202015009346U1 (de) 2017-03-10

Family

ID=53836331

Family Applications (4)

Application Number Title Priority Date Filing Date
DE202015009346.9U Active DE202015009346U1 (de) 2014-05-31 2015-05-22 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202015009347.7U Active DE202015009347U1 (de) 2014-05-31 2015-05-22 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202015003916.2U Active DE202015003916U1 (de) 2014-05-31 2015-05-28 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202015003860.3U Active DE202015003860U1 (de) 2014-05-31 2015-05-28 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten

Family Applications After (3)

Application Number Title Priority Date Filing Date
DE202015009347.7U Active DE202015009347U1 (de) 2014-05-31 2015-05-22 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202015003916.2U Active DE202015003916U1 (de) 2014-05-31 2015-05-28 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202015003860.3U Active DE202015003860U1 (de) 2014-05-31 2015-05-28 Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten

Country Status (7)

Country Link
US (10) US9207835B1 (de)
EP (3) EP3108422A1 (de)
JP (7) JP6500093B2 (de)
CN (8) CN113485550A (de)
AU (9) AU2015267259B2 (de)
DE (4) DE202015009346U1 (de)
HK (2) HK1216556A1 (de)

Families Citing this family (191)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US8971924B2 (en) 2011-05-23 2015-03-03 Apple Inc. Identifying and locating users on a mobile network
US10715380B2 (en) 2011-05-23 2020-07-14 Apple Inc. Setting a reminder that is triggered by a target user device
US9247377B2 (en) 2011-05-23 2016-01-26 Apple Inc. Setting a reminder that is triggered by a target user device
KR102013443B1 (ko) 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
US8989773B2 (en) 2013-01-29 2015-03-24 Apple Inc. Sharing location information among devices
EP2954514B1 (de) 2013-02-07 2021-03-31 Apple Inc. Sprachtrigger für einen digitalen assistenten
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
USD737319S1 (en) * 2013-06-09 2015-08-25 Apple Inc. Display screen or portion thereof with graphical user interface
USD742894S1 (en) 2013-06-10 2015-11-10 Apple Inc. Display screen or portion thereof with graphical user interface
KR102161764B1 (ko) * 2013-10-31 2020-10-05 삼성전자주식회사 카툰 이미지를 이용한 메신저 대화창 표시 방법 및 컴퓨터 판독 가능한 기록 매체
US10270898B2 (en) 2014-05-30 2019-04-23 Apple Inc. Wellness aggregator
USD759668S1 (en) * 2014-01-13 2016-06-21 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD751117S1 (en) 2014-02-07 2016-03-08 Apple Inc. Display screen or portion thereof with animated graphical user interface
US20150350146A1 (en) 2014-05-29 2015-12-03 Apple Inc. Coordination of message alert presentations across devices based on device modes
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10382378B2 (en) 2014-05-31 2019-08-13 Apple Inc. Live location sharing
US9207835B1 (en) * 2014-05-31 2015-12-08 Apple Inc. Message user interfaces for capture and transmittal of media and location content
USD771112S1 (en) * 2014-06-01 2016-11-08 Apple Inc. Display screen or portion thereof with graphical user interface
US10721594B2 (en) * 2014-06-26 2020-07-21 Microsoft Technology Licensing, Llc Location-based audio messaging
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016022496A2 (en) 2014-08-06 2016-02-11 Apple Inc. Reduced-size user interfaces for battery management
TWI549504B (zh) * 2014-08-11 2016-09-11 宏碁股份有限公司 影像擷取裝置及其自動對焦補償方法
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
JP6349030B2 (ja) 2014-09-02 2018-06-27 アップル インコーポレイテッド アラートを管理するための小型インターフェース
USD762693S1 (en) 2014-09-03 2016-08-02 Apple Inc. Display screen or portion thereof with graphical user interface
KR102354769B1 (ko) * 2014-10-29 2022-01-25 삼성전자주식회사 단말장치 및 그 제어 방법
USD805102S1 (en) 2015-01-27 2017-12-12 Twitter, Inc. Media sharing device with graphical user interface
USD763889S1 (en) * 2015-01-28 2016-08-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
EP3254452B1 (de) 2015-02-02 2018-12-26 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum aufbau einer beziehung und zur verbindung zwischen zwei vorrichtungen
CN112152904B (zh) 2015-02-16 2022-12-09 钉钉控股(开曼)有限公司 网络交互方法
KR102377001B1 (ko) * 2015-03-16 2022-03-22 삼성전자주식회사 모션 인식 서비스 제공 방법 및 그 전자 장치
CN106034068A (zh) 2015-03-20 2016-10-19 阿里巴巴集团控股有限公司 群聊中进行私聊的方法、装置、客户端、服务器及系统
US20170083168A1 (en) * 2015-04-20 2017-03-23 Idt Messaging, Llc System and method for managing multiple chat sessions
US9973615B2 (en) * 2015-05-11 2018-05-15 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling recording thereof
US10275116B2 (en) 2015-06-07 2019-04-30 Apple Inc. Browser with docked tabs
CN105094801B (zh) * 2015-06-12 2019-12-24 阿里巴巴集团控股有限公司 应用功能激活方法及装置
USD884003S1 (en) 2015-07-29 2020-05-12 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
US20170061935A1 (en) * 2015-08-31 2017-03-02 Sap Se Adaptive message display duration
KR102399764B1 (ko) * 2015-09-22 2022-05-19 삼성전자 주식회사 전자 장치 및 촬영 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US9734686B2 (en) * 2015-11-06 2017-08-15 Blackberry Limited System and method for enhancing a proximity warning sound
CN108471816B (zh) * 2015-11-19 2021-07-30 耐克创新有限合伙公司 具有压力传感器控制的服装
US10078482B2 (en) * 2015-11-25 2018-09-18 Samsung Electronics Co., Ltd. Managing display of information on multiple devices based on context for a user task
US9913114B1 (en) 2015-12-15 2018-03-06 Snap Inc. Simplified message grouping and display
CN105610695B (zh) 2015-12-21 2021-01-12 阿里巴巴集团控股有限公司 对象分配方法及装置
US20170214651A1 (en) 2016-01-05 2017-07-27 William McMichael Systems and methods of transmitting and displaying private message data via a text input application
US20170220573A1 (en) 2016-01-05 2017-08-03 William McMichael Systems and methods of performing searches within a text input application
CN105681056B (zh) 2016-01-13 2019-03-19 阿里巴巴集团控股有限公司 对象分配方法及装置
USD781907S1 (en) * 2016-01-19 2017-03-21 Apple Inc. Display screen or portion thereof with graphical user interface
CN105824541B (zh) * 2016-02-29 2017-12-26 维沃移动通信有限公司 一种提示信息的处理方法及移动终端
CN105812237B (zh) 2016-03-07 2020-12-04 钉钉控股(开曼)有限公司 快速添加提醒对象的方法及装置
US10530731B1 (en) * 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
CN107306286B (zh) 2016-04-21 2020-12-04 钉钉控股(开曼)有限公司 离线考勤的处理方法及装置
CN107305459A (zh) 2016-04-25 2017-10-31 阿里巴巴集团控股有限公司 语音和多媒体消息的发送方法及装置
CN107368995A (zh) 2016-05-13 2017-11-21 阿里巴巴集团控股有限公司 任务处理方法及装置
KR102338357B1 (ko) 2016-05-18 2021-12-13 애플 인크. 그래픽 메시징 사용자 인터페이스 내의 확인응답 옵션들의 적용
US10592098B2 (en) 2016-05-18 2020-03-17 Apple Inc. Devices, methods, and graphical user interfaces for messaging
DK201670641A1 (en) * 2016-05-18 2017-12-04 Apple Inc Devices, Methods, and Graphical User Interfaces for Messaging
USD797137S1 (en) 2016-06-03 2017-09-12 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
USD803238S1 (en) 2016-06-12 2017-11-21 Apple Inc. Display screen or portion thereof with graphical user interface
US10545653B2 (en) * 2016-06-12 2020-01-28 Apple Inc. Device, method, and graphical user interface for media playback
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
US10873786B2 (en) 2016-06-12 2020-12-22 Apple Inc. Recording and broadcasting application visual output
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
USD825612S1 (en) * 2016-07-27 2018-08-14 Apple Inc. Display screen or portion thereof with graphical user interface
US10318125B2 (en) * 2016-08-29 2019-06-11 Sap Se Graphical user interface magnetic panel
CN107846345A (zh) 2016-09-18 2018-03-27 阿里巴巴集团控股有限公司 通讯方法及装置
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
CN106502527A (zh) * 2016-09-29 2017-03-15 北京小米移动软件有限公司 一种内容分享的方法、装置及终端
EP3920529A3 (de) * 2016-11-18 2021-12-15 JVCKENWOOD Corporation Aufzeichnungsvorrichtung, aufzeichnungsverfahren, wiedergabeverfahren und programm
USD858534S1 (en) * 2016-12-02 2019-09-03 Lyft, Inc. Display screen or portion thereof with animated graphical user interface
USD846575S1 (en) * 2016-12-02 2019-04-23 Lyft, Inc. Display screen or portion thereof with graphical user interface
KR101893768B1 (ko) * 2017-02-27 2018-09-04 주식회사 브이터치 음성 인식 트리거를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US10051107B1 (en) 2017-03-16 2018-08-14 Microsoft Technology Licensing, Llc Opportunistic timing of device notifications
US10742587B2 (en) 2017-04-10 2020-08-11 Facebook, Inc. Systems and methods for sharing content
AU2017411918A1 (en) * 2017-04-24 2019-12-05 Huawei Technologies Co., Ltd. Image sharing method and electronic device
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
DK179867B1 (en) * 2017-05-16 2019-08-06 Apple Inc. RECORDING AND SENDING EMOJI
KR102585858B1 (ko) 2017-05-16 2023-10-11 애플 인크. 이모지 레코딩 및 전송
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
WO2018213309A1 (en) * 2017-05-16 2018-11-22 Pena Angel Method and apparatus for storing and sending a computer location
AU2018269375B2 (en) * 2017-05-16 2020-12-17 Apple Inc. Emoji recording and sending
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10444975B2 (en) * 2017-07-18 2019-10-15 Google Llc Graphical icon manipulation
US10498775B2 (en) 2017-08-31 2019-12-03 T-Mobile Usa, Inc. Exchanging non-text content in real time text messages
US20190082122A1 (en) * 2017-09-08 2019-03-14 Samsung Electronics Co., Ltd. Method and device for providing contextual information
US11521240B2 (en) 2017-09-12 2022-12-06 GetTogether, Inc. Tracking a digital diet for targeted advertisement delivery
US10212555B1 (en) * 2017-09-13 2019-02-19 Microsoft Technology Licensing, Llc Enabling and disabling location sharing based on environmental signals
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
USD846567S1 (en) 2017-10-06 2019-04-23 Apple Inc. Electronic device with graphical user interface
CN111512295A (zh) * 2017-10-23 2020-08-07 帕博力克艾姆有限责任公司 使用分配的通信代码来管理即时消息的交换
USD857033S1 (en) 2017-11-07 2019-08-20 Apple Inc. Electronic device with graphical user interface
CN109903758B (zh) 2017-12-08 2023-06-23 阿里巴巴集团控股有限公司 音频处理方法、装置及终端设备
WO2019117361A1 (ko) * 2017-12-14 2019-06-20 라인 가부시키가이샤 메시징 서비스 환경에서의 인터랙션 방법 및 시스템
US20190206102A1 (en) * 2017-12-29 2019-07-04 Facebook, Inc. Systems and methods for enhancing content
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
KR102400085B1 (ko) * 2018-05-07 2022-05-19 애플 인크. 크리에이티브 카메라
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
JP7073238B2 (ja) * 2018-05-07 2022-05-23 アップル インコーポレイテッド クリエイティブカメラ
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN110457095B (zh) * 2018-05-07 2022-12-27 苹果公司 多参与者实时通信用户界面
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
WO2019246058A1 (en) * 2018-06-18 2019-12-26 Magic Leap, Inc. Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device
JPWO2020026939A1 (ja) * 2018-07-31 2021-08-26 株式会社ニコン 電子機器およびプログラム
KR20200017292A (ko) * 2018-08-08 2020-02-18 삼성전자주식회사 음성 인식 방법 및 그 방법을 지원하는 전자 장치
US10154364B1 (en) 2018-09-09 2018-12-11 Philip Scott Lyren Moving an emoji to move a location of binaural sound
USD901525S1 (en) 2018-09-11 2020-11-10 Apple Inc. Electronic device with animated graphical user interface
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN110209952B (zh) * 2018-12-18 2023-03-24 腾讯科技(深圳)有限公司 信息推荐方法、装置、设备及存储介质
WO2020124228A1 (en) * 2018-12-18 2020-06-25 Qaqaq Inc. Asynchronous short video communication platform based on animated still images and audio
US10499179B1 (en) 2019-01-01 2019-12-03 Philip Scott Lyren Displaying emojis for binaural sound
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
CN109873753B (zh) * 2019-01-30 2021-10-26 北京达佳互联信息技术有限公司 名称修改方法及装置
WO2020170453A1 (ja) * 2019-02-22 2020-08-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020174289A2 (en) 2019-02-27 2020-09-03 Louisiana-Pacific Corporation Fire-resistant manufactured-wood based siding
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US10944711B2 (en) * 2019-03-28 2021-03-09 Microsoft Technology Licensing, Llc Paginated method to create decision tree conversation
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
CN113748408A (zh) 2019-05-31 2021-12-03 苹果公司 用于音频媒体控件的用户界面
CN110333814A (zh) * 2019-05-31 2019-10-15 华为技术有限公司 一种分享内容的方法及电子设备
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11144176B2 (en) * 2019-06-01 2021-10-12 Apple Inc. User interfaces for electronic voice communications
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
US11106342B1 (en) * 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11252274B2 (en) * 2019-09-30 2022-02-15 Snap Inc. Messaging application sticker extensions
CN112752127B (zh) * 2019-10-30 2022-07-01 腾讯科技(深圳)有限公司 视频播放位置的定位方法和装置、存储介质及电子装置
US11438497B2 (en) * 2019-12-13 2022-09-06 Sony Group Corporation Managing multiple image devices
CN111291653B (zh) * 2020-01-21 2023-06-16 Oppo(重庆)智能科技有限公司 指纹事件上报方法、装置及电子设备
JP2021121066A (ja) * 2020-01-30 2021-08-19 キヤノン株式会社 表示制御装置及びその制御方法
US11290834B2 (en) * 2020-03-04 2022-03-29 Apple Inc. Determining head pose based on room reverberation
US11675494B2 (en) * 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
EP3949377B1 (de) * 2020-06-01 2023-06-28 Apple Inc. Benutzeroberflächen zur medienverwaltung
AU2021290132B2 (en) 2020-06-08 2023-10-12 Apple Inc. Presenting avatars in three-dimensional environments
KR102565399B1 (ko) 2020-06-09 2023-08-08 애플 인크. 메시지들을 위한 사용자 인터페이스들
US11392347B2 (en) * 2020-06-17 2022-07-19 Twitter, Inc. Audio messaging interface on messaging platform
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11520456B2 (en) * 2020-09-25 2022-12-06 Apple Inc. Methods for adjusting and/or controlling immersion associated with user interfaces
USD989091S1 (en) * 2020-09-29 2023-06-13 Huawei Technologies Co., Ltd. Display screen or portion thereof with graphical user interface
CN114327206A (zh) * 2020-09-29 2022-04-12 华为技术有限公司 一种消息显示方法及电子设备
US11543961B2 (en) * 2020-10-26 2023-01-03 Microsoft Technology Licensing, Llc Touch screen display with virtual trackpad
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
CN113010074A (zh) * 2021-04-22 2021-06-22 海信电子科技(深圳)有限公司 一种网页视频Video控制栏显示方法及显示设备
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN115529415A (zh) * 2021-04-30 2022-12-27 苹果公司 用于更改视觉媒体的用户界面
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
EP4323992A1 (de) 2021-05-15 2024-02-21 Apple Inc. Benutzerschnittstellen für gruppenausarbeitungen
US11360634B1 (en) 2021-05-15 2022-06-14 Apple Inc. Shared-content session user interfaces
CN113360002B (zh) * 2021-06-01 2023-12-19 维沃移动通信有限公司 信息收集方法、装置、电子设备和存储介质
KR20220163573A (ko) * 2021-06-03 2022-12-12 라인플러스 주식회사 그룹화된 이미지 메시지를 표시하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
USD973703S1 (en) * 2021-06-05 2022-12-27 Apple Inc. Display or portion thereof with graphical user interface
CN113434063B (zh) * 2021-07-01 2023-06-20 支付宝(杭州)信息技术有限公司 一种信息显示方法、装置及设备
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image

Family Cites Families (570)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
US4975694A (en) 1989-03-14 1990-12-04 Motorola, Inc. Paging receiver with variable color indicators
US5146217A (en) 1989-05-25 1992-09-08 Motorola, Inc. Selective call receiver having confidential message read protection
US5418528A (en) 1993-08-30 1995-05-23 Motorola, Inc. Method and apparatus for prioritizing deletion of received messages based on message source and message order
DE4496561T1 (de) 1993-08-31 1995-09-21 Ericsson Ge Mobile Communicat Vorrichtung zum Speichern von Nachrichten in einem zellularen mobilen Endgerät
US5483595A (en) 1993-09-20 1996-01-09 Seiko Communications Holding N.V. Paging device including password accessed stored cryptographic keys
US5479378A (en) 1993-12-17 1995-12-26 Seiko Telecommunication Systems Inc. Analog wristwatch paging receiver
US6191807B1 (en) * 1994-05-27 2001-02-20 Canon Kabushiki Kaisha Communication apparatus and method for performing a file transfer operation
EP0731590A3 (de) 1995-03-06 1999-03-24 Siemens Aktiengesellschaft Mobiltelefon
TW366674B (en) 1995-08-30 1999-08-11 Motorola Inc Method and apparatus for marking messages in selective call receivers
WO1997021281A1 (en) 1995-12-08 1997-06-12 Amsc Subsidiary Corporation Mobile communications terminal for satellite communications system
US5801700A (en) * 1996-01-19 1998-09-01 Silicon Graphics Incorporated System and method for an iconic drag and drop interface for electronic file transfer
KR0171852B1 (ko) 1996-02-29 1999-03-30 김광호 휴대용 정보단말기의 무선호출 메시지 처리장치 및 방법
KR100214303B1 (ko) 1996-04-10 1999-08-02 윤종용 팩시밀리의 동보송신 장치 및 방법
US5835084A (en) 1996-05-01 1998-11-10 Microsoft Corporation Method and computerized apparatus for distinguishing between read and unread messages listed in a graphical message window
US6014429A (en) 1996-08-12 2000-01-11 Lucent Technologies, Inc. Two-way wireless messaging system with transaction server
US6002402A (en) * 1997-04-09 1999-12-14 Symantec Corporation System and method for producing a drag-and-drop object from a popup menu item
US6333973B1 (en) 1997-04-23 2001-12-25 Nortel Networks Limited Integrated message center
US6137864A (en) * 1997-07-25 2000-10-24 Lucent Technologies Inc. Specifiable delete times for voice messaging
JPH1145117A (ja) 1997-07-25 1999-02-16 Mitsubishi Electric Corp メッセージ表示システム
US6169911B1 (en) 1997-09-26 2001-01-02 Sun Microsystems, Inc. Graphical user interface for a portable telephone
KR100251783B1 (ko) 1997-10-18 2000-06-01 윤종용 이동무선단말기의단축메시지전송상태정보표시장치및방법
KR100232874B1 (ko) 1997-10-18 1999-12-01 윤종용 이동 무선 단말기의 전송 실패 단축메시지 재전송 방법
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
JP3511462B2 (ja) * 1998-01-29 2004-03-29 インターナショナル・ビジネス・マシーンズ・コーポレーション 操作画像表示装置およびその方法
US6484027B1 (en) 1998-06-15 2002-11-19 Sbc Technology Resources, Inc. Enhanced wireless handset, including direct handset-to-handset communication mode
JP2000083282A (ja) 1998-09-07 2000-03-21 Mitsubishi Electric Corp 移動体通信装置
US20020126135A1 (en) 1998-10-19 2002-09-12 Keith Ball Image sharing for instant messaging
US6778642B1 (en) 1999-03-23 2004-08-17 Verizon Laboratories Inc. Unified messaging system
US6393464B1 (en) 1999-05-10 2002-05-21 Unbound Communications, Inc. Method for controlling the delivery of electronic mail messages
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US6457122B1 (en) 1999-06-18 2002-09-24 Phoenix Technologies Ltd. Fault tolerant process for the delivery of programs to writeable storage device utilizing pre-operating system software/firmware
JP2001034546A (ja) 1999-07-22 2001-02-09 Fujitsu Ltd メッセージ装置
US7149893B1 (en) 1999-09-07 2006-12-12 Poofaway.Com, Inc. System and method for enabling the originator of an electronic mail message to preset an expiration time, date, and/or event, and to control processing or handling by a recipient
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US6809724B1 (en) 2000-01-18 2004-10-26 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US8611873B2 (en) 2004-05-12 2013-12-17 Synchronoss Technologies, Inc. Advanced contact identification system
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
US6907571B2 (en) 2000-03-01 2005-06-14 Benjamin Slotznick Adjunct use of instant messenger software to enable communications to or between chatterbots or other software agents
JP3448003B2 (ja) 2000-03-09 2003-09-16 株式会社東芝 移動通信端末
JP4434424B2 (ja) 2000-04-18 2010-03-17 株式会社ルネサステクノロジ ホームエレクトロニクスシステム、ホームサーバ装置およびコンピュータをホームサーバ装置として機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体
WO2001082156A1 (fr) 2000-04-21 2001-11-01 Sony Communication Network Corporation Procede et dispositif de support a la promotion des ventes par utilisation de message electronique
WO2001099392A1 (en) 2000-06-21 2001-12-27 Seiko Epson Corporation Mobile telephone and radio communication device cooperatively processing incoming call
US20020057284A1 (en) 2000-06-29 2002-05-16 Dalby Richard Sean Methods and systems for delivering announcements to users of an information system
US6662023B1 (en) 2000-07-06 2003-12-09 Nokia Mobile Phones Ltd. Method and apparatus for controlling and securing mobile phones that are lost, stolen or misused
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US20070037605A1 (en) * 2000-08-29 2007-02-15 Logan James D Methods and apparatus for controlling cellular and portable phones
KR100500537B1 (ko) 2000-11-15 2005-07-12 엘지전자 주식회사 하나의 문자 메시지를 다수의 수신자 단말기에 전송하는방법
KR100369646B1 (ko) 2000-11-23 2003-01-30 삼성전자 주식회사 휴대용 단말기의 사용자 인터페이스방법
JP2002163217A (ja) 2000-11-24 2002-06-07 Sharp Corp 電子コミュニケーション方法、電子コミュニケーションシステム及びそれに用いられる端末装置
US7334267B2 (en) 2001-02-28 2008-02-19 Hall Aluminum Llc Email viewing security
US6990180B2 (en) * 2001-04-05 2006-01-24 Nokia Mobile Phones Limited Short voice message (SVM) service method, apparatus and system
US7603379B2 (en) 2001-04-11 2009-10-13 Lg Electronics Inc. Unified management method of various types of messages of a personal information terminal
US6892081B1 (en) 2001-05-31 2005-05-10 Nokia Corporation Mobile terminal and method of operation using content sensitive menu keys in keypad locked mode
JP4860057B2 (ja) 2001-06-06 2012-01-25 京セラ株式会社 通信端末装置
KR100492976B1 (ko) * 2001-06-29 2005-06-07 삼성전자주식회사 단순음성메일서비스를 이용한 이동통신 단말기에서의음성메일 저장 및 전송 방법
US6720863B2 (en) 2001-08-16 2004-04-13 Wildseed Ltd. Mobile electronic communication device with lights to indicate received messages
US20030073496A1 (en) 2001-10-17 2003-04-17 D'amico Michael H. Gaming system customer service techniques
JP4123757B2 (ja) * 2001-10-30 2008-07-23 ソニー株式会社 ユーザ間の通信機能を備えた情報処理装置及びこれに用いるプログラム並びに情報処理方法
EP1446781B1 (de) 2001-11-08 2006-10-11 T & A Mobile Phones Limited Verfahren zum verwalten von verketteten erweiterten kurznachrichten (ems) und telekommunikationsendgerät welches das verfahren anwendet
US20030112938A1 (en) 2001-12-17 2003-06-19 Memcorp, Inc. Telephone answering machine and method employing caller identification data
CA2414964C (en) 2001-12-26 2018-07-17 Research In Motion Limited Security interface for a mobile device
AU2002351644A1 (en) 2001-12-26 2003-07-15 Research In Motion Limited User interface and method of viewing unified communications events on a mobile device
US7921166B2 (en) 2002-02-01 2011-04-05 Xerox Corporation Methods and systems for accessing email
KR100455979B1 (ko) 2002-02-27 2004-11-08 삼성전자주식회사 이동통신단말기에 있어서 단문메시지서비스의 메시지 수신 확인방법
US7461378B2 (en) * 2002-06-11 2008-12-02 Siemens Communications, Inc. Methods and apparatus for processing an instant message
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7111044B2 (en) 2002-07-17 2006-09-19 Fastmobile, Inc. Method and system for displaying group chat sessions on wireless mobile terminals
US8150922B2 (en) 2002-07-17 2012-04-03 Research In Motion Limited Voice and text group chat display management techniques for wireless mobile terminals
US20040041841A1 (en) 2002-08-27 2004-03-04 Lemogne Stephane Enhanced contact navigator with interactive tabs for managing network events in real time
US7844662B2 (en) 2002-10-17 2010-11-30 At&T Intellectual Property Ii, L.P. Merging instant messaging (IM) chat sessions
US9076147B2 (en) 2002-09-18 2015-07-07 Advenix, Corp. Systems and methods for online marketing and advertising on e-mail systems
KR100532273B1 (ko) 2002-10-11 2005-11-29 삼성전자주식회사 복합 단말기에서 동작 모드에 따른 배터리 가용 시간 알림방법
US20060084450A1 (en) 2002-10-31 2006-04-20 Peter Dam Nielsen Communication apparatus and a method of indicating receipt of an electronic message, and a server, a method and a computer program product for providing a computerized icon ordering service
US20040172456A1 (en) 2002-11-18 2004-09-02 Green Mitchell Chapin Enhanced buddy list interface
US7111253B2 (en) 2002-12-16 2006-09-19 Palo Alto Research Center Incorporated Method and apparatus for displaying hierarchical information
US20040130581A1 (en) 2003-01-03 2004-07-08 Microsoft Corporation Interaction model
US7300429B2 (en) 2003-03-18 2007-11-27 Catharos Medical Systems, Inc. Methods and devices for retrieval of a medical agent from a physiological efferent fluid collection site
US7457879B2 (en) 2003-04-01 2008-11-25 Microsoft Corporation Notification platform architecture
KR100504828B1 (ko) 2003-04-11 2005-07-29 엘지전자 주식회사 휴대폰의 단문 메시지 관리 방법
US7280646B2 (en) 2003-04-18 2007-10-09 At&T Bls Intellectual Property, Inc. Dynamic Caller ID messaging
US20050266884A1 (en) * 2003-04-22 2005-12-01 Voice Genesis, Inc. Methods and systems for conducting remote communications
US7827232B2 (en) * 2003-05-05 2010-11-02 Microsoft Corporation Record button on a computer system
WO2004107786A1 (en) 2003-05-28 2004-12-09 Nokia Corporation Method and radio terminal equipment arrangement of indicating incoming connection
US7250955B1 (en) 2003-06-02 2007-07-31 Microsoft Corporation System for displaying a notification window from completely transparent to intermediate level of opacity as a function of time to indicate an event has occurred
US7716593B2 (en) 2003-07-01 2010-05-11 Microsoft Corporation Conversation grouping of electronic mail records
US7707255B2 (en) 2003-07-01 2010-04-27 Microsoft Corporation Automatic grouping of electronic mail
EP1652368B1 (de) 2003-07-14 2018-04-04 Cisco Technology, Inc. System und verfahren zur aktiv-mobil-kollaboration
US7571014B1 (en) 2004-04-01 2009-08-04 Sonos, Inc. Method and apparatus for controlling multimedia players in a multi-zone system
US7353413B2 (en) 2003-08-18 2008-04-01 Intel Corporation Computer system power policy adjustment in response to an affirmative indication from a user
US20050055412A1 (en) 2003-09-04 2005-03-10 International Business Machines Corporation Policy-based management of instant message windows
US8952895B2 (en) * 2011-06-03 2015-02-10 Apple Inc. Motion-based device operations
US7433920B2 (en) 2003-10-10 2008-10-07 Microsoft Corporation Contact sidebar tile
JP3651850B2 (ja) 2003-10-21 2005-05-25 アンリツ株式会社 移動体通信端末試験装置
US7281201B2 (en) 2003-11-26 2007-10-09 Sap Aktiengesellschaft Common message area for a customer interaction center user interface
DE202004021925U1 (de) 2003-12-01 2012-11-06 Research In Motion Limited Vorsehen von Benachrichtigungen über neue Ereignisse auf einer Vorrichtung mit kleinem Bildschirm
US7305438B2 (en) 2003-12-09 2007-12-04 International Business Machines Corporation Method and system for voice on demand private message chat
US7454716B2 (en) 2003-12-22 2008-11-18 Microsoft Corporation Clustering messages
KR100664108B1 (ko) 2003-12-27 2007-01-04 엘지전자 주식회사 이동통신단말기의 메시지 전송 방법
US7631276B2 (en) 2003-12-29 2009-12-08 International Business Machines Corporation Method for indication and navigating related items
US7496385B2 (en) 2003-12-29 2009-02-24 International Business Machines Corporation Method for viewing information underlying lists and other contexts
KR100608747B1 (ko) 2003-12-30 2006-08-04 엘지전자 주식회사 이동통신단말기 및 그의 메시지 전송방법
US7904510B2 (en) 2004-02-23 2011-03-08 Microsoft Corporation Systems and methods for managing discussion threads based on ratings
US8255835B2 (en) 2004-02-24 2012-08-28 Research In Motion Limited Method and system for managing unread electronic messages
US7645108B2 (en) 2004-02-26 2010-01-12 Benko John C Stack loading and unloading cart
US8739071B2 (en) 2004-02-27 2014-05-27 Blackberry Limited System and method for message display and management
US7365736B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Customizable gesture mappings for motion controlled handheld devices
US7912904B2 (en) 2004-03-31 2011-03-22 Google Inc. Email system with conversation-centric user interface
KR100598062B1 (ko) 2004-04-14 2006-07-10 주식회사 팬택앤큐리텔 덮개 닫힘 상태에서 데이터 송/수신 방법
US7773404B2 (en) * 2005-01-07 2010-08-10 Invisage Technologies, Inc. Quantum dot optical devices with enhanced gain and sensitivity and methods of making same
US7697960B2 (en) 2004-04-23 2010-04-13 Samsung Electronics Co., Ltd. Method for displaying status information on a mobile terminal
JP2007536634A (ja) 2004-05-04 2007-12-13 フィッシャー−ローズマウント・システムズ・インコーポレーテッド プロセス制御システムのためのサービス指向型アーキテクチャ
US7120455B1 (en) 2004-05-20 2006-10-10 Cellco Partnership Method and system for mobile instant messaging using multiple interfaces
US7353466B2 (en) 2004-05-28 2008-04-01 Microsoft Corporation System and method for generating message notification objects on dynamically scaled timeline
CA2571391C (en) 2004-06-21 2010-12-21 Research In Motion Limited System and method for handling electronic messages
US7197121B2 (en) 2004-06-30 2007-03-27 Glenayre Electronics, Inc. Audio chunking
BRPI0513210A8 (pt) * 2004-07-01 2018-04-24 Nokia Corp método para o usuário definir ao menos um aspecto de uma interface do usuário para o dispositivo, ferramenta para permitir ao usuário definir ao menos um aspecto de uma interface do usuário para o dispositivo móvel, terminal móvel, e, produto de programa de computador
US20060026245A1 (en) 2004-07-07 2006-02-02 Ivy Cunningham System and method for data organization and display in an instant-messaging interface
US8607334B2 (en) 2004-07-08 2013-12-10 Research In Motion Limited System and method for secure message processing
US7805683B2 (en) 2004-07-09 2010-09-28 Sap Ag Action pad
US9948989B1 (en) 2004-07-21 2018-04-17 Cox Communications, Inc. Interactive media content listing search and filtering system for a media content listing display system such as an electronic programming guide
US20060019649A1 (en) 2004-07-21 2006-01-26 Feinleib David A System and method for remote telephone ringer
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US20060025091A1 (en) 2004-08-02 2006-02-02 Matsushita Electric Industrial Co., Ltd Method for creating and using phrase history for accelerating instant messaging input on mobile devices
US7519670B2 (en) 2004-08-12 2009-04-14 International Business Machines Corporation Method for disappearing ink for text messaging
JP2006072489A (ja) 2004-08-31 2006-03-16 Toshiba Corp 情報処理装置および表示制御プログラム
US7487213B2 (en) 2004-09-07 2009-02-03 Iconix, Inc. Techniques for authenticating email
JP2006079427A (ja) 2004-09-10 2006-03-23 Toshiba Tec Corp 携帯情報機器
JP2006129429A (ja) 2004-10-01 2006-05-18 Haatec:Kk 通信システムの端末機
JP4127833B2 (ja) 2004-10-12 2008-07-30 株式会社東芝 携帯端末
US7571319B2 (en) 2004-10-14 2009-08-04 Microsoft Corporation Validating inbound messages
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
JP2006135667A (ja) * 2004-11-05 2006-05-25 Toshiba Corp データ送信機、データ送信方法、データ受信機、及びデータ受信処理方法
US7665031B2 (en) 2004-12-08 2010-02-16 Microsoft Corporation Method and system of taskbar button interfaces
US7218943B2 (en) 2004-12-13 2007-05-15 Research In Motion Limited Text messaging conversation user interface functionality
US7969959B2 (en) 2004-12-16 2011-06-28 Critical Response Systems, Inc. Method and apparatus for efficient and deterministic group alerting
US7773978B2 (en) 2004-12-20 2010-08-10 Samsung Electronics Co., Ltd. Device and method for processing message-related events in a portable terminal
AU2005320421A1 (en) * 2004-12-28 2006-07-06 Samsung Electronics Co., Ltd. Method and apparatus for managing multimedia messages
US7636578B1 (en) 2004-12-30 2009-12-22 Sprint Communications Company L.P. Method and system to provide text messages via a host device connected to a media-delivery network
US7536565B2 (en) 2005-01-07 2009-05-19 Apple Inc. Techniques for improved playlist processing on media devices
KR101155335B1 (ko) 2005-01-07 2012-06-11 엘지전자 주식회사 이동통신 단말기의 멀티미디어 메시지 동작방법
WO2006075334A2 (en) 2005-01-16 2006-07-20 Zlango Ltd. Iconic communication
US8856223B2 (en) * 2005-01-18 2014-10-07 International Business Machines Corporation Limiting access to instant messaging content on a display screen
US8107599B2 (en) * 2005-02-15 2012-01-31 Fastvdo, Llc Methods and apparatus for the composition and communication of digital composition coded multisensory messages (DCC MSMS)
US7783065B2 (en) 2005-03-18 2010-08-24 Nyko Technologies, Inc. Wireless headphone kit for media players
CN100502415C (zh) 2005-04-22 2009-06-17 英华达(上海)电子有限公司 手机中语音自动处理外来通信事件的方法
EP1724955A3 (de) 2005-05-17 2007-01-03 Samsung Electronics Co.,Ltd. Verfahren zum Annehmen eines Telefonanrufes während des Empfangs eines Rundfunkdienstes, sowie digitales multimedia Rundfunkendgerät mit Verwendung dieses Verfahrens
US7685530B2 (en) 2005-06-10 2010-03-23 T-Mobile Usa, Inc. Preferred contact group centric interface
US7430409B2 (en) 2005-06-17 2008-09-30 Research In Motion Limited Method and apparatus for dynamic session placeholder for message collection user interface
US20070004461A1 (en) 2005-06-30 2007-01-04 Bathina Sridhar N Terminal with messaging application
US8577411B2 (en) 2005-07-01 2013-11-05 Access Co., Ltd. Broadcast program scene report system and method, mobile terminal device, and computer program
US7697926B2 (en) 2005-07-29 2010-04-13 Research In Motion Limited Device and method for generating user notifications associated with tasks that are pending completion
JP4400534B2 (ja) 2005-09-06 2010-01-20 富士通株式会社 予約メール送信方法および情報端末装置
US9629384B2 (en) 2005-09-14 2017-04-25 S & P Ingredient Development, Llc Low sodium salt composition
EP1938501A4 (de) 2005-09-26 2009-01-07 Research In Motion Ltd Wiedergabe der betreffidentifikation an geschützten nachrichten, bei denen eine solche identifikation fehlt
US20070073823A1 (en) * 2005-09-29 2007-03-29 International Business Machines Corporation Method and apparatus to secure and retrieve instant messages
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US7728316B2 (en) * 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
US20070117549A1 (en) * 2005-10-06 2007-05-24 Arnos Reed W Wireless handset and methods for use therewith
US8689147B2 (en) 2005-10-07 2014-04-01 Blackberry Limited System and method for using navigational and other commands on a mobile communication device
US7894580B2 (en) * 2005-10-26 2011-02-22 Research In Motion Limited Methods and apparatus for reliable voicemail message deletion alerts at mobile communication devices
KR100664251B1 (ko) 2005-11-02 2007-01-04 엘지전자 주식회사 단축키를 이용한 단문 메시지 작성 방법 및 이를 위한 이동단말
JP2007140696A (ja) 2005-11-15 2007-06-07 Nec Corp コミュニケーションシステム、機器およびプログラム
EP1801689A1 (de) 2005-12-23 2007-06-27 Sap Ag Verfahren, Systeme und Softwareanwendungen mit Tabpanelelementen
US7552399B2 (en) 2005-12-27 2009-06-23 International Business Machines Corporation Extensible icons with multiple drop zones
JP4440311B2 (ja) 2005-12-27 2010-03-24 京セラ株式会社 通信装置、サーバ装置および通信制御方法
US20070157105A1 (en) 2006-01-04 2007-07-05 Stephen Owens Network user database for a sidebar
US7956846B2 (en) 2006-01-05 2011-06-07 Apple Inc. Portable electronic device with content-dependent touch sensitivity
JP2009524357A (ja) 2006-01-20 2009-06-25 カンバーセイショナル コンピューティング コーポレイション 着用型ディスプレーインターフェースクライエント装置
KR100746943B1 (ko) 2006-02-06 2007-08-07 주식회사 케이티프리텔 단문 메시지 서비스를 이용한 문자 채팅 기능을 지원하는이동통신 단말기 및 문자 채팅 서비스 방법
US8175656B2 (en) 2006-02-24 2012-05-08 Qualcomm Incorporated System and method of displaying incoming communication alerts at a wireless device
US7720916B2 (en) 2006-02-28 2010-05-18 Microsoft Corporation Ordering personal information using social metadata
US10521022B2 (en) * 2006-03-17 2019-12-31 Conversant Wireless Licensing S.a.r.l. Mobile communication terminal and method therefor
US20070224979A1 (en) 2006-03-21 2007-09-27 Iman, Inc. Opt-in data communication to wireless devices
US7830569B2 (en) 2006-03-31 2010-11-09 Eastman Kodak Company Multilevel halftone screen and sets thereof
CN100462909C (zh) * 2006-03-31 2009-02-18 腾讯科技(深圳)有限公司 一种控制窗口界面显示的方法及装置
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
KR100727398B1 (ko) 2006-04-18 2007-06-12 삼성전자주식회사 이동통신 단말기에서 핸드오버 중 단문 메시지의 전송을제어하기 위한 방법
CA2545339C (en) 2006-05-01 2014-07-08 Lms Medical Systems Ltd. Method and apparatus for displaying labour related information associated to an obstetrics patient
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US20070300140A1 (en) 2006-05-15 2007-12-27 Nokia Corporation Electronic device having a plurality of modes of operation
CA2652507C (en) 2006-05-16 2013-05-07 Research In Motion Limited System and method for home screen interface integrating application and system status
US8989778B2 (en) * 2006-06-01 2015-03-24 Green Dot Corporation Secure and private location sharing for location-aware mobile communication devices
US8571580B2 (en) 2006-06-01 2013-10-29 Loopt Llc. Displaying the location of individuals on an interactive map display on a mobile communication device
KR101277256B1 (ko) 2006-06-16 2013-07-05 삼성전자주식회사 사용자 인터페이스를 위한 장치 및 방법
US7702282B2 (en) 2006-07-13 2010-04-20 Sony Ericsoon Mobile Communications Ab Conveying commands to a mobile terminal through body actions
US8180382B1 (en) * 2006-07-14 2012-05-15 At&T Mobility Ii Llc Direct and immediate transmittal of voice messages and handset storage thereof
US8572182B2 (en) 2006-07-21 2013-10-29 Blackberry Limited Handling notifications in instant messaging systems
US7789225B2 (en) * 2006-07-27 2010-09-07 David Whiteis Jewelry box
US7623877B2 (en) 2006-07-28 2009-11-24 Research In Motion Limited Limited lifespan for outgoing data at a mobile device
KR100778367B1 (ko) 2006-08-02 2007-11-22 삼성전자주식회사 휴대 단말기 및 그의 이벤트 처리 방법
US7899474B2 (en) 2006-08-18 2011-03-01 Research In Motion Limited Associating a label with a queued message at a mobile device
KR100754796B1 (ko) 2006-08-22 2007-09-03 삼성전자주식회사 휴대용 단말기의 인스턴트 메시지 표시 장치 및 방법
CN101356493A (zh) 2006-09-06 2009-01-28 苹果公司 用于照片管理的便携式电子装置
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US7996792B2 (en) 2006-09-06 2011-08-09 Apple Inc. Voicemail manager for portable multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US8014760B2 (en) 2006-09-06 2011-09-06 Apple Inc. Missed telephone call management for a portable multifunction device
US8233885B2 (en) 2006-09-08 2012-07-31 Hewlett-Packard Development Company, L.P. Apparatus and methods for providing enhanced mobile messaging services
KR100774927B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
US7768415B2 (en) 2006-09-28 2010-08-03 Nike, Inc. Sensor device with persistent low power beacon
KR20080035108A (ko) 2006-10-18 2008-04-23 삼성전자주식회사 이동 통신 단말기에서의 메시지 작성 방법
US8090087B2 (en) 2006-10-26 2012-01-03 Apple Inc. Method, system, and graphical user interface for making conference calls
US7908219B2 (en) * 2006-11-03 2011-03-15 Microsoft Corporation Inbox management
KR20080043134A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 통합 ip 메시징 서비스 클라이언트와 단문 메시징 서비스클라이언트 간에 메시지 통신을 위한 세션 설정 방법 및시스템
JP4332173B2 (ja) 2006-11-13 2009-09-16 京セラ株式会社 情報通信端末、メール既読化方法、及びメール既読化プログラム
KR20080043472A (ko) 2006-11-14 2008-05-19 삼성전자주식회사 휴대용 단말기의 메시지 관리 방법 및 장치
US7650384B2 (en) 2006-11-17 2010-01-19 Microsoft Corporation Maintaining real-time conversations over unreliable connections
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US20080146289A1 (en) * 2006-12-14 2008-06-19 Motorola, Inc. Automatic audio transducer adjustments based upon orientation of a mobile communication device
US8706818B2 (en) 2006-12-19 2014-04-22 Microsoft Corporation Remote control-based instant messaging
US20080163121A1 (en) 2006-12-29 2008-07-03 Research In Motion Limited Method and arrangement for designating a menu item on a handheld electronic device
US20080030496A1 (en) 2007-01-03 2008-02-07 Social Concepts, Inc. On-line interaction system
US8413059B2 (en) 2007-01-03 2013-04-02 Social Concepts, Inc. Image based electronic mail system
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8091045B2 (en) 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
JP2010515895A (ja) 2007-01-10 2010-05-13 トムトム インターナショナル ベスローテン フエンノートシャップ ナビゲーション装置、及び、救急サービスアクセスを用いてのナビゲーション装置の動作方法
US8914224B2 (en) 2007-01-10 2014-12-16 Tomtom International B.V. Navigation device and method
US7925306B2 (en) 2007-01-12 2011-04-12 Research In Motion Limited System and method for providing a preview of message content on a mobile device
US7844658B2 (en) 2007-01-22 2010-11-30 Comcast Cable Holdings, Llc System and method for providing an application to a device
US10110530B2 (en) 2007-02-02 2018-10-23 Iconix, Inc. Authenticating and confidence marking e-mail messages
KR101364885B1 (ko) 2007-02-21 2014-02-19 엘지전자 주식회사 아이콘을 이용한 메시지 수신 표시 방법 및 단말기
US20080268901A1 (en) 2007-03-05 2008-10-30 Ivan Miramontes Slider twister phone
US20080261569A1 (en) 2007-04-23 2008-10-23 Helio, Llc Integrated messaging, contacts, and mail interface, systems and methods
US8621024B2 (en) 2007-04-24 2013-12-31 Blackberry Limited System and method for prioritizing and displaying messages
EP1998543A1 (de) 2007-05-29 2008-12-03 Research In Motion Limited Vorrichtung und Verfahren zur Integration von Image-Upload-Objekten in eine Nachrichtenliste
US8218734B2 (en) 2007-06-12 2012-07-10 Microsoft Corporation Messaging with a locked communication device
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8068925B2 (en) * 2007-06-28 2011-11-29 Apple Inc. Dynamic routing of audio among multiple audio devices
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US20090003552A1 (en) * 2007-06-29 2009-01-01 Lucent Technologies Inc. Personal message expiration
AU2008201643B1 (en) 2007-07-24 2008-08-28 Rambrandt Messaging Technologies, LP Messaging service in a wireless communications network
US7996473B2 (en) * 2007-07-30 2011-08-09 International Business Machines Corporation Profile-based conversion and delivery of electronic messages
US8990400B2 (en) 2007-08-17 2015-03-24 The Invention Science Fund I, Llc Facilitating communications among message recipients
US9261979B2 (en) * 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
JP2009053758A (ja) 2007-08-23 2009-03-12 Toshiba Corp 通信端末装置
US8265665B2 (en) 2007-09-21 2012-09-11 Research In Motion Limited Color differentiating a portion of a text message shown in a listing on a handheld communication device
US8125458B2 (en) 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
US8942764B2 (en) * 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
US20090098914A1 (en) 2007-10-15 2009-04-16 Research In Motion Limited Method and system for enabling or disabling features based on a battery level threshold
KR101476176B1 (ko) 2007-10-19 2014-12-24 엘지전자 주식회사 단말기, 그 제어 방법 및 이를 위한 기록 매체
US9313160B1 (en) 2007-10-30 2016-04-12 Google, Inc. Systems and methods for a card-based user interface for reading thread-based communications on mobile devices
US9241063B2 (en) 2007-11-01 2016-01-19 Google Inc. Methods for responding to an email message by call from a mobile device
US20090119678A1 (en) 2007-11-02 2009-05-07 Jimmy Shih Systems and methods for supporting downloadable applications on a portable client device
CN101965563A (zh) 2007-11-05 2011-02-02 维斯托公司 服务管理系统和在移动客户机中提供服务相关消息优先排序的关联方法
US7996045B1 (en) 2007-11-09 2011-08-09 Google Inc. Providing interactive alert information
WO2009071112A1 (en) * 2007-12-03 2009-06-11 Nokia Corporation Media embedded in mobile messaging
US8635288B2 (en) 2007-12-18 2014-01-21 Alcatel Lucent Methods and systems for expiration handling in electronic message systems
JP2008099330A (ja) 2007-12-18 2008-04-24 Sony Corp 情報処理装置、携帯電話機
US8112281B2 (en) 2007-12-19 2012-02-07 Enbiomedic Accelerometer-based control of wearable audio recorders
JP5034931B2 (ja) 2007-12-26 2012-09-26 ソニー株式会社 表示装置、プログラム、及び記録媒体
US8706092B2 (en) * 2008-01-03 2014-04-22 Apple Inc. Outgoing voice mail recording and playback
US8407603B2 (en) 2008-01-06 2013-03-26 Apple Inc. Portable electronic device for instant messaging multiple recipients
US20090176517A1 (en) 2008-01-06 2009-07-09 Apple Inc. Multiple Recipient Messaging Service for Mobile Device
US7996046B2 (en) 2008-01-10 2011-08-09 Microsoft Corporation Smart alert charms for wireless devices
US20090187842A1 (en) * 2008-01-22 2009-07-23 3Dlabs Inc., Ltd. Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
EP3432656B1 (de) 2008-01-30 2021-04-14 Google LLC Benachrichtigung über ereignisse in mobilen vorrichtungen
US8677285B2 (en) 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US9054912B2 (en) * 2008-02-08 2015-06-09 Voxer Ip Llc Communication application for conducting conversations including multiple media types in either a real-time mode or a time-shifted mode
US8676224B2 (en) * 2008-02-19 2014-03-18 Apple Inc. Speakerphone control for mobile device
US20090248751A1 (en) * 2008-04-01 2009-10-01 Myman Darin M Destroyable Instant Message (IM)
US8312380B2 (en) 2008-04-04 2012-11-13 Yahoo! Inc. Local map chat
EP2109055A1 (de) 2008-04-11 2009-10-14 Universiteit Maastricht Tragbares psychologisches Überwachungsgerät
US20090265643A1 (en) * 2008-04-18 2009-10-22 Alcatel Lucent Instant messaging reception indication
CN101276255A (zh) * 2008-05-05 2008-10-01 中兴通讯股份有限公司 一种移动终端菜单的显示装置及显示方法
US20130275899A1 (en) 2010-01-18 2013-10-17 Apple Inc. Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20090313582A1 (en) 2008-06-11 2009-12-17 Raul Rupsingh System, Method and Computer Program for User-Friendly Social Interaction
US20130310089A1 (en) * 2008-08-05 2013-11-21 Vasileios John Gianoukos Voice texting over sms
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US8121586B2 (en) * 2008-09-16 2012-02-21 Yellowpages.Com Llc Systems and methods for voice based search
US8620869B2 (en) 2008-09-25 2013-12-31 Microsoft Corporation Techniques to manage retention policy tags
EP2173072B1 (de) 2008-10-01 2013-09-11 Accenture Global Services Limited Personalisierte Speicherkonten in einem elektronischen Dateiliefersystem
US9009053B2 (en) 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US20100124906A1 (en) * 2008-11-14 2010-05-20 Nokia Corporation Method and Apparatus for Transmitting and Receiving Data
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
KR101050642B1 (ko) 2008-12-04 2011-07-19 삼성전자주식회사 와치 폰 및 상기 와치 폰에서 통화수행 방법
US20100162169A1 (en) 2008-12-23 2010-06-24 Nokia Corporation Method, Apparatus and Computer Program Product for Providing a Dynamic Slider Interface
US20100162138A1 (en) 2008-12-23 2010-06-24 At&T Mobility Ii Llc Conversation bubbles including visual cues for threaded messaging applications
US20110306393A1 (en) 2010-06-15 2011-12-15 Tomasz Goldman Headset base with display and communications base
US8572493B2 (en) * 2009-01-29 2013-10-29 Rick Qureshi Mobile device messaging application
US8315606B2 (en) 2009-02-27 2012-11-20 Research In Motion Limited System and method for intelligent call identification on a mobile communication device
US9280971B2 (en) 2009-02-27 2016-03-08 Blackberry Limited Mobile wireless communications device with speech to text conversion and related methods
US8756534B2 (en) * 2009-03-16 2014-06-17 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US20100281409A1 (en) 2009-04-30 2010-11-04 Nokia Corporation Apparatus and method for handling notifications within a communications device
US8340646B2 (en) * 2009-05-01 2012-12-25 T-Mobile Usa, Inc. Direct voicemailing
US8464182B2 (en) 2009-06-07 2013-06-11 Apple Inc. Device, method, and graphical user interface for providing maps, directions, and location-based information
KR20100132705A (ko) 2009-06-10 2010-12-20 삼성전자주식회사 컨텐츠 리스트 제공방법 및 이를 적용한 멀티미디어 기기
US8281244B2 (en) 2009-06-11 2012-10-02 Apple Inc. User interface for media playback
US8930438B2 (en) 2009-06-17 2015-01-06 Apple Inc. Push-based location update
KR101590766B1 (ko) 2009-06-26 2016-02-02 삼성전자주식회사 메시지를 그룹화하고 디스플레이하는 장치 및 방법
US8548523B2 (en) 2009-07-01 2013-10-01 At&T Intellectual Property I, L.P. Methods, apparatus, and computer program products for changing ring method based on type of connected device
US9519417B2 (en) * 2009-08-31 2016-12-13 Twin Harbor Labs, LLC System and method for orientation-based object monitoring and device for the same
TWI554076B (zh) 2009-09-04 2016-10-11 普露諾洛股份有限公司 遠距離的電話管理器
KR101651128B1 (ko) * 2009-10-05 2016-08-25 엘지전자 주식회사 이동 단말기 이것의 애플리케이션 실행 제어 방법
JP5419153B2 (ja) 2009-10-22 2014-02-19 Necカシオモバイルコミュニケーションズ株式会社 タッチ検出装置、電子機器、および、プログラム
JP2011107823A (ja) * 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
EP2502430A4 (de) 2009-11-17 2013-05-15 Tip Solutions Inc Kommunikationsverwaltungsfunktionen
US8922485B1 (en) * 2009-12-18 2014-12-30 Google Inc. Behavioral recognition on mobile devices
KR101626621B1 (ko) 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
US8972892B2 (en) 2010-01-05 2015-03-03 Qualcomm Incorporated Notification in immersive applications
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8456297B2 (en) 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
US8301121B2 (en) 2010-01-22 2012-10-30 Sony Ericsson Mobile Communications Ab Regulating alerts generated by communication terminals responsive to sensed movement
DE102010008622A1 (de) 2010-02-19 2011-08-25 Airbus Operations GmbH, 21129 Gehäuseloses Staufach
US8589815B2 (en) 2010-03-10 2013-11-19 Microsoft Corporation Control of timing for animations in dynamic icons
US20110231499A1 (en) 2010-03-22 2011-09-22 Research In Motion Limited Management and display of grouped messages on a communication device
US9275376B2 (en) 2010-03-25 2016-03-01 Nokia Technologies Oy Method and apparatus for providing soft reminders
CN102215374B (zh) * 2010-04-07 2015-09-02 苹果公司 在多照相机移动设备的视频会议期间切换照相机
US20110254684A1 (en) 2010-04-20 2011-10-20 Vito Antoci Bag Attachment for Alert Notification and Device Retrieval
US9050534B2 (en) 2010-04-23 2015-06-09 Ganz Achievements for a virtual world game
US20110276901A1 (en) 2010-05-04 2011-11-10 Qwest Communications International Inc. Family chat
US8587476B2 (en) 2010-05-11 2013-11-19 Blackberry Limited System and method for providing location information on mobile devices
CN101873386A (zh) 2010-06-13 2010-10-27 华为终端有限公司 一种移动终端及其来电提示方法
KR101672212B1 (ko) * 2010-06-15 2016-11-04 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
US9417665B2 (en) 2010-06-28 2016-08-16 Apple Inc. Providing an alternative human interface
CN101877745B (zh) 2010-06-30 2014-04-09 中兴通讯股份有限公司 移动终端节电的系统及方法
US8549617B2 (en) 2010-06-30 2013-10-01 Juniper Networks, Inc. Multi-service VPN network client for mobile device having integrated acceleration
US8284748B2 (en) 2010-07-07 2012-10-09 Apple Inc. Ad hoc formation and tracking of location-sharing groups
US8285258B2 (en) 2010-07-07 2012-10-09 Research In Motion Limited Pushed content notification and display
US9304591B2 (en) * 2010-08-10 2016-04-05 Lenovo (Singapore) Pte. Ltd. Gesture control
KR20120019531A (ko) 2010-08-26 2012-03-07 삼성전자주식회사 휴대 단말기의 gui제공 방법 및 장치
CN103329560B (zh) 2010-08-26 2017-02-08 泰瑞克·塔勒布 用于创建为社交网络定制的多媒体内容频道的系统和方法
US8620850B2 (en) 2010-09-07 2013-12-31 Blackberry Limited Dynamically manipulating an emoticon or avatar
CN102447778B (zh) 2010-10-13 2013-10-09 腾讯科技(深圳)有限公司 一种展示消息的方法及消息展示装置
US20120102437A1 (en) 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
US20120108215A1 (en) 2010-10-29 2012-05-03 Nader Kameli Remote notification device
US8253684B1 (en) * 2010-11-02 2012-08-28 Google Inc. Position and orientation determination for a mobile computing device
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US10303357B2 (en) 2010-11-19 2019-05-28 TIVO SOLUTIONS lNC. Flick to send or display content
US8874665B2 (en) 2010-12-13 2014-10-28 At&T Mobility Ii Llc Systems, apparatus and methods for facilitating display and management of information for communication devices
US8798648B2 (en) 2010-12-14 2014-08-05 Qualcomm Incorporated Methods and apparatus for managing messages
US9131060B2 (en) * 2010-12-16 2015-09-08 Google Technology Holdings LLC System and method for adapting an attribute magnification for a mobile communication device
US20120162350A1 (en) 2010-12-17 2012-06-28 Voxer Ip Llc Audiocons
US20120158511A1 (en) 2010-12-21 2012-06-21 Microsoft Corporation Provision of contextual advertising
US8369893B2 (en) 2010-12-31 2013-02-05 Motorola Mobility Llc Method and system for adapting mobile device to accommodate external display
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US8775535B2 (en) * 2011-01-18 2014-07-08 Voxilate, Inc. System and method for the transmission and management of short voice messages
US9002420B2 (en) 2011-01-19 2015-04-07 Ram Pattikonda Watch having an interface to a mobile communications device
CN201928419U (zh) 2011-01-21 2011-08-10 青岛海信移动通信技术股份有限公司 一种耳机及配置有所述耳机的移动通信终端
WO2012108213A1 (ja) 2011-02-10 2012-08-16 京セラ株式会社 入力装置
US9588669B2 (en) 2011-02-17 2017-03-07 T-Mobile Usa, Inc. Sticky messages
US10146329B2 (en) 2011-02-25 2018-12-04 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different motion gestures and motion properties
CN102111505B (zh) 2011-03-04 2013-06-05 中山大学 一种移动终端短信息提示显示方法
US9104288B2 (en) * 2011-03-08 2015-08-11 Nokia Technologies Oy Method and apparatus for providing quick access to media functions from a locked screen
US20120239949A1 (en) 2011-03-14 2012-09-20 Research In Motion Limited Electronic device and method for application and profile sensitive battery power management
WO2012128824A1 (en) 2011-03-18 2012-09-27 Villa-Real Antony-Euclid C Global multi-purpose voice-controlled trans-lingual electronic talking and singing watch
JP5729759B2 (ja) 2011-03-22 2015-06-03 埼玉日本電気株式会社 携帯電子機器、その制御方法及びプログラム
US8880625B2 (en) * 2011-03-31 2014-11-04 Loment, Inc. Automatic expiration of messages communicated among end user communication devices
US9331972B2 (en) * 2011-03-31 2016-05-03 Loment, Inc. Automatic expiration of messages communicated to an end user communication device
KR101891803B1 (ko) 2011-05-23 2018-08-27 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 편집 방법 및 장치
US8971924B2 (en) 2011-05-23 2015-03-03 Apple Inc. Identifying and locating users on a mobile network
US8508494B2 (en) 2011-06-01 2013-08-13 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
CN107506249B (zh) 2011-06-05 2021-02-12 苹果公司 用于显示从多个应用接收到的通知的系统和方法
US20120313847A1 (en) * 2011-06-09 2012-12-13 Nokia Corporation Method and apparatus for contextual gesture recognition
US9372556B2 (en) 2011-06-28 2016-06-21 Kyocera Corporation Electronic device, informing control method, and storage medium storing control program
JP5762850B2 (ja) 2011-06-28 2015-08-12 京セラ株式会社 携帯端末装置
CA2746065C (en) 2011-07-18 2013-02-19 Research In Motion Limited Electronic device and method for selectively applying message actions
JP5790238B2 (ja) 2011-07-22 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20150172393A1 (en) * 2011-07-29 2015-06-18 Google Inc. Temporal Location Sharing
US20130053007A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Gesture-based input mode selection for mobile devices
JP2013048389A (ja) 2011-08-29 2013-03-07 Fujitsu Mobile Communications Ltd 電子装置、そのカメラ制御プログラムおよびカメラ制御方法
KR20130028598A (ko) 2011-09-09 2013-03-19 삼성전자주식회사 장치 및 장치의 이미지 파일의 sns 업로드방법
US8976128B2 (en) 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US20130078958A1 (en) 2011-09-23 2013-03-28 Research In Motion Limited System and method for managing transient notifications using sensors
CN108337380B (zh) 2011-09-30 2022-08-19 苹果公司 自动调整用户界面以用于免提交互
KR101789626B1 (ko) * 2011-10-10 2017-10-25 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
KR101951975B1 (ko) * 2011-10-10 2019-02-25 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통신 시스템
US8848932B2 (en) * 2011-10-13 2014-09-30 Blackberry Limited Proximity sensing for user detection and automatic volume regulation with sensor interruption override
US8819154B2 (en) * 2011-10-14 2014-08-26 Blackberry Limited User interface methods and apparatus for use in communicating text and photo messages
EP2582120A1 (de) * 2011-10-14 2013-04-17 Research In Motion Limited Benutzerschnittstellenverfahren und -vorrichtung für die Übermittlung von Text- und Fotonachrichten
US20130117391A1 (en) 2011-11-07 2013-05-09 LaVoult.com, LLC Messaging System
US20130120106A1 (en) 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US8655385B2 (en) 2011-11-18 2014-02-18 Blackberry Limited Social networking methods and apparatus for use in facilitating participation in user-relevant social groups
WO2013093558A1 (en) 2011-12-21 2013-06-27 Nokia Corporation Apparatus and method for collating application events with contacts of an electronic device.
CN102404458A (zh) 2011-12-27 2012-04-04 上海华勤通讯技术有限公司 移动终端和联系人信息排序方法
EP2610701B1 (de) 2011-12-29 2015-04-01 Research in Motion Corporation Stromversorgungsmanagement für tragbare elektronische Vorrichtungen
WO2013102908A1 (en) 2012-01-08 2013-07-11 Powermat Technologies Ltd System and method for providing and controlling inductive power charging
US10289660B2 (en) * 2012-02-15 2019-05-14 Apple Inc. Device, method, and graphical user interface for sharing a content object in a document
EP2631743B1 (de) 2012-02-24 2018-05-02 BlackBerry Limited Tragbare Vorrichtung mit Benachrichtigungsmeldungsanzeige
KR101253451B1 (ko) * 2012-02-29 2013-04-11 주식회사 팬택 음원의 위치를 감지할 수 있는 모바일 디바이스 및 그 제어 방법
KR101921203B1 (ko) * 2012-03-02 2018-11-22 삼성전자 주식회사 녹음 기능이 연동된 메모 기능 운용 방법 및 장치
US9189062B2 (en) 2012-03-07 2015-11-17 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof based on user motion
US9247525B2 (en) 2012-03-16 2016-01-26 Qualcomm Incorporated Systems and methods for providing notifications
CN103327159B (zh) 2012-03-19 2016-07-06 联想(北京)有限公司 一种低电提示方法及电子设备
KR20130107974A (ko) 2012-03-23 2013-10-02 삼성전자주식회사 플로팅 사용자 인터페이스 제공 장치 및 방법
US9934713B2 (en) 2012-03-28 2018-04-03 Qualcomm Incorporated Multifunction wristband
US20130275924A1 (en) 2012-04-16 2013-10-17 Nuance Communications, Inc. Low-attention gestural user interface
US9507327B2 (en) 2012-04-20 2016-11-29 Liaison Home Automation, Llc Systems and methods for controlling home and commercial environments including one touch and intuitive functionality
US20130282844A1 (en) 2012-04-23 2013-10-24 Contact Solutions LLC Apparatus and methods for multi-mode asynchronous communication
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US10649622B2 (en) 2012-05-09 2020-05-12 Apple Inc. Electronic message user interface
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169870A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for transitioning between display states in response to gesture
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10097496B2 (en) 2012-05-09 2018-10-09 Apple Inc. Electronic mail user interface
US9191988B2 (en) 2012-05-26 2015-11-17 Qualcomm Incorporated Smart pairing using bluetooth technology
KR101395480B1 (ko) 2012-06-01 2014-05-14 주식회사 팬택 필기 입력에 기초하여 어플리케이션을 실행하는 방법 및 그 단말
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
KR101941510B1 (ko) 2012-06-13 2019-01-23 삼성전자주식회사 전력 소모를 줄이기 위한 방법 및 그 전자 장치
CN102695302B (zh) 2012-06-15 2014-12-24 吴芳 用于扩展便携终端电子设备移动通信功能的系统和方法
US8949363B2 (en) 2012-06-19 2015-02-03 Blackberry Limited Delayed or suspended alerts with multiple devices in proximity
US20130347018A1 (en) 2012-06-21 2013-12-26 Amazon Technologies, Inc. Providing supplemental content with active media
US20130346918A1 (en) 2012-06-26 2013-12-26 Google Inc. Presentation and management of notifications
US9461833B1 (en) 2012-07-13 2016-10-04 Google Inc. Coalesced notifications for social groups
CN102799382A (zh) * 2012-07-16 2012-11-28 华为终端有限公司 用户设备的系统栏的控制方法和用户设备
EP2688283B1 (de) * 2012-07-20 2020-03-18 BlackBerry Limited Dynamische Anpassung eines relevanten Bereichs und Bildaufnahmevorrichtung damit
US9560006B2 (en) 2012-07-26 2017-01-31 Google Inc. Method and apparatus for expiring messages in electronic communications
CN103581413A (zh) 2012-08-01 2014-02-12 中兴通讯股份有限公司 一种会话管理方法及终端
CA2824165C (en) 2012-08-22 2016-10-18 Scanavo North America Ltd. Virtual packaging and electronic gifting system and methodology
KR101901919B1 (ko) * 2012-08-27 2018-09-27 삼성전자주식회사 휴대 단말기 및 메신저 영상 서비스 운용 방법
KR102020335B1 (ko) 2012-08-27 2019-09-10 삼성전자 주식회사 메시지 운용 방법 및 이를 지원하는 단말기
US8787888B2 (en) 2012-08-29 2014-07-22 Facebook, Inc. Sharing location information during a communication session
KR101399112B1 (ko) 2012-08-31 2014-05-30 주식회사 팬택 휴대용 전자 기기 및 이를 위한 배터리 관리 방법
US9131332B2 (en) 2012-09-10 2015-09-08 Qualcomm Incorporated Method of providing call control information from a mobile phone to a peripheral device
JP5884689B2 (ja) 2012-09-11 2016-03-15 カシオ計算機株式会社 携帯機器及びその制御方法、並びに、携帯機器の制御プログラム
US8488752B1 (en) * 2012-09-14 2013-07-16 Google Inc. System and method for recording voicemail
US10042603B2 (en) * 2012-09-20 2018-08-07 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
KR102013443B1 (ko) * 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
JP2014071835A (ja) 2012-10-01 2014-04-21 Fujitsu Ltd 電子機器及び処理制御方法
US10158391B2 (en) 2012-10-15 2018-12-18 Qualcomm Incorporated Wireless area network enabled mobile device accessory
JP2014087126A (ja) 2012-10-22 2014-05-12 Sharp Corp 電力管理装置、電力管理装置の制御方法および電力管理装置の制御プログラム
US9948589B2 (en) * 2012-11-14 2018-04-17 invi Labs, Inc. System for and method of organizing contacts for chat sessions on an electronic device
US9628424B2 (en) 2012-11-15 2017-04-18 Samsung Electronics Co., Ltd. Apparatus and method for sharing time-sensitive data between devices with intermittent connectivity
CN104871095B (zh) 2012-11-28 2018-10-12 蒙特雷斯拉多股份有限公司 便携式触摸电子物体
JP6075055B2 (ja) 2012-12-20 2017-02-08 カシオ計算機株式会社 表示端末装置、情報表示システム、情報表示制御方法、及び、プログラム
JP5796789B2 (ja) 2012-12-20 2015-10-21 カシオ計算機株式会社 情報処理システムにおける無線端末、無線端末による携帯情報端末の起動方法
KR101958517B1 (ko) 2012-12-29 2019-03-14 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US20140189533A1 (en) 2012-12-30 2014-07-03 Avaya Inc. Dynamic notification system and method
US20140213295A1 (en) 2013-01-30 2014-07-31 Whoozat Inc. Systems and methods for location-based group tracking and notifications
CN103199311B (zh) 2013-02-05 2015-08-12 北京奇虎科技有限公司 便携式电子产品的电池省电方法、设备及移动终端
JP2014165663A (ja) 2013-02-25 2014-09-08 Kyocera Corp 携帯端末装置、プログラムおよび携帯端末装置の制御方法
JP5963695B2 (ja) 2013-03-01 2016-08-03 株式会社J−WAVEi メッセージ送信プログラム、メッセージ送信装置、及びメッセージ配信システム
US20140279728A1 (en) 2013-03-15 2014-09-18 Gary Skole System and Method for Caring for a Person Afflicted with Dementia
US9200915B2 (en) 2013-06-08 2015-12-01 Apple Inc. Mapping application with several user interfaces
US20140282005A1 (en) 2013-03-15 2014-09-18 Howard Gutowitz Apparatus for message triage
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
CN103207674B (zh) * 2013-03-21 2016-06-22 苏州展科光电科技有限公司 基于体感技术的电子演示系统
KR102171444B1 (ko) 2013-04-22 2020-10-29 엘지전자 주식회사 스마트 워치 및 제어 방법
EP2994822A4 (de) 2013-05-09 2016-12-07 Amazon Tech Inc Schnittstellen für mobile vorrichtungen
US9075612B2 (en) 2013-05-10 2015-07-07 Jinrong Yang System and method for managing display power consumption
US9300617B2 (en) 2013-05-17 2016-03-29 Blackberry Limited Method and device for graphical indicator of electronic messages
US10078372B2 (en) * 2013-05-28 2018-09-18 Blackberry Limited Performing an action associated with a motion based input
US20140365944A1 (en) 2013-06-09 2014-12-11 Apple Inc. Location-Based Application Recommendations
EP3038427B1 (de) 2013-06-18 2019-12-11 Samsung Electronics Co., Ltd. Benutzerendgerätevorrichtung und verwaltungsverfahren eines heimnetzwerks dafür
WO2014209329A1 (en) 2013-06-27 2014-12-31 Hewlett-Packard Development Company, L.P. Device for displaying electronic communications received from communications services
US9338116B2 (en) 2013-06-28 2016-05-10 Blackberry Limited Device and method for displaying and interacting with display objects
KR101474467B1 (ko) 2013-07-09 2014-12-19 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN103440247A (zh) * 2013-07-19 2013-12-11 张佳佩 发送照片的方法及其设备
US9419935B2 (en) 2013-08-02 2016-08-16 Whatsapp Inc. Voice communications with real-time status notifications
KR102047703B1 (ko) 2013-08-09 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US8914752B1 (en) 2013-08-22 2014-12-16 Snapchat, Inc. Apparatus and method for accelerated display of ephemeral messages
US9100944B2 (en) 2013-08-28 2015-08-04 Qualcomm Incorporated Wireless connecting mobile devices and wearable devices
KR102194795B1 (ko) 2013-08-29 2020-12-23 삼성전자주식회사 전력 제어를 위한 전자 장치 및 방법
CN203520050U (zh) 2013-09-09 2014-04-02 李晓 具有超级电容的智能手表
WO2015038684A1 (en) 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
US9959431B2 (en) 2013-09-16 2018-05-01 Google Technology Holdings LLC Method and apparatus for displaying potentially private information
CN103500079A (zh) 2013-09-17 2014-01-08 小米科技有限责任公司 通知消息显示方法、装置及电子设备
CN103576902A (zh) 2013-09-18 2014-02-12 酷派软件技术(深圳)有限公司 控制终端设备的方法及系统
US9727752B2 (en) 2013-09-25 2017-08-08 Kairos Social Solutions, Inc. Device, system, and method of identifying a specific user from a profile image containing multiple people
CN103473004A (zh) 2013-09-29 2013-12-25 小米科技有限责任公司 一种显示消息的方法、装置及终端设备
US9977591B2 (en) 2013-10-01 2018-05-22 Ambient Consulting, LLC Image with audio conversation system and method
US20150100537A1 (en) 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US9230486B2 (en) 2013-10-10 2016-01-05 Google Technology Holdings LLC Method and apparatus for displaying content on a display of an electronic device during different device operating modes
KR102125834B1 (ko) 2013-11-29 2020-06-23 삼성전자주식회사 모바일 단말기 및 그의 전력 관리 방법
CN103677520B (zh) 2013-12-04 2017-07-21 深圳市朗强科技有限公司 基于Android平台的应用程序评论方法及装置
KR102114616B1 (ko) 2013-12-06 2020-05-25 엘지전자 주식회사 스마트 와치 및 제어 방법
US9785794B2 (en) * 2013-12-12 2017-10-10 Citrix Systems, Inc. Securing sensitive data on a mobile device
US9563328B2 (en) 2013-12-23 2017-02-07 Microsoft Technology Licensing, Llc Information surfacing with visual cues indicative of relevance
US10033679B2 (en) 2013-12-31 2018-07-24 Google Llc Systems and methods for displaying unseen labels in a clustering in-box environment
JP6644466B2 (ja) 2013-12-31 2020-02-12 イマージョン コーポレーションImmersion Corporation 触覚通知を提供するシステム及び方法
US20150193196A1 (en) 2014-01-06 2015-07-09 Alpine Electronics of Silicon Valley, Inc. Intensity-based music analysis, organization, and user interface for audio reproduction devices
KR102277752B1 (ko) 2014-01-06 2021-07-16 삼성전자주식회사 웨어러블 기기를 이용한 홈 디바이스 제어 장치 및 제어 방법
US8811951B1 (en) 2014-01-07 2014-08-19 Google Inc. Managing display of private information
KR102218906B1 (ko) * 2014-01-17 2021-02-23 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN104811423B (zh) 2014-01-24 2019-03-01 腾讯科技(深圳)有限公司 位置信息的共享方法和装置
US10013601B2 (en) 2014-02-05 2018-07-03 Facebook, Inc. Ideograms for captured expressions
US20150227245A1 (en) 2014-02-10 2015-08-13 Polyera Corporation Attachable Device with Flexible Electronic Display Orientation Detection
US9483529B1 (en) 2014-02-14 2016-11-01 Twitter, Inc. Selection and presentation of unviewed messages
CN103793075B (zh) 2014-02-14 2017-02-15 北京君正集成电路股份有限公司 一种应用在智能手表上的识别方法
US9031812B2 (en) 2014-02-27 2015-05-12 Fitbit, Inc. Notifications on a user device based on activity detected by an activity monitoring device
US9772985B2 (en) 2014-02-28 2017-09-26 Microsoft Technology Licensing, Llc Communications control for resource constrained devices
CN103838992B (zh) 2014-03-03 2017-07-14 宇龙计算机通信科技(深圳)有限公司 一种指纹识别方法及终端
US9888207B2 (en) 2014-03-17 2018-02-06 Microsoft Technology Licensing, Llc Automatic camera selection
US20150264303A1 (en) * 2014-03-17 2015-09-17 Microsoft Corporation Stop Recording and Send Using a Single Action
CN104123333B (zh) 2014-03-17 2017-02-15 腾讯科技(深圳)有限公司 用于位置共享的数据处理方法和装置
US9722962B2 (en) 2014-03-21 2017-08-01 Facebook, Inc. Providing message status notifications during electronic messaging
EP3126945A4 (de) 2014-04-04 2017-05-10 Microsoft Technology Licensing, LLC Expandierbare anwendungsdarstellung und taskleiste
US20150286391A1 (en) 2014-04-08 2015-10-08 Olio Devices, Inc. System and method for smart watch navigation
US10444715B2 (en) 2014-05-01 2019-10-15 Belkin International, Inc. Controlling settings and attributes related to operation of devices in a network
US20150301506A1 (en) 2014-04-22 2015-10-22 Fahad Koumaiha Transparent capacitive touchscreen device overlying a mechanical component
US9213941B2 (en) 2014-04-22 2015-12-15 Google Inc. Automatic actions based on contextual replies
CN105005457B (zh) 2014-04-25 2019-04-09 腾讯科技(深圳)有限公司 地理位置展示方法及装置
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
GB201408408D0 (en) * 2014-05-12 2014-06-25 Tomlinson Martin Method and apparatus for time limited messages in packet communications
KR102105961B1 (ko) * 2014-05-13 2020-05-28 엘지전자 주식회사 이동단말기 및 그 제어방법
CN103944811B (zh) 2014-05-15 2018-09-21 广州博冠信息科技有限公司 一种邮件提示方法和设备
US9614804B2 (en) 2014-05-16 2017-04-04 Dropbox, Inc. Managing messages based on expiration dates
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
WO2015183756A1 (en) 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9207835B1 (en) 2014-05-31 2015-12-08 Apple Inc. Message user interfaces for capture and transmittal of media and location content
AU2015280062A1 (en) 2014-06-24 2016-10-13 Apple Inc. Music now playing user interface
EP3410253A1 (de) 2014-07-31 2018-12-05 Samsung Electronics Co., Ltd. Mobiles kommunikationsgerät zur gleichzeitigen nutzung mehrerer tragbarer geräte
US20160036996A1 (en) 2014-08-02 2016-02-04 Sony Corporation Electronic device with static electric field sensor and related method
WO2016022496A2 (en) 2014-08-06 2016-02-11 Apple Inc. Reduced-size user interfaces for battery management
US9860200B1 (en) 2014-08-27 2018-01-02 Google Llc Message suggestions
WO2016036415A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic message user interface
WO2016036546A2 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced-size notification interface
JP6349030B2 (ja) 2014-09-02 2018-06-27 アップル インコーポレイテッド アラートを管理するための小型インターフェース
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
US20160073223A1 (en) 2014-09-10 2016-03-10 Microsoft Corporation Real-time location sharing to facilitate a physical meet-up
US20170097621A1 (en) 2014-09-10 2017-04-06 Crestron Electronics, Inc. Configuring a control sysem
US20160080552A1 (en) * 2014-09-17 2016-03-17 Qualcomm Incorporated Methods and systems for user feature tracking on a mobile device
US20160088146A1 (en) * 2014-09-23 2016-03-24 Mcafee, Inc. Device lock while in motion
KR102256642B1 (ko) 2014-12-04 2021-05-27 삼성전자주식회사 메시지 송수신 장치 및 메시지 송수신 방법
US9954991B2 (en) 2014-12-31 2018-04-24 Xiaomi Inc. Status notification method and device
US10116601B2 (en) 2015-02-06 2018-10-30 Jamdeo Canada Ltd. Methods and devices for display device notifications
US10080111B2 (en) 2015-03-19 2018-09-18 Facebook, Inc. Techniques for communication using audio stickers
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US11113022B2 (en) 2015-05-12 2021-09-07 D&M Holdings, Inc. Method, system and interface for controlling a subwoofer in a networked audio system
DK179360B1 (en) 2015-06-07 2018-05-22 Apple Inc Devices, methods and graphical user interfaces for providing and interacting with notifications
US9661117B2 (en) 2015-07-16 2017-05-23 Plantronics, Inc. Wearable devices for headset status and control
US10827589B2 (en) 2015-07-30 2020-11-03 Brightgreen Pty Ltd Multiple input touch dimmer lighting control
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
US10334002B2 (en) 2015-09-23 2019-06-25 Edoardo Rizzi Communication device and method
US10353754B2 (en) 2015-12-31 2019-07-16 Entefy Inc. Application program interface analyzer for a universal interaction platform
KR102383130B1 (ko) 2016-01-18 2022-04-08 삼성전자주식회사 기능을 제어하는 방법 및 이를 지원하는 전자 장치
DK179925B1 (en) 2016-06-12 2019-10-09 Apple Inc. USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES
US10310725B2 (en) 2016-06-12 2019-06-04 Apple Inc. Generating scenes based on accessory state
US10511456B2 (en) 2016-06-12 2019-12-17 Apple Inc. Presenting accessory group controls
JP6909990B2 (ja) 2016-07-06 2021-07-28 パナソニックIpマネジメント株式会社 表示制御システム、表示制御方法、及び表示制御プログラム
US10042595B2 (en) 2016-09-06 2018-08-07 Apple Inc. Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
KR20180085931A (ko) 2017-01-20 2018-07-30 삼성전자주식회사 음성 입력 처리 방법 및 이를 지원하는 전자 장치
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
KR102414122B1 (ko) 2017-04-19 2022-06-29 삼성전자주식회사 사용자 발화를 처리하는 전자 장치 및 그 동작 방법
US10200969B2 (en) 2017-05-09 2019-02-05 Qualcomm Incorporated Methods and apparatus for selectively providing alerts to paired devices
US10481856B2 (en) * 2017-05-15 2019-11-19 Microsoft Technology Licensing, Llc Volume adjustment on hinged multi-screen device
WO2018213401A1 (en) 2017-05-16 2018-11-22 Apple Inc. Methods and interfaces for home media control
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
KR102477489B1 (ko) 2017-05-16 2022-12-13 애플 인크. 디지털 어시스턴트 서비스의 원거리 확장
WO2018213844A1 (en) 2017-05-19 2018-11-22 Six Curtis Wayne Smart hub system
CN111052868B (zh) 2017-06-15 2022-08-30 路创技术有限责任公司 与负载控制系统通信以及控制负载控制系统
US10771270B2 (en) 2017-07-20 2020-09-08 Slack Technologies, Inc. Channeling messaging communications in a selected group-based communication interface
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
KR102490376B1 (ko) 2017-11-06 2023-01-25 삼성전자 주식회사 전자 장치 및 전자 장치 간 음성으로 기능을 실행하는 방법
US20190138951A1 (en) 2017-11-09 2019-05-09 Facebook, Inc. Systems and methods for generating multi-contributor content posts for events
KR20190102509A (ko) 2018-02-26 2019-09-04 삼성전자주식회사 음성 명령을 수행하는 방법 및 시스템
EP3783867A1 (de) 2018-05-07 2021-02-24 Google LLC Bereitstellung von zusammengesetzten grafischen assistentenoberflächen zur steuerung verschiedener angeschlossener geräte
US10924446B1 (en) 2018-10-08 2021-02-16 Facebook, Inc. Digital story reply container
US20200135191A1 (en) 2018-10-30 2020-04-30 Bby Solutions, Inc. Digital Voice Butler
US10885912B2 (en) 2018-11-13 2021-01-05 Motorola Solutions, Inc. Methods and systems for providing a corrected voice command
KR20200111853A (ko) 2019-03-19 2020-10-05 삼성전자주식회사 전자 장치 및 전자 장치의 음성 인식 제어 방법
CN111817943B (zh) 2019-04-12 2022-06-14 腾讯科技(深圳)有限公司 一种基于即时通讯应用的数据处理方法和装置
US20210065134A1 (en) 2019-08-30 2021-03-04 Microsoft Technology Licensing, Llc Intelligent notification system
US20210064317A1 (en) 2019-08-30 2021-03-04 Sony Interactive Entertainment Inc. Operational mode-based settings for presenting notifications on a user display
US11172329B2 (en) 2019-09-27 2021-11-09 Sonos, Inc. Systems and methods for target device prediction
US11152011B2 (en) 2019-11-27 2021-10-19 Summit Wireless Technologies, Inc. Voice detection with multi-channel interference cancellation
US10963145B1 (en) 2019-12-30 2021-03-30 Snap Inc. Prioritizing display of user icons associated with content
US11745585B2 (en) 2020-04-20 2023-09-05 Thinkware Corporation Vehicle infotainment apparatus using widget and operation method thereof
US20210349680A1 (en) 2020-05-11 2021-11-11 Apple Inc. User interface for audio message
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11a
IEEE 802.11ac
IEEE 802.11b
IEEE 802.11g
IEEE 802.11n

Also Published As

Publication number Publication date
HK1216555A1 (zh) 2016-11-18
JP2019146184A (ja) 2019-08-29
US9185062B1 (en) 2015-11-10
CN106575149B (zh) 2021-10-12
CN107122049A (zh) 2017-09-01
AU2015100713A4 (en) 2015-06-25
CN106575149A (zh) 2017-04-19
DE202015009347U1 (de) 2017-03-10
CN105183443A (zh) 2015-12-23
JP2021064374A (ja) 2021-04-22
US11513661B2 (en) 2022-11-29
EP3108422A1 (de) 2016-12-28
AU2016102029B4 (en) 2017-06-15
DE202015003916U1 (de) 2015-10-08
US20230079965A1 (en) 2023-03-16
DE202015003860U1 (de) 2015-10-09
AU2015267259A1 (en) 2016-10-06
US9207835B1 (en) 2015-12-08
AU2021202815A1 (en) 2021-05-27
CN105183442B (zh) 2019-03-08
AU2018203215B2 (en) 2019-12-05
US20150350141A1 (en) 2015-12-03
JP6554570B2 (ja) 2019-07-31
US20160054841A1 (en) 2016-02-25
JP6734419B2 (ja) 2020-08-05
JP2017529008A (ja) 2017-09-28
AU2020201575B2 (en) 2021-03-25
US10416844B2 (en) 2019-09-17
JP2018125001A (ja) 2018-08-09
JP2020205588A (ja) 2020-12-24
AU2016102029A4 (en) 2016-12-22
AU2015267260A1 (en) 2016-10-06
AU2016102028B4 (en) 2017-07-27
CN204946542U (zh) 2016-01-06
CN105183442A (zh) 2015-12-23
AU2020201575A1 (en) 2020-03-19
AU2015267260B2 (en) 2018-02-08
US10592072B2 (en) 2020-03-17
US11775145B2 (en) 2023-10-03
US20170083189A1 (en) 2017-03-23
JP6286615B2 (ja) 2018-02-28
JP2022008989A (ja) 2022-01-14
US20150350130A1 (en) 2015-12-03
US20170220212A1 (en) 2017-08-03
AU2016102028A4 (en) 2016-12-22
CN107122049B (zh) 2021-07-13
AU2015100711A4 (en) 2015-06-25
EP3217341A1 (de) 2017-09-13
US20150346912A1 (en) 2015-12-03
CN113485550A (zh) 2021-10-08
AU2015267259B2 (en) 2018-02-08
JP6793868B1 (ja) 2020-12-02
EP3108423A1 (de) 2016-12-28
US20200348807A1 (en) 2020-11-05
CN205263700U (zh) 2016-05-25
HK1216556A1 (zh) 2016-11-18
JP2017521804A (ja) 2017-08-03
JP6960034B2 (ja) 2021-11-05
US20170083202A1 (en) 2017-03-23
US10732795B2 (en) 2020-08-04
US20230393705A1 (en) 2023-12-07
CN105183443B (zh) 2019-03-22
JP7299954B2 (ja) 2023-06-28
AU2018203215A1 (en) 2018-05-31
CN113485551A (zh) 2021-10-08
AU2015100711B4 (en) 2016-01-14
JP6500093B2 (ja) 2019-04-10
AU2015100713B4 (en) 2015-07-30
US10564807B2 (en) 2020-02-18
AU2021202815B2 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
DE202015009346U1 (de) Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE112016000085B4 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
US11671697B2 (en) User interfaces for wide angle video conference
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE202015005999U1 (de) Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
DE202015006141U1 (de) Elektronische Touch-Kommunikation
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE112015004021T5 (de) Elektronische touch-kommunikation
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE112020002566T5 (de) Benutzerschnittstellen zur zyklusverfolgung
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE112013002387T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
DE202016001214U1 (de) Benutzerschnittstelle für Zahlungen
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
DE202014004554U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
DE202014004549U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
US20230262317A1 (en) User interfaces for wide angle video conference
DE202008000259U1 (de) Tragbare Multifunktionseinrichtung
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years