DE202016002529U1 - Vorrichtungen zum Einfangen von und Interagieren mit erweiterten digitalen Bildern - Google Patents

Vorrichtungen zum Einfangen von und Interagieren mit erweiterten digitalen Bildern Download PDF

Info

Publication number
DE202016002529U1
DE202016002529U1 DE202016002529.6U DE202016002529U DE202016002529U1 DE 202016002529 U1 DE202016002529 U1 DE 202016002529U1 DE 202016002529 U DE202016002529 U DE 202016002529U DE 202016002529 U1 DE202016002529 U1 DE 202016002529U1
Authority
DE
Germany
Prior art keywords
images
sequence
time
activation
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202016002529.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202016002529U1 publication Critical patent/DE202016002529U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2125Display of information relating to the still picture recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2137Intermediate information storage for one or a few pictures using still video cameras with temporary storage before final recording, e.g. in a frame buffer
    • H04N1/2141Intermediate information storage for one or a few pictures using still video cameras with temporary storage before final recording, e.g. in a frame buffer in a multi-frame buffer
    • H04N1/2145Intermediate information storage for one or a few pictures using still video cameras with temporary storage before final recording, e.g. in a frame buffer in a multi-frame buffer of a sequence of images for selection of a single frame before final recording, e.g. from a continuous sequence captured before and after shutter-release
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Telephone Function (AREA)
  • Cameras In General (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Facsimiles In General (AREA)

Abstract

Elektronische Vorrichtung, aufweisend: eine Anzeige; eine Kamera; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, das eine oder die mehreren Programme Anweisungen beinhaltend zum: während sich die Kamera in einem ersten Medienerfassungsmodus befindet: Anzeigen einer Live-Vorschau auf der Anzeige; während des Anzeigens der Live-Vorschau, Erkennen einer Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt; und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Gruppieren von mehreren Bildern, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, in eine erste Folge von Bildern, wobei die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.

Description

  • TECHNISCHES GEBIET
  • Dies betrifft allgemein elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, einschließlich elektronischer Vorrichtungen mit berührungsempfindlichen Oberflächen, die von Kameras aufgenommene oder aufgezeichnete digitale Inhalte einfangen, anzeigen und/oder anderweitig manipulieren, ohne darauf beschränkt zu sein.
  • HINTERGRUND
  • Die Verwendung von elektronischen Vorrichtungen zum Einfangen, Ansehen, Bearbeiten und Teilen von digitalen Inhalten hat in den letzten Jahren beträchtlich zugenommen. Benutzer zeichnen digitale Inhalte (z. B. Bilder und/oder Videos) häufig mit ihren tragbaren elektronischen Vorrichtungen (z. B. Smartphones, Tablets und speziell dafür vorgesehenen Digitalkameras) auf; betrachten und bearbeiten ihre digitalen Inhalte in Bildverwaltungsanwendungen (z. B. Photos von Apple Inc. aus Cupertino, Kalifornien) und/oder digitalen Inhaltsverwaltungsanwendungen (z. B. iTunes von Apple Inc. aus Cupertino, Kalifornien); und teilen ihre digitalen Inhalte mit anderen über Sofortnachrichten, E-Mail, soziale Medienanwendungen und andere Kommunikationsanwendungen.
  • Tragbare elektronische Vorrichtungen fangen üblicherweise zwei Typen von digitalen Inhalten ein: Standbilder und Video. Ein Standbild wird üblicherweise durch das einfache Drücken eines Auslöseknopfes eingefangen. Das Standbild friert einen Zeitpunkt ein, aber Einzelheiten des Moments um diesen Zeitpunkt herum gehen verloren. Videos zeichnen längere Zeitspannen auf, die möglicherweise sowohl interessante Momente als auch nicht so interessante Momente beinhalten können. Üblicherweise wird eine erhebliche Bearbeitung benötigt, um die weniger interessanten Momente zu entfernen.
  • KURZDARSTELLUNG
  • Entsprechend gibt es einen Bedarf an elektronischen Vorrichtungen mit verbesserten Verfahren und Schnittstellen zum Einfangen von und Interagieren mit Momenten, die von Kameras aufgenommen oder aufgezeichnet wurden. Derartige Verfahren und Schnittstellen ergänzen oder ersetzen optional herkömmliche Verfahren zum Einfangen von und Interagieren mit Standbildern und Video.
  • Die offenbarten Vorrichtungen erweitern die Fotografie über das Standbild hinaus durch Bereitstellen von neuen und verbesserten Verfahren zum Einfangen von und Interagieren mit Momenten. In einigen Ausführungsformen handelt es sich bei der Vorrichtung um einen Desktop-Computer. In einigen Ausführungsformen ist die Vorrichtung tragbar (z. B. ein Notebook-Computer, ein Tablet-Computer oder eine Handheld-Vorrichtung). In einigen Ausführungsformen handelt es sich bei der Vorrichtung um eine persönliche elektronische Vorrichtung (z. B. eine tragbare elektronische Vorrichtung wie zum Beispiel eine Uhr). In einigen Ausführungsformen weist die Vorrichtung ein Touchpad auf. In einigen Ausführungsformen weist die Vorrichtung eine berührungsempfindliche Anzeige auf (auch als „Touchscreen” oder „Touchscreen-Anzeige” bekannt). In einigen Ausführungsformen weist die Vorrichtung eine grafische Benutzerschnittstelle (GUI, graphical user interface), einen oder mehrere Prozessoren, einen Speicher und ein oder mehrere Module, Programme oder Sätze von Anweisungen auf, die in dem Speicher gespeichert sind, um mehrere Funktionen durchzuführen. In einigen Ausführungsformen interagiert der Benutzer mit der GUI hauptsächlich durch Eingabestift- und/oder Fingerkontakt und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen beinhalten die Funktionen optional Bildbearbeitung, Zeichnung, Präsentation, Textverarbeitung, Tabellenkalkulation, Spielen, Telefonieren, Videokonferenzführung, E-Mailen, Instant Messaging, Trainingsunterstützung, Digitalfotografie, Digitalvideoaufzeichnung, Web-Browsen, Abspielen von digitaler Musik, Notieren von Informationen und/oder Abspielen von digitalem Video. Ausführbare Anweisungen zum Durchführen dieser Funktionen sind optional in einem durch einen Computer lesbaren Speichermedium oder einem anderen Computerprogrammprodukt beinhaltet, das zur Ausführung durch einen oder mehrere Prozessoren konfiguriert ist.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer Kamera durchgeführt. Das Verfahren beinhaltet das Anzeigen einer Live-Vorschau auf der Anzeige, während sich die Kamera in einem ersten Medienerfassungsmodus befindet. Das Verfahren beinhaltet darüber hinaus während des Anzeigens der Live-Vorschau das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt das Gruppieren von mehreren von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfassten Bildern in eine erste Folge von Bildern. Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Anzeigen eines stellvertretenden Bildes auf der Anzeige. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet auch ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet während des Anzeigens des stellvertretenden Bildes auf der Anzeige das Erkennen eines ersten Teils einer ersten Eingabe und als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe das Ersetzen des Anzeigens des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus nach dem Erkennen des ersten Teils der ersten Eingabe das Erkennen eines zweiten Teils der ersten Eingabe und als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe das Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, des stellvertretenden Bildes und des oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Anzeigen eines stellvertretenden Bildes auf der Anzeige. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus das Erkennen eines ersten Teils einer ersten Eingabe während des Anzeigens des stellvertretenden Bildes auf der Anzeige. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe das Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen eines jeweiligen vorhergehenden Bildes in der Folge von Bildern, wobei das jeweilige vorhergehende Bild von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurde. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe nach dem Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach, beginnend mit dem jeweiligen vorhergehenden Bild.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Anzeigen eines stellvertretenden Bildes auf der Anzeige. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus während des Anzeigens des stellvertretenden Bildes auf der Anzeige das Erkennen einer ersten Eingabe, was das Erkennen einer Erhöhung einer charakteristischen Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche auf eine erste Intensität beinhaltet, die größer ist als eine erste Intensitätsschwelle. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen des Erhöhens der charakteristischen Intensität des Kontakts das Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in einer ersten Richtung mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der ersten Intensität bestimmt wird. Das Verfahren beinhaltet darüber hinaus nach dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, mit der Geschwindigkeit, die auf Grundlage der ersten Intensität bestimmt wird, das Erkennen eines Verringerns der Intensität des Kontakts auf eine zweite Intensität, die geringer ist als die erste Intensität. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen des Verringerns der charakteristischen Intensität des Kontakts auf die zweite Intensität infolge eines Feststellens, dass die zweite Intensität über der ersten Intensitätsschwelle liegt, das Fortfahren mit dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in der ersten Richtung mit einer zweiten Geschwindigkeit. Die zweite Geschwindigkeit wird zumindest teilweise auf Grundlage der zweiten Intensität bestimmt, und die zweite Geschwindigkeit ist langsamer als die erste Geschwindigkeit. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen des Verringerns der charakteristischen Intensität des Kontakts auf die zweite Intensität infolge eines Feststellens, dass die zweite Intensität unter der ersten Intensitätsschwelle liegt, das Durchlaufen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in einer zweiten Richtung, die entgegengesetzt zur ersten Richtung ist, mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der zweiten Intensität bestimmt wird.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Speichern mehrerer Folgen von Bildern. Eine jeweilige Folge von Bildern beinhaltet ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus das Anzeigen eines ersten stellvertretenden Bildes für eine erste Folge von Bildern in einem beweglichen ersten Bereich auf der Anzeige. Das Verfahren beinhaltet darüber hinaus das Erkennen einer Ziehgeste auf der berührungsempfindlichen Oberfläche. Das Verfahren beinhaltet darüber hinaus infolge eines Feststellens, dass die Ziehgeste in einer ersten Richtung auf der berührungsempfindlichen Oberfläche verläuft: das Ersetzen des Anzeigens des ersten stellvertretenden Bildes für die erste Folge von Bildern in dem beweglichen ersten Bereich durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes für die erste Folge von Bildern erfasst wurden, in chronologischer Reihenfolge. Das Verfahren beinhaltet darüber hinaus das Bewegen des ersten Bereichs in die erste Richtung.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Speichern mehrerer Folgen von Bildern. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus das Anzeigen eines ersten stellvertretenden Bildes für eine erste Folge von Bildern in einem beweglichen ersten Bereich auf der Anzeige. Das Verfahren beinhaltet darüber hinaus das Erkennen einer Geste auf der berührungsempfindlichen Oberfläche, wobei die Geste eine Bewegung durch einen Kontakt beinhaltet, die der Bewegung in einer ersten Richtung auf der Anzeige entspricht. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der Geste auf der berührungsempfindlichen Oberfläche: das Bewegen des ersten Bereichs in die erste Richtung auf der Anzeige; das Bewegen eines beweglichen zweiten Bereichs in die erste Richtung auf der Anzeige; und infolge eines Feststellens, dass Folge-Anzeigen-Kriterien erfüllt werden, während der zweite Bereich in die erste Richtung bewegt wird, das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für eine zweite Folge von Bildern, die von der Kamera vor dem Erfassen eines zweiten stellvertretenden Bildes für die zweite Folge von Bildern erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Speichern mehrerer Folgen von Bildern. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus das Speichern mehrerer Bilder, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden. Ein jeweiliges Bild von den mehreren Bildern ist nicht Teil einer Folge von Bildern in den mehreren Folgen von Bildern. Das Verfahren beinhaltet darüber hinaus das Anzeigen eines ersten Bildes auf der Anzeige und während des Anzeigens des ersten Bildes auf der Anzeige das Erkennen einer ersten Eingabe. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der ersten Eingabe: Infolge eines Feststellens, dass das erste Bild ein Bild in einer ersten Folge von Bildern ist, das Durchführen einer ersten Operation, die das Anzeigen von zumindest einigen der Bilder in der ersten Folge von Bildern neben dem ersten Bild beinhaltet. Das Verfahren beinhaltet darüber hinaus infolge eines Feststellens, dass das erste Bild ein Bild von den mehreren Bildern ist, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden, das Durchführen einer zweiten Operation, die sich von der ersten Operation unterscheidet und das erste Bild einbezieht.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Anzeigen eines stellvertretenden Bildes auf der Anzeige. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus während des Anzeigens des stellvertretenden Bildes auf der Anzeige das Erkennen einer Eingabe zum Abändern des stellvertretenden Bildes. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der Eingabe zum Abändern des stellvertretenden Bildes: Infolge eines Feststellens, dass sich die Vorrichtung in einem ersten Bearbeitungsmodus befindet, das Abändern des stellvertretenden Bildes, des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden; und infolge eines Feststellens, dass sich die Vorrichtung in einem zweiten Bearbeitungsmodus befindet, der sich von dem ersten Bearbeitungsmodus unterscheidet, das Abändern des stellvertretenden Bildes ohne Abändern des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und ohne Abändern des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer ersten elektronischen Vorrichtung mit einer Anzeige durchgeführt. Das Verfahren beinhaltet das Anzeigen eines stellvertretenden Bildes auf der Anzeige in einer Benutzerschnittstelle einer Anwendung, die so konfiguriert ist, dass sie mit anderen elektronischen Vorrichtungen kommunizieren kann. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus während des Anzeigens des stellvertretenden Bildes auf der Anzeige das Erkennen einer Eingabe, die einer Anforderung zum Senden des stellvertretenden Bildes oder einer Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an eine zweite elektronische Vorrichtung, die sich entfernt von der ersten elektronischen Vorrichtung befindet, unter Verwendung der Anwendung entspricht. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Senden des stellvertretenden Bildes oder der Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an die zweite elektronische Vorrichtung entspricht: Infolge eines Feststellens, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, das Anzeigen eines ersten Satzes von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung; und infolge eines Feststellens, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, das Anzeigen eines zweiten Satzes von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung, wobei sich der zweite Satz von Optionen von dem ersten Satz von Optionen unterscheidet.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer Kamera durchgeführt. Das Verfahren beinhaltet das Anzeigen einer Live-Vorschau einer Szene auf der Anzeige und das Durchführen einer Szenenerkennung für die Szene, während sich die Kamera in einem ersten Medienerfassungsmodus befindet. Das Verfahren beinhaltet darüber hinaus das Erkennen einer einzelnen Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt während des Anzeigens der Live-Vorschau der Szene. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der einzelnen Aktivierung des Auslöseknopfes zum ersten Zeitpunkt, infolge eines zumindest teilweise auf der für die Szene durchgeführten Szenenerkennung beruhenden Feststellens, dass die Szene Kriterien zum Einfangen einer Aktion erfüllt, das Behalten von mehreren Bildern, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, und das Gruppieren der mehreren Bilder in eine erste Folge von Bildern. Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der einzelnen Aktivierung des Auslöseknopfes zum ersten Zeitpunkt, infolge eines Feststellens, dass die Szene die Kriterien zum Einfangen einer Aktion nicht erfüllt, das Behalten eines Einzelbildes, das sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt befindet.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren beinhaltet das Anzeigen eines Bildes auf der Anzeige. Bei dem Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein stellvertretendes Bild. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Das Verfahren beinhaltet darüber hinaus das Erkennen einer ersten Eingabe während des Anzeigens des Bildes in der Folge von Bildern auf der Anzeige. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der ersten Eingabe: das Anzeigen einer Benutzerschnittstelle zum Kürzen der Folge von Bildern auf eine geringere Teilmenge der Folge von Bildern. Die Benutzerschnittstelle beinhaltet: einen Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält; ein durch einen Benutzer einstellbares Kürzen-anfangen-Symbol, das ein Startbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-anfangen-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt; und ein durch einen Benutzer einstellbares Kürzen-beenden-Symbol, das ein Endbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-beenden-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt. Das Kürzen-anfangen-Symbol befindet sich an einer ersten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. Das Kürzen-beenden-Symbol befindet sich an einer zweiten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. Das Verfahren beinhaltet darüber hinaus während des Anzeigens der Benutzerschnittstelle zum Kürzen der Folge von Bildern das Erkennen einer zweiten Eingabe. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen einer zweiten Eingabe das Kürzen der Folge von Bildern auf die Teilmenge der Folge von Bildern in Übereinstimmung mit einer aktuellen Position des Kürzen-anfangen-Symbols und einer aktuellen Position des Kürzen-beenden-Symbols.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie eine Live-Vorschau anzeigt, eine Kameraeinheit, die so konfiguriert ist, dass sie Bilder erfasst, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der Kameraeinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie die Live-Vorschau auf der Anzeigeeinheit anzeigt, während sich die Kameraeinheit in einem ersten Medienerfassungsmodus befindet. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Anzeigens der Live-Vorschau die Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erkennt und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt mehrere von der Kameraeinheit in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasste Bilder in eine erste Folge von Bildern gruppiert. Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kameraeinheit vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kameraeinheit nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kameraeinheit nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächeneinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie ein stellvertretendes Bild auf der Anzeigeeinheit anzeigt. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit einen ersten Teil einer ersten Eingabe erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe das Anzeigen des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach auf der Anzeigeeinheit ersetzt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie nach dem Erkennen des ersten Teils der ersten Eingabe einen zweiten Teil der ersten Eingabe erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild und das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach auf der Anzeigeeinheit anzeigt.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächeneinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit einen ersten Teil einer ersten Eingabe erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe: vom Anzeigen des stellvertretenden Bildes zum Anzeigen eines jeweiligen vorhergehenden Bildes in der Folge von Bildern übergeht, wobei das jeweilige vorhergehende Bild von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurde; und nach dem Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach, beginnend mit dem jeweiligen vorhergehenden Bild, ermöglicht.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, eine oder mehrere Sensoreinheiten, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit erkennen, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindlichen Oberflächeneinheit und der einen oder den mehreren Sensoreinheiten verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit eine erste Eingabe erkennt, was das Erkennen einer Erhöhung einer charakteristischen Intensität eines Kontakts auf der berührungsempfindlichen Oberflächeneinheit auf eine erste Intensität beinhaltet, die größer ist als eine erste Intensitätsschwelle. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des Erhöhens der charakteristischen Intensität des Kontakts durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in einer ersten Richtung mit einer Geschwindigkeit weiterschaltet, die zumindest teilweise auf Grundlage der ersten Intensität bestimmt wird. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie nach dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, mit der Geschwindigkeit, die auf Grundlage der ersten Intensität bestimmt wird, ein Verringern der Intensität des Kontakts auf eine zweite Intensität erkennt, die geringer ist als die erste Intensität. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des Verringerns der charakteristischen Intensität des Kontakts auf die zweite Intensität: infolge eines Feststellens, dass die zweite Intensität über der ersten Intensitätsschwelle liegt, mit dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in der ersten Richtung mit einer zweiten Geschwindigkeit fortfährt. Die zweite Geschwindigkeit wird zumindest teilweise auf Grundlage der zweiten Intensität bestimmt, und die zweite Geschwindigkeit ist langsamer als die erste Geschwindigkeit. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des Verringerns der charakteristischen Intensität des Kontakts auf die zweite Intensität infolge eines Feststellens, dass die zweite Intensität unter der ersten Intensitätsschwelle liegt, durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in einer zweiten Richtung läuft, die entgegengesetzt zur ersten Richtung ist, mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der zweiten Intensität bestimmt wird.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, eine Speichereinheit, die so konfiguriert ist, dass sie Bilder speichert, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der Speichereinheit und der berührungsempfindlichen Oberflächeneinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie in der Speichereinheit mehrere Folgen von Bildern speichert. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie in einem beweglichen ersten Bereich auf der Anzeigeeinheit ein erstes stellvertretendes Bild für eine erste Folge von Bildern auf der Anzeigeeinheit anzeigt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie eine Ziehgeste auf der berührungsempfindlichen Oberflächeneinheit erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie infolge eines Feststellens, dass die Ziehgeste in einer ersten Richtung auf der berührungsempfindlichen Oberflächeneinheit verläuft: das Anzeigen des ersten stellvertretenden Bildes für die erste Folge von Bildern in dem beweglichen ersten Bereich auf der Anzeigeeinheit durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes für die erste Folge von Bildern erfasst wurden, in chronologischer Reihenfolge ersetzt, und den ersten Bereich in die erste Richtung auf der Anzeigeeinheit bewegt.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächeneinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie mehrere Folgen von Bildern speichert. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie das Anzeigen eines ersten stellvertretenden Bildes für eine erste Folge von Bildern in einem beweglichen ersten Bereich auf der Anzeigeeinheit ermöglicht. Die Verarbeitungseinheit ist so konfiguriert, dass sie eine Geste auf der berührungsempfindlichen Oberflächeneinheit erkennt, wobei die Geste eine Bewegung durch einen Kontakt beinhaltet, die der Bewegung in einer ersten Richtung auf der Anzeigeeinheit entspricht. Die Verarbeitungseinheit ist so konfiguriert, dass sie als Reaktion auf das Erkennen der Geste auf der berührungsempfindlichen Oberfläche: den ersten Bereich in die erste Richtung auf der Anzeigeeinheit bewegt; einen beweglichen zweiten Bereich in die erste Richtung auf der Anzeigeeinheit bewegt; und infolge eines Feststellens, dass Folge-Anzeigen-Kriterien erfüllt werden, während der zweite Bereich in die erste Richtung bewegt wird, das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für eine zweite Folge von Bildern, die von der Kamera vor dem Erfassen eines zweiten stellvertretenden Bildes für die zweite Folge von Bildern erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich ermöglicht.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, eine Speichereinheit, die so konfiguriert ist, dass sie Bilder speichert, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der Speichereinheit und der berührungsempfindlichen Oberflächeneinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie in der Speichereinheit mehrere Folgen von Bildern speichert. Eine jeweilige Folge von Bildern beinhaltet ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie in der Speichereinheit mehrere Bilder speichert, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden. Ein jeweiliges Bild von den mehreren Bildern ist nicht Teil einer Folge von Bildern in den mehreren Folgen von Bildern. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie ein erstes Bild auf der Anzeigeeinheit anzeigt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Anzeigens des ersten Bildes auf der Anzeigeeinheit eine erste Eingabe erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der ersten Eingabe: infolge eines Feststellens, dass das erste Bild ein Bild in einer ersten Folge von Bildern ist, eine erste Operation durchführt, die das Anzeigen von zumindest einigen der Bilder in der ersten Folge von Bildern neben dem ersten Bild auf der Anzeigeeinheit beinhaltet. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie infolge eines Feststellens, dass das erste Bild ein Bild von den mehreren Bildern ist, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden, eine zweite Operation durchführt, die sich von der ersten Operation unterscheidet und das erste Bild einbezieht.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächeneinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit eine Eingabe zum Abändern des stellvertretenden Bildes erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der Eingabe zum Abändern des stellvertretenden Bildes: infolge eines Feststellens, dass sich die Vorrichtung in einem ersten Bearbeitungsmodus befindet, das stellvertretende Bild, das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abändert; und infolge eines Feststellens, dass sich die Vorrichtung in einem zweiten Bearbeitungsmodus befindet, der sich von dem ersten Bearbeitungsmodus unterscheidet, das stellvertretende Bild ohne Abändern des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und ohne Abändern des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abändert.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit in einer Benutzerschnittstelle einer Anwendung, die so konfiguriert ist, dass sie mit anderen elektronischen Vorrichtungen kommunizieren kann, ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit eine Eingabe erkennt, die einer Anforderung zum Senden des stellvertretenden Bildes oder einer Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an eine zweite elektronische Vorrichtung, die sich entfernt von der ersten elektronischen Vorrichtung befindet, unter Verwendung der Anwendung entspricht. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Senden des stellvertretenden Bildes oder der Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an die zweite elektronische Vorrichtung entspricht: infolge eines Feststellens, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, das Anzeigen eines ersten Satzes von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung ermöglicht; und infolge eines Feststellens, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, das Anzeigen eines zweiten Satzes von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung ermöglicht, wobei sich der zweite Satz von Optionen von dem ersten Satz von Optionen unterscheidet.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine Kameraeinheit, die so konfiguriert ist, dass sie Bilder erfasst, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der Kameraeinheit verbunden ist. Die Verarbeitungseinheit ist so konfiguriert, dass sie das Anzeigen einer Live-Vorschau einer Szene auf der Anzeigeeinheit ermöglicht und für die Szene eine Szenenerkennung durchführt, während sich die Kameraeinheit in einem ersten Medienerfassungsmodus befindet. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens der Live-Vorschau der Szene eine einzelne Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der einzelnen Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: infolge eines zumindest teilweise auf der für die Szene durchgeführten Szenenerkennung beruhenden Feststellens, dass die Szene Kriterien zum Einfangen einer Aktion erfüllt, mehrere Bilder, die von der Kameraeinheit in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, behält und die mehreren Bilder in eine erste Folge von Bildern gruppiert. Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kameraeinheit vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kameraeinheit nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kameraeinheit nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der einzelnen Aktivierung des Auslöseknopfes zum ersten Zeitpunkt, infolge eines Feststellens, dass die Szene die Kriterien zum Einfangen einer Aktion nicht erfüllt, ein Einzelbild behält, das sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt befindet.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit, die so konfiguriert ist, dass sie Benutzereingaben erkennt, und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der Kameraeinheit verbunden ist. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie das Anzeigen eines Bildes auf der Anzeigeeinheit ermöglicht. Bei dem Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein stellvertretendes Bild. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des Bildes in der Folge von Bildern auf der Anzeigeeinheit eine erste Eingabe erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der ersten Eingabe das Anzeigen einer Benutzerschnittstelle zum Kürzen der Folge von Bildern auf eine geringere Teilmenge der Folge von Bildern ermöglicht. Die Benutzerschnittstelle beinhaltet: einen Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält; ein durch einen Benutzer einstellbares Kürzen-anfangen-Symbol, das ein Startbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-anfangen-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt; und ein durch einen Benutzer einstellbares Kürzen-beenden-Symbol, das ein Endbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-beenden-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt. Das Kürzen-anfangen-Symbol befindet sich an einer ersten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. Das Kürzen-beenden-Symbol befindet sich an einer zweiten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens der Benutzerschnittstelle zum Kürzen der Folge von Bildern eine zweite Eingabe erkennt. Die Verarbeitungseinheit ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen einer zweiten Eingabe die Folge von Bildern auf die Teilmenge der Folge von Bildern in Übereinstimmung mit einer aktuellen Position des Kürzen-anfangen-Symbols und einer aktuellen Position des Kürzen-beenden-Symbols kürzt.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeige, eine berührungsempfindliche Oberfläche, einen oder mehrere optionale Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme; das eine oder die mehreren Programme sind in dem Speicher gespeichert und so konfiguriert, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und das eine oder die mehreren Programme beinhalten Anweisungen zum Durchführen oder zum Verursachen des Durchführens der Operationen gemäß einem beliebigen der hierin beschriebenen Verfahren. In Übereinstimmung mit einigen Ausführungsformen sind auf einem durch einen Computer lesbaren Speichermedium Anweisungen gespeichert, die bei Ausführung durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren optionalen Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche die Vorrichtung dazu veranlassen, die Operationen gemäß einem beliebigen der hierin beschriebenen Verfahren durchzuführen oder deren Durchführung zu verursachen. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine grafische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem oder mehreren optionalen Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche, einem Speicher und einem oder mehreren Prozessoren zum Ausführen eines oder mehrerer in dem Speicher gespeicherten Programme ein oder mehrere der in einem beliebigen der hierin beschriebenen Verfahren gezeigten Elemente, die als Reaktion auf Eingaben aktualisiert werden, wie in einem beliebigen der hierin beschriebenen Verfahren beschrieben ist. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung: eine Anzeige, eine berührungsempfindliche Oberfläche und einen oder mehrere optionale Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche; und ein Mittel zum Durchführen oder zum Verursachen des Durchführens der Operationen gemäß einem beliebigen der hierin beschriebenen Verfahren. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren optionalen Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche ein Mittel zum Durchführen oder zum Verursachen des Durchführens der Operationen gemäß einem beliebigen der hierin beschriebenen Verfahren.
  • Somit werden elektronische Vorrichtungen mit verbesserten Verfahren und Schnittstellen zum Einfangen von und Interagieren mit Momenten, die von Kameras aufgenommen oder aufgezeichnet wurden, bereitgestellt. Derartige Verfahren und Schnittstellen können herkömmliche Verfahren zum Einfangen von und Interagieren mit Standbildern und Video ergänzen oder ersetzen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ein besseres Verständnis der verschiedenen beschriebenen Ausführungsformen ergibt sich aus der nachfolgenden Beschreibung von Ausführungsformen in Verbindung mit den folgenden Zeichnungen, in denen sich gleiche Bezugszahlen auf gleiche entsprechende Teile in den Figuren beziehen.
  • 1A ist ein Blockschaubild, das eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit einigen Ausführungsformen darstellt.
  • 1B ist ein Blockschaubild, das beispielhafte Komponenten für das Behandeln von Ereignissen in Übereinstimmung mit einigen Ausführungsformen darstellt.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung mit einem Touchscreen in Übereinstimmung mit einigen Ausführungsformen.
  • 3 ist ein Blockschaubild einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer berührungsempfindlichen, von der Anzeige getrennten Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • Die 4C4E veranschaulichen beispielhafte dynamische Intensitätsschwellen in Übereinstimmung mit einigen Ausführungsformen.
  • Die 5A5K veranschaulichen beispielhafte Benutzerschnittstellen zum Einfangen einer gruppierten Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen.
  • Die 6A6FF veranschaulichen beispielhafte Benutzerschnittstellen zum Anzeigen (oder Wiedergeben) einer gruppierten Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen.
  • Die 7A7CC veranschaulichen beispielhafte Benutzerschnittstellen zum Navigieren durch Folgen von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen.
  • Die 8A8L veranschaulichen beispielhafte Benutzerschnittstellen, die unterschiedliche Operationen für Folgen von verwandten Bildern im Gegensatz zu Einzelbildern in Übereinstimmung mit einigen Ausführungsformen durchführen.
  • Die 9A9G sind Ablaufpläne, die ein Verfahren zum Einfangen einer gruppierten Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 10A10E sind Ablaufpläne, die ein Verfahren zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 10F10I sind Ablaufpläne, die ein Verfahren zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 10J10M sind Ablaufpläne, die ein Verfahren zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 11A11E sind Ablaufpläne, die ein Verfahren zum Navigieren durch Folgen von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 11F11I sind Ablaufpläne, die ein Verfahren zum Navigieren durch Folgen von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 12A12B sind Ablaufpläne, die ein Verfahren zum Durchführen von unterschiedlichen Operationen für Folgen von verwandten Bildern im Gegensatz zu Einzelbildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • Die 1319 sind Funktionsblockschaubilder von elektronischen Vorrichtungen in Übereinstimmung mit einigen Ausführungsformen.
  • Die 20A20L veranschaulichen beispielhafte Benutzerschnittstellen zum Abändern von Bildern in einer Folge von Bildern in Übereinstimmung mit einigen Ausführungsformen.
  • Die 21A21J veranschaulichen beispielhafte Benutzerschnittstellen zum Senden von Bildern aus einer Folge von Bildern an eine zweite elektronische Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 22A22D veranschaulichen beispielhafte Benutzerschnittstellen zum Erfassen von Fotos (z. B. erweiterte Fotos oder Standfotos) unter Verwendung einer Szenenerkennung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 23A23E veranschaulichen beispielhafte Benutzerschnittstellen zum Kürzen einer Folge von Bildern (z. B. eines erweiterten Fotos) in Übereinstimmung mit einigen Ausführungsformen.
  • Die 24A24E veranschaulichen einen Ablaufplan eines Verfahrens zum Abändern von Bildern in einer Folge von Bildern in Übereinstimmung mit einigen Ausführungsformen.
  • Die 25A25C veranschaulichen einen Ablaufplan eines Verfahrens zum Senden von Bildern aus einer Folge von Bildern an eine zweite elektronische Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 26A26D veranschaulichen einen Ablaufplan eines Verfahrens zum Erfassen von Fotos (z. B. erweiterten Fotos oder Standfotos) unter Verwendung einer Szenenerkennung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 27A27E veranschaulichen einen Ablaufplan eines Verfahrens zum Kürzen einer Folge von Bildern (z. B. eines erweiterten Fotos) in Übereinstimmung mit einigen Ausführungsformen.
  • Die 2831 sind Funktionsblockschaubilder von elektronischen Vorrichtungen in Übereinstimmung mit einigen Ausführungsformen.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Wie vorstehend erwähnt, fangen tragbare elektronische Vorrichtungen üblicherweise zwei Typen von digitalen Inhalten ein: Standbilder und Video. Ein Standbild wird üblicherweise durch das einfache Drücken eines Auslöseknopfes eingefangen. Das Standbild friert einen Zeitpunkt ein, aber Einzelheiten des Moments um diesen Zeitpunkt herum gehen verloren. Videos zeichnen längere Zeitspannen auf, die möglicherweise sowohl interessante Momente als auch nicht so interessante Momente beinhalten können. Üblicherweise wird eine erhebliche Bearbeitung benötigt, um die weniger interessanten Momente zu entfernen.
  • Hier werden neue und verbesserte Vorrichtungen und Verfahren zum Einfangen von und Interagieren mit Momenten beschrieben.
  • In einigen Ausführungsformen gruppiert die Vorrichtung als Reaktion auf das Drücken eines Auslöseknopfes eine Folge von Bildern zusammen, die ein stellvertretendes Bild beinhaltet (analog zu dem Augenblick, der in einem herkömmlichen Standbild eingefangen wird), sowie Bilder, die erfasst wurden, bevor der Auslöseknopf gedrückt wurde, und Bilder, die nach dem stellvertretenden Bild erfasst wurden. Somit fängt das Drücken eines Auslöseknopfes den Moment um einen Zeitpunkt herum anstatt nur den Augenblick selbst ein. In einigen Ausführungsformen werden auch zusätzliche Informationen über den Moment wie zum Beispiel Ton und Metadaten eingefangen. Aus Sicht eines Benutzers macht der Prozess das Einfangen von Momenten (gruppierten Folgen von Bildern, die ein stellvertretendes Bild beinhalten) genauso leicht wie das Einfangen von Augenblicken (ein einzelnes Standbild) – der Benutzer muss lediglich einen Auslöseknopf drücken. Zur Unterscheidung von einem einzelnen Standbild wird der Kürze halber manchmal der Begriff „erweitertes Foto” verwendet, um auf eine gruppierte Folge von Bildern zu verweisen.
  • In einigen Ausführungsformen kann während des Ansehens eines stellvertretenden Bildes ein erweitertes Foto „lebendig werden” und den Moment als Reaktion auf eine Benutzereingabe (z. B. eine Drücken-und-Halten-Geste oder eine Fest-Drücken-Geste auf dem erweiterten Foto) wiedergeben.
  • In einigen Ausführungsformen werden während des Navigierens zwischen erweiterten Fotos für ein jeweiliges erweitertes Foto die Bilder gezeigt, die kurz vor dem stellvertretenden Bild des erweiterten Fotos aufgenommen wurden, wenn das erweiterte Foto auf der Anzeige erscheint, und/oder es werden die Bilder gezeigt, die kurz nach dem stellvertretenden Bild aufgenommen wurden, wenn das erweiterte Foto die Anzeige verlässt, wodurch das Anzeigen des Moments erweitert wird.
  • In einigen Ausführungsformen werden während des Navigierens zwischen erweiterten Fotos und herkömmlichen Standbildern erweiterte Fotos „wiedergegeben”, während sie auf der Anzeige erscheinen und/oder die Anzeige verlassen, während für die herkömmlichen Standbilder zusätzliche Informationen (z. B. Ortsdaten) und/oder Animationen innerhalb des Standbildes gezeigt werden, wenn die Standbilder angezeigt werden.
  • In einigen Ausführungsformen kann ein Benutzer ein stellvertretendes Bild in einem erweiterten Foto abändern und die Abänderungen nur auf das stellvertretende Bild anwenden lassen oder auf alle Bilder in dem erweiterten Foto anwenden lassen (z. B. kann der Benutzer zwischen einem Auf-alle-anwenden-Modus und einem Standbild-Bearbeitungsmodus umschalten).
  • Wenn ein jeweiliger Benutzer ein erweitertes Foto an einen anderen Benutzer sendet, zeigt die Vorrichtung des jeweiligen Benutzers in einigen Ausführungsformen verschiedene Optionen zum Senden des erweiterten Fotos, die davon abhängen, ob die Vorrichtung des anderen Benutzers kompatibel mit erweiterten Fotos ist (z. B. zeigt sie eine Option zum Senden des erweiterten Fotos als erweitertes Foto, wenn die Vorrichtung des anderen Benutzers kompatibel mit erweiterten Fotos ist, und zeigt eine Option zum Senden lediglich des stellvertretenden Bildes, wenn die Vorrichtung des anderen Benutzers inkompatibel mit erweiterten Fotos ist).
  • In einigen Ausführungsformen führt eine Vorrichtung eine Szenenerkennung durch (z. B. während sie sich in einem Bildeinfangmodus befindet). Wenn die Szene zweckmäßig ist, um ein erweitertes Foto zu behalten (z. B. beinhaltet die Szene eine Bewegung oder Gesichter), behält die Vorrichtung als Reaktion auf das Drücken eines Auslöseknopfes ein erweitertes Foto. Wenn die Szene nicht zweckmäßig ist, um ein erweitertes Foto zu behalten (z. B. ist die Szene ein Bild einer Quittung), behält die Vorrichtung als Reaktion auf das Drücken eines Auslöseknopfes ein einzelnes Standbild.
  • In einigen Ausführungsformen kann ein Benutzer eine Folge von Bildern auf eine Teilmenge der Folge von Bildern kürzen. Die Vorrichtung stellt Identifikatoren (handles) zum Kürzen der Folge an automatisch ausgewählten Positionen in der Folge (z. B. auf Grundlage einer Szenenerkennung) bereit. Die Identifikatoren können auch zum manuellen Kürzen der Folge verwendet werden.
  • Nachfolgend stellen die 1A1B, 2 und 3 eine Beschreibung von beispielhaften Vorrichtungen bereit. Die 4A4B, 5A5K, 6A6FF, 7A7CC, 8A8L, 20A20L, 21A21J, 22A22D und 23A23E veranschaulichen beispielhafte Benutzerschnittstellen zum Einfangen, Navigieren und Durchführen von Operationen für oder in Bezug auf eine Folge von verwandten Bildern. Die 9A9G sind Ablaufpläne, die ein Verfahren zum Einfangen einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Die 10J10M sind Ablaufpläne, die Verfahren zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Die 11A11I sind Ablaufpläne, die Verfahren zum Navigieren durch Fotos, die eine Folge von verwandten Bildern beinhalten, in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Die 12A12B sind Ablaufpläne, die ein Verfahren zum Durchführen von unterschiedlichen Operationen für Fotos, die eine Folge von verwandten Bildern beinhalten, im Gegensatz zu Standfotos in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Die 24A24E sind Ablaufpläne eines Verfahrens zum Abändern von Bildern in einer Folge von Bildern in Übereinstimmung mit einigen Ausführungsformen. Die 25A25C sind Ablaufpläne eines Verfahrens zum Senden von Bildern aus einer Folge von Bildern an eine zweite elektronische Vorrichtung in Übereinstimmung mit einigen Ausführungsformen. Die 26A26D sind Ablaufpläne eines Verfahrens zum Erfassen von Fotos (z. B. erweiterten Fotos oder Standfotos) unter Verwendung einer Szenenerkennung in Übereinstimmung mit einigen Ausführungsformen. Die 27A27E sind Ablaufpläne eines Verfahrens zum Kürzen einer Folge von Bildern (z. B. eines erweiterten Fotos) in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in den 5A5K, 6A6FF, 7A7CC, 8A8L, 20A20L, 21A21J, 22A22D und 23A23E werden zum Veranschaulichen der Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E verwendet.
  • BEISPIELHAFTE VORRICHTUNGEN
  • Es wird nun ausführlich auf Ausführungsformen Bezug genommen, von denen Beispiele in den beigefügten Zeichnungen veranschaulicht sind. In der folgenden ausführlichen Beschreibung werden zahlreiche spezifische Details dargelegt, um ein vollständiges Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Für einen Fachmann wird jedoch ersichtlich sein, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Details ausgeführt werden können. In anderen Fällen wurden allgemein bekannte Verfahren, Vorgehensweisen, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben, um Aspekte der Ausführungsformen nicht unnötig unklar zu machen.
  • Es wird auch darauf hingewiesen, dass, obwohl die Begriffe erster, zweiter usw. in einigen Fällen hierin zur Beschreibung diverser Elemente verwendet werden, diese Elemente nicht durch diese Ausdrücke eingeschränkt werden. Diese Ausdrücke werden lediglich dazu verwendet, um ein Element von einem anderen Element zu unterscheiden. Ein erster Kontakt könnte zum Beispiel auch ein zweiter Kontakt genannt werden, und gleichermaßen könnte ein zweiter Kontakt auch ein erster Kontakt genannt werden, ohne von dem Umfang der verschiedenen Ausführungsformen abzuweichen. Sowohl bei dem ersten Kontakt als auch dem zweiten Kontakt handelt es sich um Kontakte, aber es handelt sich nicht um dieselben Kontakte, es sei denn, etwas anderes ergibt sich deutlich aus dem Zusammenhang.
  • Die in der Beschreibung der verschiedenen beschriebenen Ausführungsformen hierin verwendete Terminologie dient lediglich dem Zweck des Beschreibens bestimmter Ausführungsformen und soll die Ausführungsformen nicht einschränken. Die Verwendung der Singularform „ein”, „eine” bzw. „der”, „die”, „das” in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und der beigefügten Ansprüche soll ebenfalls die Pluralformen einschließen, es sei denn, etwas anderes ergibt sich deutlich aus dem Zusammenhang. Es wird auch darauf hingewiesen, dass die Verwendung des Ausdrucks „und/oder” hierin sich auf sämtliche mögliche Kombinationen aus einem oder mehreren der zugehörigen aufgeführten Gegenstände bezieht und diese umfasst. Es wird darüber hinaus darauf hingewiesen, dass die Ausdrücke „beinhalten”, „beinhaltend”, „umfassen”, „umfassend”, „aufweisen” und/oder „aufweisend”, wenn sie in dieser Beschreibung verwendet werden, das Vorhandensein von aufgeführten Eigenschaften, ganzen Zahlen, Schritten, Operationen, Elementen und/oder Komponenten angeben, jedoch nicht das Vorhandensein oder das Hinzufügen einer oder mehrerer anderer Eigenschaften, ganzer Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen hiervon ausschließen.
  • Die Verwendung des Ausdrucks „wenn” wird optional je nach Kontext als „wenn” oder „beim” oder „als Reaktion auf das Feststellen” oder „als Reaktion auf das Erkennen” bedeutend angesehen. Gleichermaßen wird die Formulierung „wenn festgestellt wird” oder „wenn [ein angegebener Zustand oder ein angegebenes Ereignis] erkannt wird” optional je nach Kontext als „beim Feststellen” oder „als Reaktion auf das Feststellen” oder „beim Erkennen [des angegebenen Zustands oder Ereignisses]” oder „als Reaktion auf das Erkennen [des angegebenen Zustands oder Ereignisses]” bedeutend angesehen.
  • Es werden Ausführungsformen der elektronischen Vorrichtungen, Benutzerschnittstellen für derartige Vorrichtungen und zugehörige Prozesse zum Verwenden von derartigen Vorrichtungen beschrieben. In einigen Ausführungsformen handelt es sich bei der Vorrichtung um eine tragbare Kommunikationsvorrichtung wie zum Beispiel ein Mobiltelefon, das auch andere Funktionen enthält, wie zum Beispiel PDA- und/oder Musikplayer-Funktionen. Zu beispielhaften Ausführungsformen von tragbaren Multifunktionsvorrichtungen gehören ohne Einschränkung iPhone®-, iPod Touch®- und iPad®-Geräte von Apple Inc. aus Cupertino, Kalifornien. Optional werden andere tragbare elektronische Vorrichtungen wie zum Beispiel Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Touchscreen-Anzeigen und/oder Touchpads) verwendet. Es sei auch darauf hingewiesen, dass es sich bei der Vorrichtung in einigen Ausführungsformen nicht um eine tragbare Kommunikationsvorrichtung, sondern um einen Desktop-Computer mit einer berührungsempfindlichen Oberfläche (z. B. einer Touchscreen-Anzeige und/oder einem Touchpad) handelt.
  • In der folgenden Erörterung wird eine elektronische Vorrichtung beschrieben, die eine Anzeige und eine berührungsempfindliche Oberfläche beinhaltet. Es sei jedoch darauf hingewiesen, dass die elektronische Vorrichtung optional eine oder mehrere andere physische Benutzerschnittstellenvorrichtungen wie zum Beispiel eine physische Tastatur, eine Maus und/oder einen Joystick beinhaltet.
  • Die Vorrichtung unterstützt üblicherweise eine Vielfalt von Anwendungen wie zum Beispiel eine oder mehrere der Folgenden: Eine Notizenanwendung, eine Zeichnungsanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Website-Erstellungsanwendung, eine Festplatten-Authoring-Anwendung, eine Tabellenkalkulationsanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine E-Mail-Anwendung, eine Instant-Messaging-Anwendung, eine Trainingsunterstützungsanwendung, eine Fotoverwaltungsanwendung, eine digitale Kameraanwendung, eine digitale Videokameraanwendung, eine Web-Browser-Anwendung, eine digitale Musikplayer-Anwendung und/oder eine digitale Videoplayer-Anwendung.
  • Die verschiedenen auf der Vorrichtung ausgeführten Anwendungen verwenden optional zumindest eine gemeinsame physische Benutzerschnittstellenvorrichtung wie zum Beispiel die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie entsprechende auf der Vorrichtung angezeigte Informationen werden von Anwendung zu Anwendung und/oder innerhalb einer jeweiligen Anwendung optional angepasst und/oder abgewandelt. Auf diese Weise unterstützt eine gemeinsame physische Architektur (wie zum Beispiel die berührungsempfindliche Oberfläche) der Vorrichtung optional die Vielfalt von Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent für den Benutzer sind.
  • Die Aufmerksamkeit wird nun auf Ausführungsformen von tragbaren Vorrichtungen mit berührungsempfindlichen Anzeigen gerichtet. 1A ist ein Blockschaubild, das eine tragbare Multifunktionsvorrichtung 100 mit einem berührungsempfindlichen Anzeigesystem 112 in Übereinstimmung mit einigen Ausführungsformen darstellt. Das berührungsempfindliche Anzeigesystem 112 wird manchmal der Bequemlichkeit halber „Touchscreen” genannt und wird manchmal einfach berührungsempfindliche Anzeige genannt. Die Vorrichtung 100 beinhaltet einen Speicher 102 (der optional ein oder mehrere durch einen Computer lesbare Speichermedien beinhaltet), eine Speichersteuereinheit 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, eine Peripheriegeräte-Schnittstelle 118, eine RF-Schaltung 108, eine Audioschaltung 110, einen Lautsprecher 111, ein Mikrofon 113, ein Eingabe/Ausgabe-(I/O-)Subsystem 106, andere Eingabesteuervorrichtungen 116 und einen externen Port 124. Die Vorrichtung 100 beinhaltet optional einen oder mehrere optische Sensoren 164. Die Vorrichtung 100 beinhaltet optional einen oder mehrere Intensitätssensoren 165 zum Erkennen der Intensität von Kontakten auf der Vorrichtung 100 (z. B. auf einer berührungsempfindlichen Oberfläche wie zum Beispiel dem berührungsempfindlichen Anzeigesystem 112 der Vorrichtung 100). Die Vorrichtung 100 beinhaltet optional einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 100 (z. B. zum Erzeugen von taktilen Ausgaben auf einer berührungsempfindlichen Oberfläche wie zum Beispiel dem berührungsempfindlichen Anzeigesystem 112 der Vorrichtung 100 oder dem Touchpad 355 der Vorrichtung 300). Diese Komponenten kommunizieren optional über eine(n) oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Die Verwendung des Ausdrucks „taktile Ausgabe” in der Beschreibung und den Ansprüchen bezieht sich auf die physische Verlagerung einer Vorrichtung in Bezug auf eine vorhergehende Position der Vorrichtung, die physische Verlagerung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) einer Vorrichtung in Bezug auf eine andere Komponente (z. B. das Gehäuse) der Vorrichtung oder die Verlagerung der Komponente in Bezug auf einen Massenmittelpunkt der Vorrichtung, die von einem Benutzer mit dem Tastsinn des Benutzers erkannt wird. In Situationen, in denen die Vorrichtung oder die Komponente der Vorrichtung zum Beispiel mit einer berührungsempfindlichen Oberfläche eines Benutzers (z. B. einem Finger, einer Handfläche oder einem anderen Teil der Hand eines Benutzers) in Kontakt ist, wird die von der physischen Verlagerung erzeugte taktile Ausgabe von dem Benutzer als Tastempfindung gedeutet, die einer wahrgenommenen Änderung der physischen Eigenschaften der Vorrichtung oder der Komponente der Vorrichtung entspricht. Die Bewegung einer berührungsempfindlichen Oberfläche (z. B. einer berührungsempfindlichen Anzeige oder eines Trackpads) wird von dem Benutzer zum Beispiel optional als „Abwärtsklick” oder „Aufwärtsklick” eines physischen Betätigungsknopfes gedeutet. In manchen Fällen fühlt der Benutzer eine Tastempfindung wie zum Beispiel ein „Abwärtsklick” oder „Aufwärtsklick”, selbst wenn es keine Bewegung eines der berührungsempfindlichen Oberfläche zugehörigen physischen Betätigungsknopfes gibt, der physisch durch die Bewegungen des Benutzers gedrückt (z. B. verlagert) wird. Als weiteres Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche optional von dem Benutzer als „Rauheit” der berührungsempfindlichen Oberfläche gedeutet oder wahrgenommen, selbst wenn es keine Änderung der Glattheit der berührungsempfindlichen Oberfläche gibt. Während derartige Deutungen einer Berührung durch einen Benutzer den individualisierten Sinneswahrnehmungen des Benutzers unterliegen, gibt es viele Sinneswahrnehmungen von Berührungen, die einer großen Mehrheit von Benutzern gemein sind. Wenn eine taktile Ausgabe als einer bestimmten Sinneswahrnehmung eines Benutzers (z. B. ein „Aufwärtsklick” oder „Abwärtsklick”, „Rauheit”) entsprechend beschrieben wird, entspricht folglich die erzeugte taktile Ausgabe der physischen Verlagerung der Vorrichtung oder einer Komponente davon, welche die beschriebene Sinneswahrnehmung für einen typischen (oder durchschnittlichen) Benutzer erzeugt, soweit nicht anderweitig angegeben.
  • Man sollte sich bewusst sein, dass die Vorrichtung 100 lediglich ein Beispiel einer tragbaren Multifunktionsvorrichtung ist, und dass die Vorrichtung 100 optional mehr oder weniger Komponenten als gezeigt aufweist, optional zwei oder mehr Komponenten zusammenfasst oder optional eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweist. Die verschiedenen in 1A gezeigten Komponenten sind in Hardware, Software oder einer Kombination aus Hardware und Software umgesetzt, darunter eine oder mehrere Signalverarbeitungs- und/oder anwendungsspezifische integrierte Schaltungen.
  • Der Speicher 102 beinhaltet optional Hochgeschwindigkeits-Direktzugriffsspeicher und beinhaltet optional auch nichtflüchtigen Speicher wie zum Beispiel eine oder mehrere Magnetplatten-Speichereinheiten, Flash-Speichereinheiten oder andere nichtflüchtige Halbleiterspeichereinheiten. Der Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100 wie zum Beispiel die CPU(s) 120 und die Peripheriegeräte-Schnittstelle 118 wird optional durch die Speichersteuereinheit 122 gesteuert.
  • Die Peripheriegeräte-Schnittstelle 118 kann zum Verbinden von Eingabe- und Ausgabe-Peripheriegeräten der Vorrichtung mit der/den CPU(s) 120 und dem Speicher 102 verwendet werden. Der eine oder die mehreren Prozessoren 120 führen verschiedene Software-Programme und/oder in dem Speicher 102 gespeicherte Anweisungssätze aus, um verschiedene Funktionen für die Vorrichtung 100 durchzuführen und Daten zu verarbeiten.
  • In einigen Ausführungsformen sind die Peripheriegeräte-Schnittstelle 118, die CPU(s) 120 und die Speichersteuereinheit 122 optional auf einem einzelnen Chip wie dem Chip 104 ausgeführt. In einigen anderen Ausführungsformen sind sie optional sie auf separaten Chips ausgeführt.
  • Die RF-(Radiofrequenz-)Schaltung 108 empfängt und sendet RF-Signale, die auch elektromagnetische Signale genannt werden. Die RF-Schaltung 108 wandelt elektrische Signale in/aus elektromagnetische(n) Signale(n) um und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsbausteinen über die elektromagnetischen Signale. Die RF-Schaltung 108 beinhaltet optional allgemein bekannte Schaltungsanordnungen zum Durchführen dieser Funktionen, darunter ein Antennensystem, ein HF-Transceiver, ein oder mehrere Verstärker, ein Tuner, ein oder mehrere Oszillatoren, ein digitaler Signalprozessor, ein CODEC-Chipsatz, eine SIM-Karte (Subscriber Identity Module), Speicher und so weiter, jedoch nicht auf diese beschränkt. Die RF-Schaltung 108 kommuniziert optional mit Netzwerken wie zum Beispiel dem Internet, auch als World Wide Web (WWW) bezeichnet, einem Intranet und/oder einem drahtlosen Netzwerk wie zum Beispiel einem Mobilfunknetz, einem drahtlosen lokalen Netzwerk (LAN) und/oder einem Großstadtnetz (MAN, Metropolitan Area Network) und mit anderen Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation verwendet optional mehrere Kommunikationsstandards, Protokolle und Technologien, darunter GSM (Global System for Mobile Communications, EDGE (Enhanced Data GSM Environment), HSDPA (High-Speed Downlink Packet Access), HSUPA (High-Speed Uplink Packet Access), EV-DO (Evolution, Data-Only), HSPA, HSPA+, DC-HSPDA (Dual-Cell HSPA), LTE (Long Term Evolution), NFC (Near Field Communication), W-CDMA (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Wi-Fi (Wireless Fidelity) (z. B. IEEE 802.11a, IEEE 802.11ac, IEEE 802.11ax, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.1n), VoIP (Voice over Internet Protocol), Wi-MAX, ein Protokoll für E-Mail (z. B. IMAP (Internet Message Access Protocol) und/oder POP (Post Office Protocol)), Instant Messaging (z. B. XMPP (Extensible Messaging and Presence Protocol), SIMPLE (Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS (Instant Messaging and Presence Service)) und/oder SMS (Short Message Service) oder jedes beliebige andere geeignete Kommunikationsprotokoll, darunter zum Stand des Einreichungsdatums dieses Dokuments noch nicht entwickelte Kommunikationsprotokolle, aber nicht auf diese beschränkt.
  • Die Audioschaltung 110, der Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Die Audioschaltung 110 empfängt Audiodaten von der Peripheriegeräte-Schnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal um und übermittelt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 wandelt das elektrische Signal in für Menschen hörbare Schallwellen um. Die Audioschaltung 110 empfängt auch durch das Mikrofon 113 aus Schallwellen umgewandelte elektrische Signale. Die Audioschaltung 110 wandelt das elektrische Signal in Audiodaten um und übermittelt die Audiodaten an die Peripheriegeräte-Schnittstelle 118 zur Verarbeitung. Audiodaten werden optional durch die Peripheriegeräte-Schnittstelle 118 von dem Speicher 102 und/oder der RF-Schaltung 108 abgerufen und/oder an diese übermittelt. In einigen Ausführungsformen beinhaltet die Audioschaltung 110 auch eine Kopfhörerbuchse (z. B. 212, 2). Die Kopfhörerbuchse stellt eine Schnittstelle zwischen der Audioschaltung 110 und den entfernbaren Audio-Eingabe/Ausgabe-Peripheriegeräten wie zum Beispiel Nur-Ausgabe-Kopfhörer oder einer Hörsprechgarnitur sowohl mit Ausgabe (z. B. einen Kopfhörer für ein oder zwei Ohren) als auch mit Eingabe (z. B. einem Mikrofon) bereit.
  • Das I/O-Subsystem 106 verbindet Eingabe/Ausgabe-Peripheriegeräte an der Vorrichtung 100 wie zum Beispiel das berührungsempfindliche Anzeigesystem 112 und andere Eingabesteuervorrichtungen 116 mit der Peripheriegeräte-Schnittstelle 118. Das I/O-Subsystem 106 beinhaltet optional eine Anzeigesteuereinheit 156, eine Optischer-Sensor(en)-Steuereinheit 158, eine Intensitätssensor(en)-Steuereinheit 159, eine Haptische-Rückmeldung-Steuereinheit 161, und eine oder mehrere Eingabesteuereinheiten 160 für andere Eingabe- oder Steuervorrichtungen. Die einen oder mehreren Eingabesteuereinheiten 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe- oder Steuervorrichtungen 116 beinhalten optional physische Tasten (z. B. Drucktasten, Wipptasten usw.), Drehscheiben, Schiebeschalter, Joysticks, Klickräder und so weiter. In einigen alternativen Ausführungsformen ist/sind die Eingabesteuervorrichtung(en) 160 optional mit einem beliebigen (oder keinem) der Folgenden verbunden: einer Tastatur, einem Infrarotanschluss, einem USB-Anschluss und/oder einem Zeigegerät wie zum Beispiel einer Maus. Die eine oder mehreren Tasten (z. B. 208, 2) beinhalten optional eine Auf/Ab-Taste für die Lautstärkesteuerung des Lautsprechers 111 und/oder des Mikrofons 113. Die eine oder mehreren Tasten beinhalten optional eine Drucktaste (z. B. 206, 2).
  • Das berührungsempfindliche Anzeigesystem 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigesteuereinheit 156 empfängt und/oder sendet elektrische Signale von/an das berührungsempfindliche Anzeigesystem 112. Das berührungsempfindliche Anzeigesystem 112 zeigt dem Benutzer eine visuelle Ausgabe an. Die visuelle Ausgabe beinhaltet optional Grafiken, Text, Symbole, Video und eine beliebige Kombination daraus (allgemein als „Grafik” bezeichnet). In einigen Ausführungsformen entsprechen die visuelle Ausgabe teilweise oder vollständig Benutzerschnittstellenobjekten. Der Begriff „Aufforderung” bezieht sich in der Verwendung hierin auf ein benutzerinteraktives grafisches Benutzerschnittstellenobjekt (z. B. ein grafisches Benutzerschnittstellenobjekt, das so konfiguriert, dass es auf Eingaben reagiert, die an das grafische Benutzerschnittstellenobjekt gerichtet sind). Zu Beispielen von benutzerinteraktiven grafischen Benutzerschnittstellenobjekten gehören ohne Einschränkung eine Schaltfläche, ein Schiebeschalter, ein Symbol, ein auswählbarer Menüeintrag, ein Schalter oder eine andere Benutzerschnittstellensteuerung.
  • Das berührungsempfindliche Anzeigesystem 112 weist eine berührungsempfindliche Oberfläche, einen Sensor oder einen Satz von Sensoren, auf, die Eingaben von dem Benutzer auf Grundlage eines haptischen und/oder eines taktilen Kontakts entgegennimmt. Das berührungsempfindliche Anzeigesystem 112 und die Anzeigesteuereinheit 156 erkennen (gemeinsam mit allen zugehörigen Modulen und/oder Sätzen von Anweisungen in dem Speicher 102) einen Kontakt (und jegliche Bewegung oder jeden Abbruch des Kontakts) auf dem berührungsempfindlichen Anzeigesystem 112 und wandeln den erkannten Kontakt in eine Interaktion mit Benutzerschnittstellenobjekten (z. B. einem oder mehreren Softkeys, Symbolen, Webseiten oder Bildern) um, die auf dem berührungsempfindlichen Anzeigesystem 112 angezeigt werden. In einer beispielhaften Ausführungsform entspricht ein Kontaktpunkt zwischen dem berührungsempfindlichen Anzeigesystem 112 und dem Benutzer einem Finger des Benutzers oder einem Eingabestift.
  • Das berührungsempfindliche Anzeigesystem 112 verwendet optional LCD(Liquid Crystal Display)-Technologie, LPD-(Light Emitting Polymer Display)-Technologie oder LED-(Light Emitting Diode)-Technologie, wenngleich in anderen Ausführungsformen andere Anzeigetechnologien verwendet werden. Das berührungsempfindliche Anzeigesystem 112 und die Anzeigesteuereinheit 156 erkennen optional einen Kontakt und jegliche Bewegung oder jeden Abbruch dessen unter Verwendung einer beliebigen von mehreren jetzt bekannten oder später entwickelten Sensortechnologien erkennen, darunter kapazitive, resistive, Infrarot- und akustische Oberflächenwellen-Technologien, aber nicht auf diese beschränkt, sowie andere Näherungssensor-Arrays oder andere Elemente zum Feststellen eines oder mehrerer Kontaktpunkte mit dem berührungsempfindlichen Anzeigesystem 112. In einer beispielhaften Ausführungsform wird Projected Mutual Capacitance Sensing Technologie verwendet, wie zum Beispiel jene, die in dem iPhone®, iPod Touch® und iPad® von Apple Inc. aus Cupertino, Kalifornien vorgefunden wird.
  • Das berührungsempfindliche Anzeigesystem 112 hat optional eine Videoauflösung von mehr als 100 dpi. In einigen Ausführungsformen beträgt die Videoauflösung des Touchscreen über 400 dpi (z. B. 500 dpi, 800 dpi oder höher). Der Benutzer stellt optional mit dem berührungsempfindlichen Anzeigesystem 112 unter Verwendung eines beliebigen geeigneten Objekts oder Körperglieds, wie zum Beispiel eines Eingabestifts, eines Fingers und so weiter einen Kontakt her. In einigen Ausführungsformen ist die Benutzerschnittstelle so gestaltet, dass sie mit fingerbasierten Kontakten und Gesten arbeitet, welche aufgrund des größeren Kontaktbereichs eines Fingers auf dem Touchscreen weniger genau sein können als eine stiftbasierte Eingabe. In einigen Ausführungsformen übersetzt die Vorrichtung die grobe fingerbasierte Eingabe in eine genaue Zeiger/Cursor-Position oder einen Befehl zum Durchführen der von dem Benutzer gewünschten Aktionen.
  • In einigen Ausführungsformen beinhaltet die Vorrichtung 100 optional zusätzlich zu dem Touchscreen ein Touchpad zum Aktivieren oder Deaktivieren von bestimmten Funktionen. In einigen Ausführungsformen handelt es sich bei dem Touchpad um einen berührungsempfindlichen Bereich der Vorrichtung, der, im Gegensatz zum Touchscreen, keine visuelle Ausgabe anzeigt. Bei dem Touchpad handelt es sich optional um eine von dem berührungsempfindlichen Anzeigesystem 112 getrennte berührungsempfindliche Oberfläche oder eine Erweiterung der durch den Touchscreen gebildeten berührungsempfindlichen Oberfläche.
  • Die Vorrichtung 100 beinhaltet auch ein Energiesystem 162 zum Versorgen der verschiedenen Komponenten mit Energie. Das Energiesystem 162 beinhaltet optional ein Energieverwaltungssystem, eine oder mehrere Energiequellen (z. B. eine Batterie, Wechselstrom (AC)), ein Wiederaufladungssystem, eine Leistungsausfall-Erkennungsschaltung, einen Leistungskonverter oder -inverter, einen Leistungsstatusindikator (z. B. eine Lichtemissionsdiode (LED)) und beliebige andere Komponenten, die mit dem Erzeugen, Verwalten und Verteilen von Energie in tragbaren Vorrichtungen verbunden sind.
  • Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere optische Sensoren 164. 1A zeigt einen optischen Sensor, der mit der optischen Sensorsteuereinheit 158 in dem I/O-Subsystem 106 verbunden ist. Der/die optische(n) Sensor(en) 164 beinhalten optional Fototransistoren mit ladungsgekoppeltem Baustein (CCD) oder komplementärem Metalloxid-Halbleiter (CMOS). Der/die optische(n) Sensor(en) 164 empfangen durch eine oder mehrere Linsen projiziertes Licht aus der Umgebung und wandeln das Licht in ein Bild darstellende Daten um. In Verbindung mit einem Bildmodul 143 (auch Kameramodul genannt) fangen der/die optische Sensor(en) 164 optional Standbilder, erweiterte Fotos und/oder Video ein. In einigen Ausführungsformen befindet sich ein optischer Sensor so auf der Rückseite der Vorrichtung 100, gegenüberliegend dem berührungsempfindlichen Anzeigesystem 112 auf der Vorderseite der Vorrichtung, dass es möglich ist, den Touchscreen als Bildsucher für das Erfassen von Stand- und/oder Videobildern zu verwenden. In einigen Ausführungsformen befindet sich ein weiterer optischer Sensor so auf der Vorderseite der Vorrichtung, dass das Bild des Benutzers erfasst wird (z. B. für Selfies, für Videokonferenzen, während der Benutzer die anderen Videokonferenzteilnehmer auf dem Touchscreen ansieht, usw.).
  • Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere Kontaktintensitätssensoren 165. 1A zeigt einen Kontaktintensitätssensor, der mit der Intensitätssensor(en)-Steuereinheit 159 in dem I/O-Subsystem 106 verbunden ist. Der/die Kontaktintensitätssensor(en) 165 beinhalten optional einen oder mehrere piezoresistive Dehnungsmessstreifen, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren (z. B. zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendete Sensoren). Der/die Kontaktintensitätssensor(en) 165 empfangen Kontaktintensitätsinformation (z. B. Druckinformation oder einen Stellvertreter für Druckinformation) aus der Umgebung. In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor neben oder in der Nähe einer berührungsempfindlichen Oberfläche (z. B. dem berührungsempfindlichen Anzeigesystem 112) angeordnet. In einigen Ausführungsformen befindet sich mindestens ein Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100, gegenüberliegend des sich auf der Vorderseite der Vorrichtung 100 befindlichen Touchscreen-Anzeigesystems 112.
  • Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere Näherungssensoren 166. 1A zeigt den Näherungssensor 166, der mit der Peripheriegeräte-Schnittstelle 118 verbunden ist. Alternativ ist der Näherungssensor 166 mit der Eingabesteuereinheit 160 in dem I/O-Subsystem 106 verbunden. In einigen Ausführungsformen schaltet der Näherungssensor das berührungsempfindliche Anzeigesystem 112 ab und deaktiviert dieses, wenn die Multifunktionsvorrichtung in die Nähe des Ohrs des Benutzers gehalten wird (z. B. wenn der Benutzer einen Telefonanruf durchführt).
  • Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere taktile Ausgabegeneratoren 167. 1A zeigt einen taktilen Ausgabegenerator, der mit der haptischen Rückmeldung-Steuereinheit 161 in dem I/O-Subsystem 106 verbunden ist. Der/die Ausgabegenerator(en) 167 beinhalten optional eine oder mehrere elektroakustische Vorrichtungen wie zum Beispiel Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Vorrichtungen, die Energie in eine lineare Bewegung umwandeln, wie zum Beispiel ein Motor, ein Solenoid, ein elektroaktives Polymer, ein piezoelektrischer Aktuator oder eine andere eine taktile Ausgabe erzeugende Komponente (z. B. eine Komponente, die elektrische Signale in taktile Ausgaben auf der Vorrichtung umwandelt). Der/die Ausgabegenerator(en) 167 empfangen taktile Rückmeldungserzeugungsanweisungen von dem haptischen Rückmeldungsmodul 133 und erzeugt taktile Ausgaben auf der Vorrichtung 100, die von einem Benutzer der Vorrichtung 100 gefühlt werden können. In einigen Ausführungsformen ist mindestens ein taktiler Ausgabegenerator neben oder in der Nähe einer berührungsempfindlichen Oberfläche (z. B. dem berührungsempfindlichen Anzeigesystem 112) angeordnet und erzeugt optional eine taktile Ausgabe durch vertikales Bewegen der berührungsempfindlichen Oberfläche (z. B. hinein in/heraus aus eine(r) Oberfläche der Vorrichtung 100) oder seitliches Bewegen dieser (z. B. nach hinten und nach vorne in der gleichen Ebene wie eine Oberfläche der Vorrichtung 100). In einigen Ausführungsformen befindet sich mindestens ein taktiler Ausgabegeneratorsensor auf der Rückseite der Vorrichtung 100, gegenüberliegend dem sich auf der Vorderseite der Vorrichtung 100 befindlichen berührungsempfindlichen Anzeigesystem 112.
  • Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere Beschleunigungsmesser 168. 1A zeigt den Beschleunigungsmesser 168, der mit der Peripheriegeräte-Schnittstelle 118 verbunden ist. Alternativ ist der Beschleunigungsmesser 168 optional mit einer Eingabesteuereinheit 160 in dem I/O-Subsystem 106 verbunden. In einigen Ausführungsformen werden die Informationen auf der Touchscreen-Anzeige auf Grundlage einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden, in einer Porträtansicht oder einer Landschaftsansicht angezeigt. Die Vorrichtung 100 beinhaltet optional, zusätzlich zu dem/den Beschleunigungsmesser(n) 168, ein Magnetometer (nicht gezeigt) und einen GPS(oder GLONASS oder anderes globales Navigationssystem)-Empfänger (nicht gezeigt) zum Erfassen von Information bezüglich des Ortes und der Orientierung (z. B. Porträt oder Landschaft) der Vorrichtung 100.
  • In einigen Ausführungsformen beinhalten die in dem Speicher 102 gespeicherten Softwarekomponenten ein Betriebssystem 126, ein Kommunikationsmodul (oder einen Satz von Anweisungen) 128, ein Kontakt/Bewegungs-Modul (oder einen Satz von Anweisungen) 130, ein Grafikmodul (oder einen Satz von Anweisungen) 132, ein Haptische-Rückmeldung-Modul (oder einen Satz von Anweisungen) 133, ein Texteingabemodul (oder einen Satz von Anweisungen) 134, ein Global Positioning System(GPS-)Modul (oder einen Satz von Anweisungen) 135, und Anwendungen (oder Sätze von Anweisungen) 136. Des Weiteren speichert der Speicher 102 in einigen Ausführungsformen den Vorrichtungs-/globalen internen Zustand 157, wie in den 1A und 3 gezeigt. Der Vorrichtungs-/globaler interne Zustand 157 beinhaltet eins oder mehrere der Folgenden: einen aktiven Anwendungszustand, der anzeigt, welche etwaigen Anwendungen derzeit aktiv sind; einen Anzeigezustand, der anzeigt, welche Anwendungen, Ansichten oder anderen Informationen verschiedene Bereiche des berührungsempfindlichen Anzeigesystems 112 bedecken; einen Sensorzustand, darunter von den verschiedenen Sensoren der Vorrichtung und den anderen Eingabe- oder Steuervorrichtungen 116 erhaltene Informationen; und/oder Positionsinformationen bezüglich des Ortes und/oder der Lage der Vorrichtung.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, iOS, WINDOWS, oder ein eingebettetes Betriebssystem wie zum Beispiel VxWorks) beinhaltet verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichervorrichtungssteuerung, Leistungsverwaltung, usw.) und ermöglicht eine Kommunikation zwischen verschiedenen Hardware- und Software-Komponenten.
  • Das Kommunikationsmodul 128 ermöglicht eine Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Ports 124 und beinhaltet auch verschiedene Softwarekomponenten zum Behandeln von Daten, die durch die RF-Schaltung 108 und/oder den externen Port 124 empfangen wurden. Der externe Port 124 (z. B. Universal Serial Bus (USB), FIREWIRE usw.) ist angepasst zum direkten Verbinden mit anderen Vorrichtungen oder indirekten Verbinden über ein Netzwerk (z. B. das Internet, drahtloses LAN usw.). In einigen Ausführungsformen handelt es sich bei dem externen Port um einen Multi-Pin-(z. B. 30-Pin-)Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem 30-Pin-Steckverbinder, der in einigen iPhone®-, iPod Touch®-, and iPad®-Geräten von Apple Inc. aus Cupertino, Kalifornien verwendet wird. In einigen Ausführungsformen handelt es sich bei dem externen Port um einen Lightning-Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem Lightning-Steckverbinder, der in einigen iPhone®-, iPod Touch®-, and iPad®-Geräten von Apple Inc. aus Cupertino, Kalifornien verwendet wird.
  • Das Kontakt/Bewegungs-Modul 130 erkennt optional einen Kontakt mit dem berührungsempfindlichen Anzeigesystem 112 (in Verbindung mit der Anzeigesteuereinheit 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. einem Touchpad oder einem physischen Klickrad). Das Kontakt/Bewegungs-Modul 130 beinhaltet verschiedene Softwarekomponenten zum Durchführen von verschiedenen Operationen, die das Erkennen von Kontakt (z. B. durch einen Finger oder über einen Eingabestift) betreffen, wie zum Beispiel das Ermitteln, ob ein Kontakt aufgetreten ist (z. B. Erkennen eines Finger-nach-unten-Ereignisses), das Ermitteln einer Intensität des Kontakts (z. B. der Kraft oder des Drucks des Kontakts oder eines Ersatzes für die Kraft oder den Druck des Kontakts), das Ermitteln, ob es eine Bewegung des Kontakts gibt und das Nachverfolgen der Bewegung über die berührungsempfindliche Oberfläche hinweg (z. B. das Erkennen einer oder mehrerer Finger-Ziehen-Ereignisse), und das Ermitteln, ob der Kontakt aufgehört hat (z. B. das Erkennen eines Finger-nach-oben-Ereignisses oder eines Abbruchs des Kontakts). Das Kontakt/Bewegungs-Modul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Das Ermitteln der durch eine Reihe von Kontaktdaten dargestellten Bewegung des Kontaktpunkts beinhaltet optional das Ermitteln einer Geschwindigkeit (speed) (Größenordnung), eines Tempos (velocity) (Größenordnung und Richtung) und/oder einer Beschleunigung (einer Veränderung der Größenordnung und/oder der Richtung) des Kontaktpunktes. Diese Operationen werden optional auf Einzelkontakte (z. B. Einfingerkontakte oder Eingabestiftkontakte) oder auf mehrere gleichzeitige Kontakte (z. B. „Multitouch”-/mehrfache Fingerkontakte) angewendet. In einigen Ausführungsformen erkennen das Kontakt/Bewegungs-Modul 130 und die Anzeigesteuereinheit 156 einen Kontakt auf einem Touchpad.
  • Das Kontakt/Bewegungs-Modul 130 erkennt optional eine Gesteneingabe durch einen Benutzer. Verschiedene Gesten auf der berührungsempfindlichen Oberfläche haben unterschiedliche Kontaktmuster (z. B. verschiedene Bewegungen, Zeitspannen und/oder Intensitäten von erkannten Kontakten). Somit wird eine Geste durch Erkennen eines bestimmten Kontaktmusters optional erkannt. Zum Beispiel beinhaltet das Erkennen einer Fingertippgeste das Erkennen eines Finger-Herunter-Ereignisses, gefolgt von dem Erkennen eines Finger-Herauf-(Abheben-)Ereignisses an derselben Position (oder im Wesentlichen derselben Position) wie das Finger-Herunter-Ereignis (z. B. an der Position eines Symbols). Als anderes Beispiel beinhaltet das Erkennen einer Fingerwischgeste auf der berührungsempfindlichen Oberfläche das Erkennen eines Finger-Herunter-Ereignisses, gefolgt von dem Erkennen eines oder mehrerer Finger-Ziehen-Ereignisse und anschließend gefolgt von dem Erkennen eines Finger-Herauf-(Abheben-)Ereignisses. Gleichermaßen werden Tipp-, Wisch-, Zieh- und andere Gesten optional für einen Eingabestift durch Erkennen eines bestimmten Kontaktmusters für den Eingabestift erkannt.
  • Das Grafikmodul 132 beinhaltet verschiedene bekannte Softwarekomponenten zum Rendern und Anzeigen von Grafiken auf dem berührungsempfindlichen Anzeigesystem 112 oder auf einer anderen Anzeige, darunter Komponenten zum Ändern der visuellen Wirkung (z. B. der Helligkeit, der Transparenz, der Sättigung, des Kontrasts oder einer anderen visuellen Eigenschaft) von angezeigten Grafiken. Die Verwendung des Ausdrucks „Grafiken” hierin beinhaltet jedes beliebige Objekt, das einem Benutzer angezeigt werden kann, darunter, ohne Beschränkung, Text, Webseiten, Symbole (wie zum Beispiel Benutzerschnittstellenobjekte einschließlich Softkeys), digitale Bilder, Videos, Animationen und Ähnliches.
  • In einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die zu verwendende Grafiken darstellen. Jeder Grafik ist optional ein entsprechender Code zugewiesen. Das Grafikmodul 132 empfängt von Anwendungen usw. einen oder mehrere Codes, die anzuzeigende Grafiken festlegen, falls nötig zusammen mit Koordinatendaten und anderen Grafikeigenschaftsdaten, und erzeugt dann Bildschirm-Bilddaten zum Ausgeben an die Anzeigesteuereinheit 156.
  • Das haptische Rückmeldungsmodul 133 beinhaltet verschiedene Softwarekomponenten zum Erzeugen von Anweisungen, die von dem/den taktilen Ausgabegenerator(en) 167 zum Erzeugen von taktilen Ausgaben an einem oder mehreren Orten auf der Vorrichtung 100 als Reaktion auf Benutzerinteraktionen mit der Vorrichtung 100 verwendet werden.
  • Das Texteingabemodul 134, bei dem es sich optional um eine Komponente des Grafikmoduls 132 handelt, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, IM 141, Browser 147 und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS-Modul 135 ermittelt den Ort der Vorrichtung und stellt diese Informationen zur Verwendung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung beim standortbezogenen Anwählen; an die Kamera 143 als Bild/Video-Metadaten; und an Anwendungen, die standortbezogene Dienste wie Wetter-Widgets, lokale Gelbe-Seiten-Widgets und Karten/Navigations-Widgets bereitstellen).
  • Die Anwendungen 136 beinhalten optional die folgenden Module (oder Sätze von Anweisungen) oder eine Teilmenge oder Obermenge davon:
    • • ein Kontaktemodul 137 (manchmal Adressbuch oder Kontaktliste genannt);
    • • ein Telefonmodul 138;
    • • ein Videokonferenzmodul 139;
    • • ein E-Mail-Client-Modul 140;
    • • ein Instant-Messaging-(IM-)Modul 141
    • • ein Trainingsunterstützungsmodul 142;
    • • ein Kameramodul 143 für Stand- und/oder Videobilder;
    • • ein Bildverwaltungsmodul 144;
    • • ein Browsermodul 147;
    • • ein Kalendermodul 148;
    • • Widget-Module 149, die optional eines oder mehrere der Folgenden enthalten: Wetter-Widget 149-1, Aktien-Widget 149-2, Rechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5 und andere, von dem Benutzer erfasste Widgets sowie benutzererzeugte Widgets 149-6;
    • • ein Widget-Ersteller-Modul 150 zum Erstellen der benutzererzeugten Widgets 149-6;
    • • ein Suchmodul 151;
    • • ein Video- und Musikplayermodul 152, das optional aus einem Videoplayermodul und einem Musikplayermodul besteht;
    • • ein Notizmodul 153;
    • • ein Kartenmodul 154; und/oder
    • • ein Online-Video-Modul 155.
  • Zu Beispielen von anderen Anwendungen 136, die optional in dem Speicher 102 gespeichert sind, gehören andere Textverarbeitungsanwendungen, andere Bildbearbeitungsanwendungen, Zeichnungsanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachreplikation.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134, beinhaltet das Kontaktemodul 137 ausführbare Anweisungen zum Verwalten eines Adressbuches oder einer Kontaktliste (z. B. in dem anwendungsinternen Zustand 192 des Kontaktemoduls 137 in dem Speicher 102 oder dem Speicher 370 gespeichert), darunter: das Hinzufügen von Name(n) zu dem Adressbuch; das Löschen von Name(n) aus dem Adressbuch; das Zuweisen von Telefonnummer(n), E-Mail-Adresse(n), physischer Adresse(n) oder anderer Informationen zu einem Namen; das Zuweisen eines Bildes zu einem Namen; das Kategorisieren und Sortieren von Namen; das Bereitstellen von Telefonnummern oder E-Mail-Adressen zum Initiieren und/oder Ermöglichen von Kommunikationen durch das Telefon 138, das Videokonferenzmodul 139, die E-Mail 140 oder das IM 141 und so weiter.
  • In Verbindung mit der RF-Schaltung 108, der Audioschaltung 110, dem Lautsprecher 111, dem Mikrofon 113, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 beinhaltet das Telefonmodul 138 ausführbare Anweisungen zum Eingeben einer Folge von Zeichen, die einer Telefonnummer entspricht, zum Zugreifen auf eine oder mehrere Telefonnummern in dem Adressbuch 137, zum Abändern einer eingegebenen Telefonnummer, zum Wählen einer jeweiligen Telefonnummer, zum Führen eines Gesprächs und zum Trennen oder Auflegen, wenn das Gespräch abgeschlossen ist. Wie oben erwähnt, verwendet die drahtlose Kommunikation optional einen beliebigen von mehreren Kommunikationsstandards, Protokollen und Technologien.
  • In Verbindung mit der RF-Schaltung 108, der Audioschaltung 110, dem Lautsprecher 111, dem Mikrofon 113, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem/den optischen Sensor(en) 164, der optischen Sensorsteuereinheit 158, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, der Kontaktliste 137 und dem Telefonmodul 138 beinhaltet das Videokonferenzmodul 139 ausführbare Anweisungen zum Initiieren, Durchführen und Beenden einer Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 beinhaltet das E-Mail-Client-Modul 140 ausführbare Anweisungen zum Erstellen, Senden, Empfangen und Verwalten von E-Mails als Reaktion auf Benutzeranweisungen. In Verbindung mit dem Bildverwaltungsmodul 144 macht es das E-Mail-Client-Modul 140 sehr einfach, E-Mails mit Stand- oder Videobildern, die mit dem Kameramodul 143 aufgenommen wurden, zu erstellen und zu senden.
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 beinhaltet das Instant-Messaging-Modul 141 ausführbare Anweisungen zum Eingeben einer Folge von Zeichen, die einer Sofortnachricht entspricht, zum Abändern zuvor eingegebener Zeichen, zum Übermitteln einer jeweiligen Sofortnachricht (zum Beispiel unter Verwendung eines Short Message Service-(SMS-) oder Multimedia Message Service-(MMS-)Protokolls für telefoniebasierte Sofortnachrichten oder unter Verwendung von XMPP, SIMPLE, Apple Push Notification Service (APNs) oder IMPS für internetbasierte Sofortnachrichten), zum Empfangen von Sofortnachrichten und zum Betrachten von empfangenen Sofortnachrichten. In einigen Ausführungsformen beinhalten übermittelte und/oder empfangene Sofortnachrichten optional Grafiken, Fotos (z. B. Standbilder), erweiterte Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie in einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden. Die Verwendung von „Instant Messaging” hierin bezieht sich sowohl auf telefoniebasierte Nachrichten (z. B. unter Verwendung von SMS oder MMS gesendete Nachrichten) als auch internetbasierte Nachrichten (z. B. unter Verwendung von XMPP, SIMPLE, APNs oder IMPS gesendete Nachrichten).
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musikplayermodul 146 beinhaltet das Trainingsunterstützungsmodul 142 ausführbare Anweisungen zum Erstellen von Trainingseinheiten (z. B. mit Zeit-, Entfernungs- und/oder Kalorienverbrennungszielen); zum Kommunizieren mit Trainingssensoren (in Sportvorrichtungen und Smartwatches); zum Empfangen von Trainingssensordaten; zum Kalibrieren von zum Überwachen einer Trainingseinheit verwendeter Sensoren; zum Auswählen und Abspielen von Musik für eine Trainingseinheit; und zum Anzeigen, Speichern und Übermitteln von Trainingseinheitendaten.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem/den optischen Sensor(en) 164, der optischen Sensorsteuereinheit 158, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Bildverwaltungsmodul 144 beinhaltet das Kameramodul 143 ausführbare Anweisungen zum Aufnehmen von Standbildern oder Video (darunter einen Videostrom) und zum Speichern dieser in dem Speicher 102, zum Abändern von Eigenschaften eines Standbilds oder Videos, und/oder zum Löschen eines Standbilds oder Videos aus dem Speicher 102.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 beinhaltet das Bildverwaltungsmodul 144 ausführbare Anweisungen zum Anordnen, Abändern (z. B. Bearbeiten) oder anderweitigen Manipulieren, Benennen, Löschen, Präsentieren (z. B. in einer digitalen Diashow oder einem Album) und zum Speichern von Stand- und/oder Videobildern.
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 beinhaltet das Browsermodul 147 ausführbare Anweisungen zum Browsen des Internets in Übereinstimmung mit Benutzeranweisungen, einschließlich dem Suchen, Verknüpfen, Empfangen und Anzeigen von Webseiten oder Teilen davon, sowie von Anhängen und anderen mit Webseiten verknüpften Dateien.
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browsermodul 147 beinhaltet das Kalendermodul 148 ausführbare Anweisungen zum Erstellen, Anzeigen, Abändern und Speichern von Kalendern und mit Kalendern verknüpften Daten (z. B. Kalendereinträge, To-Do-Listen usw.) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 handelt es sich bei den Widget-Modulen 149 um Mini-Anwendungen, die optional durch einen Benutzer heruntergeladen und verwendet werden (z. B. das Wetter-Widget 149-1, das Aktien-Widget 149-2, das Rechner-Widget 149-3, das Wecker-Widget 149-4 und das Wörterbuch-Widget 149-5) oder die durch den Benutzer erzeugt werden können (z. B. das benutzererzeugte Widget 149-6). In einigen Ausführungsformen beinhaltet ein Widget eine HTML-(Hypertext Markup Language)-Datei, eine CSS-(Cascading Style Sheets)-Datei und eine JavaScript-Datei. In einigen Ausführungsformen beinhaltet ein Widget eine XML-(Extensible Markup Language)-Datei und eine JavaScript-Datei (z. B. Yahoo!-Widgets).
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 beinhaltet das Widget-Ersteller-Modul 150 ausführbare Anweisungen zum Erstellen von Widgets (z. B. Umwandeln eines benutzerspezifizierten Teils einer Webseite in ein Widget).
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134, beinhaltet das Suchmodul 151 ausführbare Anweisungen zum Suchen nach Text, Musik, Ton, Bild, Video, und/oder anderen Dateien in dem Speicher 102, die mit einem oder mehreren Suchkriterien (z. B. einem oder mehreren benutzerspezifizierten Suchbegriffen) in Übereinstimmung mit Benutzeranweisungen übereinstimmen.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, der Audioschaltung 110, dem Lautsprecher 111, der RF-Schaltung 108 und dem Browser-Modul 147 beinhaltet das Video- und Musikplayermodul 152 ausführbare Anweisungen, die es dem Benutzer erlauben, aufgezeichnete Musik und andere Tondateien herunterzuladen und wiederzugeben, die in einem oder mehreren Dateiformaten gespeichert sind, wie zum Beispiel MP3- oder AAC-Dateien, und ausführbare Anweisungen zum Anzeigen, Darstellen oder anderweitigen Abspielen von Videos (z. B. auf dem berührungsempfindlichen Anzeigesystem 112 oder auf einer externen Anzeige, die drahtlos oder über den externen Port 124 verbunden ist). In einigen Ausführungsformen beinhaltet die Vorrichtung 100 optional die Funktionalität eines MP3-Players, wie beispielsweise eines iPod (Markenzeichen von Apple Inc.).
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 beinhaltet das Notizmodul 153 ausführbare Anweisungen zum Erstellen und Verwalten von Notizen, To-Do-Listen und dergleichen in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit der RF-Schaltung 108, dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browsermodul 147, beinhaltet das Kartenmodul 154 ausführbare Anweisungen zum Empfangen, Anzeigen, Abändern und Speichern von Karten und mit Karten verknüpften Daten (z. B. Fahranweisungen; Daten über Kaufhäuser und andere Sonderziele an oder nahe einer bestimmten Örtlichkeit; und andere standortbezogene Daten) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, der Anzeigesystemsteuereinheit 156, dem Kontaktmodul 130, dem Grafikmodul 132, der Audioschaltung 110, dem Lautsprecher 111, der RF-Schaltung 108, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browsermodul 147 beinhaltet das Online-Video-Modul 155 ausführbare Anweisungen, die dem Benutzer das Zugreifen, Browsen, Empfangen (z. B. durch Streaming und/oder Herunterladen), Abspielen (z. B. auf dem Touchscreen 112 oder auf einer externen Anzeige, die drahtlos oder über den externen Port 124 verbunden ist), Senden einer E-Mail mit einem Link auf ein bestimmtes Online-Video und anderweitiges Verwalten von Online-Videos in einem oder mehreren Dateiformaten wie zum Beispiel H.264 gestatten. In einigen Ausführungsformen wird anstelle des E-Mail-Client-Moduls 140 das Instant-Messaging-Modul 141 zum Senden eines Links auf ein bestimmtes Online-Video verwendet.
  • Jedes/jede der oben identifizierten Module und Anwendungen entspricht einem Satz von ausführbaren Anweisungen zum Durchführen einer oder mehrerer oben beschriebenen Funktionen und den in dieser Anmeldung beschriebenen Verfahren (z. B. die auf einem Computer ausgeführten Verfahren und andere Informationsverarbeitungsverfahren, die hierin beschrieben sind). Diese Module (z. B. Sätze von Anweisungen) müssen nicht als separate Software-Programme, Abläufe oder Module umgesetzt sein, und somit werden verschiedene Teilmengen dieser Module in verschiedenen Ausführungsformen optional kombiniert oder anderweitig neu zusammengesetzt. In einigen Ausführungsformen speichert der Speicher 102 optional eine Teilmenge der oben identifizierten Module und Datenstrukturen. Des Weiteren speichert der Speicher 102 optional zusätzliche Module und Datenstrukturen, die oben nicht beschrieben sind.
  • In einigen Ausführungsformen handelt es sich bei der Vorrichtung 100 um eine Vorrichtung, bei der das Bedienen eines vordefinierten Satzes von Funktionen auf der Vorrichtung ausschließlich durch einen Touchscreen und/oder ein Touchpad durchgeführt wird. Durch Verwenden eines Touchscreens und/oder eines Touchpads als primäre Eingabesteuervorrichtung für das Bedienen der Vorrichtung 100 wird die Anzahl von physischen Eingabesteuervorrichtungen (wie Drucktasten, Drehscheiben und dergleichen) auf der Vorrichtung 100 herabgesetzt.
  • Der vordefinierte Satz von Funktionen, die ausschließlich durch einen Touchscreen und/oder ein Touchpad ausgeführt werden, beinhaltet optional ein Navigieren zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad, wenn es von dem Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Home- oder Wurzelmenü, ausgehend von einer beliebigen Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt wird. In derartigen Ausführungsformen wird eine „Menütaste” unter Verwendung eines Touchpads umgesetzt. In einigen anderen Ausführungsformen handelt es sich bei der Menütaste um eine physische Drucktaste oder eine andere physische Eingabesteuervorrichtung anstelle eines Touchpads.
  • 1B ist ein Blockschaubild, das beispielhafte Komponenten für das Behandeln von Ereignissen in Übereinstimmung mit einigen Ausführungsformen darstellt. In einigen Ausführungsformen beinhaltet der Speicher 102 (in 1A) oder 370 (3) einen Ereignissortierer 170 (z. B. in dem Betriebssystem 126) und eine jeweilige Anwendung 136-1 (z. B. eine beliebige der zuvor erwähnten Anwendungen 136, 137151, 155, 380390).
  • Der Ereignissortierer 170 empfängt Ereignisinformation und ermittelt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1, an welche die Ereignisinformation zu liefern sind. Der Ereignissortierer 170 beinhaltet ein Ereignismonitor 171 und ein Ereigniszuteilermodul 174. In einigen Ausführungsformen beinhaltet die Anwendung 136-1 einen anwendungsinternen Zustand 192, der die aktuell auf dem berührungsempfindlichen Anzeigesystem 112 angezeigte(n) Anwendungsansicht(en) anzeigt, wenn die Anwendung aktiv ist oder ausgeführt wird. In einigen Ausführungsformen wird der Vorrichtungs-/globale interne Zustand 157 von dem Ereignissortierer 170 zum Ermitteln, welche Anwendung(en) gegenwärtig aktiv ist bzw. sind, verwendet, und der anwendungsinterne Zustand 192 wird von dem Ereignissortierer 170 zum Ermitteln der Anwendungsansichten 191, an welche die Ereignisinformationen zu liefern sind, verwendet.
  • In einigen Ausführungsformen beinhaltet der anwendungsinterne Zustand 192 zusätzliche Informationen wie zum Beispiel eines oder mehrere von: Wiederaufnahmeinformation, die beim Fortfahren der Anwendung 136-1 mit ihrer Ausführung zu verwenden sind; Benutzerschnittstellen-Zustandsinformationen, die Informationen angeben, die angezeigt werden oder bereit sind, durch die Anwendung 136-1 angezeigt zu werden, eine Zustandswarteschlange, um es dem Benutzer zu ermöglichen, zu einem früheren Zustand oder einer früheren Ansicht der Anwendung 136-1 zurückzukehren, und eine Wiederholen/Rückgängigmachen-Warteschlange für frühere von dem Benutzer durchgeführte Aktionen.
  • Der Ereignismonitor 171 empfängt Ereignisinformationen von Peripheriegeräte-Schnittstelle 118. Die Ereignisinformationen beinhalten Informationen über ein Teilereignis (z. B. ein Berühren des berührungsempfindlichen Anzeigesystems 112 durch einen Benutzer als Teil einer Multi-Touch-Geste). Die Peripheriegeräte-Schnittstelle 118 übermittelt Informationen, die sie von dem I/O-Subsystem 106 oder einem Sensor wie zum Beispiel dem Näherungssensor 166, dem/den Beschleunigungsmesser(n) 168 und/oder dem Mikrofon 113 (durch die Audioschaltung 110) empfängt. Durch die Peripheriegeräte-Schnittstelle 118 von dem I/O-Subsystem 106 empfangene Informationen beinhalten Informationen von dem berührungsempfindlichen Anzeigesystem 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 Anfragen an die Peripheriegeräte-Schnittstelle 118 in zuvor festgelegten Intervallen. Als Reaktion darauf übermittelt die Peripheriegeräte-Schnittstelle 118 Ereignisinformationen. In anderen Ausführungsformen übermittelt die Peripheriegeräte-Schnittstelle 118 Ereignisinformationen nur dann, wenn es ein nennenswertes Ereignis gibt (z. B. das Empfangen einer Eingabe oberhalb einer zuvor festgelegten Rauschschwelle und/oder für mehr als eine zuvor festgelegte Dauer).
  • In einigen Ausführungsformen beinhaltet der Ereignissortierer 170 auch ein Trefferansicht-Bestimmungsmodul 172 und/oder ein Aktiv-Event-Erkennungsbestimmungsmodul 173.
  • Das Trefferansicht-Bestimmungsmodul 172 stellt Software-Abläufe zum Bestimmen der Position des Auftretens eines Teilereignisses innerhalb einer oder mehrerer Ansichten bereit, wenn das berührungsempfindliche Anzeigesystem 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Steuerelementen und anderen Elementen, die ein Benutzer auf der Anzeige sehen kann.
  • Ein anderer Aspekt der einer Anwendung zugehörigen Benutzerschnittstelle ist ein Satz von Ansichten, hierin manchmal Anwendungsansichten oder Benutzerschnittstellenfenster genannt, in denen Informationen angezeigt werden und berührungsbasierende Gesten stattfinden. Die Anwendungsansichten (einer jeweiligen Anwendung), in denen eine Berührung erkannt wird, entsprechen optional programmatischen Ebenen innerhalb einer programmatischen oder Ansichtshierarchie der Anwendung. Zum Beispiel werden die Ansicht der niedrigsten Ebene, auf der eine Berührung erkannt wird, auch Trefferansicht genannt, und der Satz von Ereignissen, die als ordnungsgemäße Eingaben erkannt werden, optional zumindest teilweise auf Grundlage der Trefferansicht der anfänglichen Berührung ermittelt, mit der eine berührungsbasierende Geste beginnt.
  • Das Trefferansicht-Bestimmungsmodul 172 empfängt Teilereignisse einer berührungsbasierenden Geste betreffende Informationen. Wenn eine Anwendung mehrere in einer Hierarchie organisierte Ansichten aufweist, identifiziert das Trefferansicht-Bestimmungsmodul 172 eine Trefferansicht als die niedrigste Ansicht in der Hierarchie, die das Teilereignis behandeln sollte. In den meisten Fällen handelt es sich bei der Trefferansicht um die Ansicht der niedrigsten Ebene, in der ein auslösendes Teilereignis auftritt (z. B. das erste Teilereignis in der Folge von Teilereignissen, die ein Ereignis oder ein potenzielles Ereignis bilden). Sobald die Trefferansicht durch das Trefferansicht-Bestimmungsmodul bestimmt wurde, empfängt die Trefferansicht üblicherweise alle Teilereignisse, die mit derselben Berührungs-/oder Eingabequelle verbunden sind, für die sie als Trefferansicht bestimmt wurde.
  • Das Aktiv-Event-Erkennungsbestimmungsmodul 173 bestimmt, welche Ansicht oder Ansichten innerhalb einer Ansichtshierarchie eine bestimmte Folge von Teilereignissen empfangen sollten. In einigen Ausführungsformen bestimmt das Aktiv-Event-Erkennungsbestimmungsmodul 173, dass lediglich die Trefferansicht eine bestimmte Folge von Teilereignissen empfangen sollte. In anderen Ausführungsformen bestimmt das Aktiv-Event-Erkennungsbestimmungsmodul 173, dass es sich bei sämtlichen den physischen Ort eines Teilereignisses beinhaltenden Ansichten um aktiv involvierte Ansichten handelt und bestimmt daher, dass sämtliche aktiv involvierten Ansichten eine bestimmte Folge von Teilereignissen empfangen sollten. In anderen Ausführungsformen würden höher in der Hierarchie angeordnete Ansichten weiterhin als aktiv involvierte Ansichten verbleiben, selbst wenn Berührungsteilereignisse vollständig auf den Bereich begrenzt wären, der mit einer bestimmten Ansicht verbunden ist.
  • Das Ereigniszuteilermodul 174 teilt die Ereignisinformationen einem Ereigniserkenner (z. B. dem Ereigniserkenner 180) zu. In Ausführungsformen, die das Aktiv-Event-Erkennungsbestimmungsmodul 173 beinhalten, liefert das Ereigniszuteilermodul 174 die Ereignisinformationen an einen durch das Aktiv-Event-Erkennungsbestimmungsmodul 173 bestimmten Ereigniserkenner. In manchen Ausführungsformen speichert das Ereigniszuteilermodul 174 die Ereignisinformationen in einer Ereigniswarteschlange, die durch ein jeweiliges Ereignisempfängermodul 182 abgerufen werden.
  • In einigen Ausführungsformen beinhaltet das Betriebssystem 126 einen Ereignissortierer 170. Alternativ beinhaltet die Anwendung 136-1 einen Ereignissortierer 170. In wieder anderen Ausführungsformen handelt es sich bei dem Ereignissortierer 170 um ein eigenständiges Modul oder einen Teil eines anderen im Speicher 102 gespeicherten Moduls, wie das Kontakt/Bewegungs-Modul 130.
  • In einigen Ausführungsformen beinhaltet die Anwendung 136-1 mehrere Ereignis-Handler 190 und eine oder mehrere Anwendungsansichten 191, von denen jede Anweisungen zum Behandeln von Berührungsereignissen beinhaltet, die innerhalb einer jeweiligen Ansicht der Benutzerschnittstelle der Anwendung auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 beinhaltet einen oder mehrere Ereigniserkenner 180. Üblicherweise beinhaltet eine jeweilige Anwendungsansicht 191 mehrere Ereigniserkenner 180. In anderen Ausführungsformen sind einer oder mehrere der Ereigniserkenner 180 Teil eines separaten Moduls, wie zum Beispiel eines Benutzerschnittstellen-Kits (nicht gezeigt) oder eines Objekts einer höheren Ebene, von der die Anwendung 136-1 Verfahren und andere Eigenschaften erbt. In einigen Ausführungsformen beinhaltet ein jeweiliger Ereignis-Handler 190 eines oder mehrere der Folgenden: einen Datenaktualisierer 176, einen Objektaktualisierer 177, einen GUI-Aktualisierer 178 und/oder Ereignisdaten 179, die von dem Ereignissortierer 170 empfangen wurden. Der Ereignis-Handler 190 nutzt optional den Datenaktualisierer 176, den Objektaktualisierer 177 oder den GUI-Aktualisierer 178 zum Aktualisieren des anwendungsinternen Zustands 192 oder ruft diese auf. Alternativ beinhalten eine oder mehrere der Anwendungsansichten 191 eine oder mehrere jeweilige Ereignis-Handler 190. Auch sind in einigen Ausführungsformen einer oder mehrere des Datenaktualisierers 176, des Objektaktualisierers 177 und des GUI-Aktualisierers 178 in einer jeweiligen Anwendungsansicht 191 beinhaltet.
  • Ein jeweiliger Ereigniserkenner 180 empfängt Ereignisinformationen (z. B. die Ereignisdaten 179) von dem Ereignissortierer 170 und identifiziert ein Ereignis aus der Ereignisinformation. Der Ereigniserkenner 180 beinhaltet den Ereignisempfänger 182 und einen Ereigniskomparator 184. In einigen Ausführungsformen beinhaltet der Ereigniserkenner 180 auch zumindest eine Teilmenge von: Metadaten 183 und Ereignislieferanweisungen 188 (die optional Teilereignis-Lieferanweisungen beinhalten).
  • Der Ereignisempfänger 182 empfängt Ereignisinformationen von dem Ereignissortierer 170. Die Ereignisinformationen beinhalten Informationen über ein Teilereignis, zum Beispiel eine Berührung oder eine Berührungsbewegung. Abhängig von dem Teilereignis beinhalten die Ereignisinformationen auch zusätzliche Informationen wie zum Beispiel die Position des Teilereignisses. Wenn das Teilereignis eine Bewegung einer Berührung betrifft, beinhalten die Ereignisinformationen optional auch die Geschwindigkeit und Richtung des Teilereignisses. In einigen Ausführungsformen beinhalten Ereignisse eine Drehung der Vorrichtung von einer Ausrichtung in eine andere (z. B. von einem Hochformat in ein Querformat oder umgekehrt) und die Ereignisinformationen beinhalten entsprechende Informationen über die aktuelle Ausrichtung (auch Vorrichtungslage genannt) der Vorrichtung.
  • Der Ereigniskomparator 184 vergleicht die Ereignisinformationen mit vordefinierten Ereignis- oder Teilereignisdefinitionen und bestimmt, auf Grundlage des Vergleichs, ein Ereignis oder Teilereignis oder bestimmt oder aktualisiert den Zustand eines Ereignisses oder Teilereignisses. In einigen Ausführungsformen beinhaltet der Ereigniskomparator 184 Ereignisdefinitionen 186. Die Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. vordefinierte Folgen von Teilereignissen), zum Beispiel ein Ereignis 1 (187-1), ein Ereignis 2 (187-2) und andere. In einigen Ausführungsformen beinhalten Teilereignisse in einem Ereignis 187 zum Beispiel einen Berührungsbeginn, ein Berührungsende, eine Berührungsbewegung, einen Berührungsabbruch und mehrfache Berührungen. In einem Beispiel handelt es sich bei der Definition für das Ereignis 1 (187-1) um ein Doppeltippen auf ein angezeigtes Objekt. Das Doppeltippen weist zum Beispiel eine erste Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine zuvor festgelegte Phase, ein erstes Abheben (Berührungsende) für eine zuvor festgelegte Phase, eine zweite Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine zuvor festgelegte Phase und ein zweites Abheben (Berührungsende) für eine zuvor festgelegte Phase auf. In einem anderen Beispiel handelt es sich bei der Definition für das Ereignis 2 (187-2) um ein Ziehen eines angezeigten Objekts. Das Ziehen weist zum Beispiel ein Berühren (oder einen Kontakt) auf dem angezeigten Objekt für eine zuvor festgelegte Phase, ein Bewegen der Berührung über das berührungsempfindliche Anzeigesystem 112 und ein Abheben des Berührens (Berührungsende) auf. In einigen Ausführungsformen beinhaltet das Ereignis auch Informationen für eine oder mehrere zugehörige Ereignis-Handler 190.
  • In einigen Ausführungsformen beinhaltet die Ereignisdefinition 187 eine Definition eines Ereignisses für ein jeweiliges Benutzerschnittstellenobjekt. In einigen Ausführungsformen führt der Ereigniskomparator 184 einen Treffertest durch, um zu ermitteln, welches Benutzerschnittstellenobjekt mit einem Teilereignis verbunden ist. In einer Anwendungsansicht, in der drei Benutzerschnittstellenobjekte auf dem berührungsempfindlichen Anzeigesystem 112 angezeigt werden, führt der Ereignisvergleicher 184 zum Beispiel einen Treffertest durch, wenn eine Berührung auf dem berührungsempfindlichen Anzeigesystem 112 erkannt wird, um zu ermitteln, welches der drei Benutzerschnittstellenobjekte mit der Berührung (dem Teilereignis) verbunden ist. Wenn jedes angezeigte Objekt einem jeweiligen Ereignis-Handler 190 zugehörig ist, verwendet der Ereigniskomparator das Ergebnis des Treffertests zum Bestimmen, welcher Ereignis-Handler 190 aktiviert werden sollte. Zum Beispiel wählt der Ereigniskomparator 184 einen dem Teilereignis und dem den Treffertest auslösenden Objekt zugehörigen Ereignis-Handler aus.
  • In einigen Ausführungsformen beinhaltet die Definition für ein jeweiliges Ereignis 187 auch verzögerte Aktionen, die das Liefern der Ereignisinformation so lange verzögern, bis ermittelt wurde, ob die Folge von Teilereignissen dem Ereignistyp des Ereigniserkenners entspricht oder nicht.
  • Wenn ein jeweiliger Ereigniserkenner 180 feststellt, dass die Reihe von Teilereignissen keinem der Ereignisse in den Ereignisdefinitionen 186 entspricht, geht der jeweilige Ereigniserkenner 180 in einen Zustand Ereignis unmöglich, Ereignis fehlgeschlagen oder Ereignis beendet über, woraufhin er nachfolgende Teilereignisse der berührungsbasierenden Geste nicht beachtet. In dieser Situation fahren andere Ereigniserkenner, die aktiv für die Trefferansicht verbleiben, sofern es solche gibt, mit dem Verfolgen und Verarbeiten von Teilereignissen einer andauernden berührungsbasierenden Geste fort.
  • In einigen Ausführungsformen beinhaltet ein jeweiliger Ereigniserkenner 180 die Metadaten 183 mit konfigurierbaren Eigenschaften, Flags und/oder Listen, die angeben, wie das Ereignisliefersystem Teilereignislieferungen an aktiv involvierte Ereigniserkenner ausführen sollte. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die angeben, wie Ereigniserkenner miteinander interagieren oder es ihnen ermöglicht wird, miteinander zu interagieren. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die angeben, ob Teilereignisse an variierende Ebenen in der Ansicht oder der programmatischen Hierarchie geliefert werden.
  • In einigen Ausführungsformen aktiviert ein jeweiliger Ereigniserkenner 180 den einem Ereignis zugehörigen Ereignis-Handler 190, wenn eines oder mehrere bestimmte Teilereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert ein jeweiliger Ereigniserkenner 180 dem Ereignis zugehörige Ereignisinformationen an den Ereignis-Handler 190. Das Aktivieren eines Ereignis-Handlers 190 unterscheidet sich vom Senden (und vom verzögerten Senden) von Teilereignissen an eine jeweilige Trefferansicht. In einigen Ausführungsformen wirft der Ereigniserkenner 180 ein dem erkannten Ereignis zugehöriges Flag aus, und der dem Flag zugehörige Ereignis-Handler 190 erfasst das Flag und führt einen vordefinierten Prozess durch.
  • In einigen Ausführungsformen beinhalten die Ereignislieferanweisungen 188 Teilereignis-Lieferanweisungen, die Ereignisinformationen über ein Teilereignis ohne ein Aktivieren eines Ereignis-Handlers liefern. Stattdessen liefern die Teilereignis-Lieferanweisungen Ereignisinformationen an mit der Reihe von Teilereignissen verknüpfte Ereignis-Handler oder an aktiv involvierte Ansichten. Ereignis-Handler, die der Reihe von Teilereignissen oder aktiv involvierten Ansichten zugehörig sind, empfangen die Ereignisinformationen und führen einen zuvor festgelegten Prozess durch.
  • In einigen Ausführungsformen erstellt und aktualisiert der Datenaktualisierer 176 in der Anwendung 136-1 verwendete Daten. Zum Beispiel aktualisiert der Datenaktualisierer 176 die in dem Kontaktemodul 137 verwendete Telefonnummer oder speichert eine in dem Videoplayermodul 145 verwendete Videodatei. In einigen Ausführungsformen erstellt und aktualisiert der Objektaktualisierer 177 in der Anwendung 136-1 verwendete Objekte. Zum Beispiel erstellt der Objektaktualisierer 177 ein neues Benutzerschnittstellenobjekt oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Aktualisierer 178 aktualisiert die GUI. Zum Beispiel bereitet der GUI-Aktualisierer 178 Anzeigeinformationen vor und sendet sie an das Grafikmodul 132 zum Anzeigen auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen beinhalten der/die Ereignis-Handler 190 den Datenaktualisierer 176, den Objektaktualisierer 177 und den GUI-Aktualisierer 178 oder haben auf diese Zugriff. In einigen Ausführungsformen sind der Datenaktualisierer 176, der Objektaktualisierer 177 und der GUI-Aktualisierer 178 in einem einzelnen Modul einer jeweiligen Anwendung 136-1 oder einer Anwendungsansicht 191 beinhaltet. In anderen Ausführungsformen sind sie in zwei oder mehr Software-Modulen beinhaltet.
  • Es soll verstanden werden, dass die vorstehende Erörterung bezüglich Ereignisbehandlung von Benutzerberührungen auf den berührungsempfindlichen Anzeigen auch auf andere Formen von Benutzereingaben zum Bedienen der Multifunktionsvorrichtungen 100 mit Eingabevorrichtungen anzuwenden sind, von denen nicht alle auf Touchscreens initiiert werden. Zum Beispiel werden Mausbewegungen und das Drücken von Mausknöpfen, die optional mit einem einzelnen oder mehrfachen Drücken oder Gedrückthalten auf einer Tastatur koordiniert werden; Kontaktbewegungen wie beispielsweise Tippen, Ziehen, Scrollen usw. auf Touchpads; Eingabestifteingaben; Bewegen der Vorrichtung; mündliche Anweisungen; erkannte Augenbewegungen; biometrische Eingaben; und/oder jede Kombination davon als Eingaben verwendet, die Teilereignissen entsprechen, die ein zu erkennendes Ereignis definieren.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung 100 mit einem Touchscreen (z. B. dem berührungsempfindlichen Anzeigesystem 112, 1A) in Übereinstimmung mit einigen Ausführungsformen. Der Touchscreen stellt optional eine oder mehrere Grafiken innerhalb einer Benutzerschnittstelle (UI) 200 dar. In dieser Ausführungsform sowie in anderen unten beschriebenen Ausführungsformen wird es einem Benutzer ermöglicht, durch das Durchführen einer Geste auf den Grafiken, zum Beispiel mit einem oder mehreren Fingern 202 (in der Figur nicht maßstabsgetreu gezeichnet) oder einem oder mehreren Stiften 203 (in der Figur nicht maßstabsgetreu gezeichnet) eine oder mehrere der Grafiken auszuwählen. In einigen Ausführungsformen tritt das Wählen einer oder mehrerer Grafiken auf, wenn der Benutzer den Kontakt mit einer oder mehreren Grafiken unterbricht. In einigen Ausführungsformen beinhaltet die Geste optional ein einfaches oder mehrfaches Tippen, eine oder mehrere Wischbewegungen (von links nach rechts, von rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, von links nach rechts, aufwärts und/oder abwärts), der mit der Vorrichtung 100 einen Kontakt herstellt. In einigen Umsetzungen oder Fällen wählt ein unbeabsichtigter Kontakt mit einer Grafik die Grafik nicht aus. Eine Wischgeste, die über ein Anwendungssymbol wischt, wählt zum Beispiel optional die entsprechende Anwendung nicht aus, wenn die dem Auswählen entsprechende Geste ein Tippen ist.
  • Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere physische Tasten wie zum Beispiel eine „Home”- oder Menü-Taste 204. Wie zuvor beschrieben, wird die Menü-Taste 204 optional zum Navigieren zu jeder beliebigen Anwendung 136 in einem Satz von Anwendungen verwendet, die optional auf der Vorrichtung 100 ausgeführt werden. Alternativ ist die Menü-Taste in einigen Ausführungsformen als Softkey in einer auf der Touchscreen-Anzeige angezeigten GUI implementiert.
  • In einigen Ausführungsformen beinhaltet die Vorrichtung 100 die Touchscreen-Anzeige 112, die Menü-Taste 204, die Drucktaste 206 zum Ein- oder Ausschalten der Vorrichtung und zum Sperren der Vorrichtung, Lautstärkeregel-Knopf/Knöpfe 208, einen Subscriber-Identity-Module-(SIM-)Karteneinschub 210, eine Kopfhörerbuchse 212 und einen externen Docking/Lade-Port 124. Die Drucktaste 206 wird optional zum Ein- und Ausschalten der Vorrichtung durch Drücken der Taste und Halten der Taste in dem gedrückten Zustand für eine vordefinierte Zeitdauer; zum Sperren der Vorrichtung durch Drücken der Taste und Loslassen der Taste vor Ablauf der vordefinierten Zeitdauer; und/oder zum Entsperren der Vorrichtung oder zum Initiieren eines Entsperrprozesses verwendet. In einigen Ausführungsformen nimmt die Vorrichtung 100 auch verbale Eingaben zur Aktivierung oder Deaktivierung einiger Funktionen durch das Mikrofon 113 entgegen. Die Vorrichtung 100 beinhaltet optional auch einen oder mehrere Kontaktintensitätssensoren 165 zum Erkennen der Intensität von Kontakten auf dem berührungsempfindlichen Anzeigesystem 112 und/oder einen oder mehrere taktile Ausgabeerzeuger 167 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 100.
  • 3 ist ein Blockschaubild einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen. Die Vorrichtung 300 muss nicht tragbar sein. In einigen Ausführungsformen handelt es sich bei der Vorrichtung 300 um einen Laptop-Computer, einen Desktop-Computer, einen Tablet-Computer, eine Multimedia-Player-Vorrichtung, eine Navigationsvorrichtung, eine Lernvorrichtung (wie ein Lernspielzeug eines Kindes), ein Spielesystem oder eine Steuervorrichtung (z. B. eine Steuereinheit für Zuhause oder die Industrie). Die Vorrichtung 300 beinhaltet üblicherweise eine oder mehrere Verarbeitungseinheiten (CPUs) 310, eine oder mehrere Netzwerk- oder andere Kommunikationsschnittstellen 360, einen Speicher 370 und einen oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten. Die Kommunikationsbusse 320 beinhalten optional eine Schaltungsanordnung (manchmal Chipsatz genannt), die Kommunikationen zwischen Systemkomponenten verbindet und steuert. Die Vorrichtung 300 beinhaltet eine Eingabe-/Ausgabe-(I/O-)Schnittstelle 330, welche die Anzeige 340 aufweist, bei der es sich üblicherweise um eine Touchscreen-Anzeige handelt. Die I/O-Schnittstelle 330 beinhaltet optional auch eine Tastatur und/oder eine Maus (oder eine andere Zeigevorrichtung) 350 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 300 (z. B. ähnlich dem/den oben unter Bezugnahme auf 1A beschriebenen taktilen Ausgabegenerator(en) 167), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche, und/oder Kontaktintensitätssensoren ähnlich dem/den oben unter Bezugnahme auf 1A beschriebenen Kontaktintensitätssensor(en) 165). Der Speicher 370 kann Hochgeschwindigkeits-Direktzugriffsspeicher wie DRAM, SRAM, DDR RAM oder andere Direktzugriffs-Halbleiterspeicher-Vorrichtungen beinhalten; und beinhaltet optional nichtflüchtigen Speicher, wie eine oder mehrere magnetische Diskspeichervorrichtungen, optische Diskspeichervorrichtungen, Flash-Speichervorrichtungen oder andere nichtflüchtige Halbleiterspeichervorrichtungen. Der Speicher 370 beinhaltet optional eine oder mehrere Speichervorrichtungen, die sich entfernt von der/den CPU(s) 310 befinden. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Datenstrukturen, die in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) gespeichert sind, oder eine Teilmenge davon. Des Weiteren speichert der Speicher 370 optional zusätzliche Programme, Module und Datenstrukturen, die nicht in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 vorliegen. Zum Bespiel speichert der Speicher 370 der Vorrichtung 300 optional ein Zeichenmodul 380, ein Präsentationsmodul 382, ein Textverarbeitungsmodul 384, ein Webseitenerzeugungsmodul 386, ein Festplatten-Authoring-Modul 388 und/oder ein Tabellenkalkulationsmodul 390, während der Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) diese Module optional nicht speichert.
  • Jedes der oben identifizierten Elemente in 3 wird optional in einer oder in mehreren der zuvor beschriebenen Speichervorrichtungen gespeichert. Jedes der oben identifizierten Module entspricht einem Satz von Anweisungen zum Durchführen einer Funktion wie oben beschrieben. Die vorstehend identifizierten Module oder Programme (z. B. Sätze von Anweisungen) müssen nicht als separate Software-Programme, Abläufe oder Module umgesetzt sein, und somit werden verschiedene Teilmengen dieser Module in verschiedenen Ausführungsformen optional kombiniert oder anderweitig neu zusammengesetzt. In einigen Ausführungsformen speichert der Speicher 370 optional eine Teilmenge der oben identifizierten Module und Datenstrukturen. Des Weiteren speichert der Speicher 370 optional zusätzliche Module und Datenstrukturen, die oben nicht beschrieben sind.
  • Die Aufmerksamkeit wird nun auf Ausführungsformen von Benutzerschnittstellen („UI”) gerichtet, die optional auf einer tragbaren Multifunktionsvorrichtung 100 umgesetzt sind.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung 100 in Übereinstimmung mit einigen Ausführungsformen. Ähnliche Benutzerschnittstellen sind optional auf der Vorrichtung 300 umgesetzt. In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 400 die folgenden Elemente oder eine Teilmenge oder eine Obermenge davon:
    • • Signalstärkenindikator(en) 402 für drahtlose Kommunikation(en), wie Mobilfunk- und Wi-Fi-Signale;
    • • eine Uhrzeit 404;
    • • einen Bluetooth-Indikator 405;
    • • einen Batteriezustandsindikator 406;
    • • ein Tray 408 mit Symbolen für häufig verwendete Anwendungen, wie zum Beispiel: – ein Symbol 416 für das Telefonmodul 138, als „Telefon” bezeichnet, das optional einen Indikator 414 der Anzahl von verpassten Anrufen oder Sprachmitteilungsnachrichten beinhaltet; – ein Symbol 418 für das E-Mail-Client-Modul 140, als „Mail” bezeichnet, das optional einen Indikator 410 der Anzahl von ungelesenen E-Mails beinhaltet; – ein Symbol 420 für das Browsermodul 147, als „Browser” bezeichnet; und – ein Symbol 422 für das Video- und Musikplayermodul 152, auch iPod(Markenzeichen von Apple Inc.)-Modul 152 genannt, als „iPod” bezeichnet; und
    • • Symbole für andere Anwendungen, wie zum Beispiel: – ein Symbol 424 für das IM-Modul 141, als „Nachrichten” bezeichnet; – ein Symbol 426 für das Kalendermodul 148, als „Kalender” bezeichnet; – Symbol 428 für das Bildverwaltungsmodul 144, als „Fotos” bezeichnet; – ein Symbol 430 für das Kameramodul 143, als „Kamera” bezeichnet; – ein Symbol 432 für das Online-Video-Modul 155, als „Online-Video” bezeichnet; – ein Symbol 434 für das Aktien-Widget 149-2, als „Aktien” bezeichnet; – ein Symbol 436 für das Kartenmodul 154, als „Karte” bezeichnet; – ein Symbol 438 für das Wetter-Widget 149-1, als „Wetter” bezeichnet; – ein Symbol 440 für das Wecker-Widget 149-4, als „Uhr” bezeichnet; – ein Symbol 442 für das Trainingsunterstützungsmodul 142, als „Trainingsunterstützung” bezeichnet; – ein Symbol 444 für das Notizenmodul 153, als „Notizen” bezeichnet; – ein Symbol 446 für eine Einstellungsanwendung oder ein Modul, die/das einen Zugriff auf Einstellungen für die Vorrichtung 100 und deren verschiedene Anwendungen 136 bereitstellt.
  • Es sei angemerkt, dass die in 4A veranschaulichten Symbolbezeichnungen lediglich beispielhaft sind. Zum Beispiel ist das Symbol 422 für das Video- und Musikplayermodul 152 in einigen Ausführungsformen als „Musik” oder „Musikplayer” bezeichnet. Andere Bezeichnungen werden optional für verschiedene Anwendungssymbole verwendet. In einigen Ausführungsformen beinhaltet eine Bezeichnung für ein jeweiliges Anwendungssymbol einen Namen einer dem jeweiligen Anwendungssymbol entsprechenden Anwendung. In einigen Ausführungsformen unterscheidet sich eine Bezeichnung für ein bestimmtes Anwendungssymbol von einem Namen einer dem bestimmten Anwendungssymbol entsprechenden Anwendung.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle auf einer Vorrichtung (z. B. der Vorrichtung 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. einem Tablet oder einem Touchpad 355, 3), die getrennt von der Anzeige 450 ist. Obwohl viele der folgenden Beispiele unter Bezugnahme auf Eingaben auf der Touchscreen-Anzeige 112 angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche, die getrennt von der Anzeige ist, wie in 4B gezeigt ist. In einigen Ausführungsformen weist die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse auf (z. B. 452 in 4B), die einer primären Achse (z. B. 453 in 4B) auf der Anzeige (z. B. 450) entspricht. In Übereinstimmung mit diesen Ausführungsformen erkennt die Vorrichtung Kontakte (z. B. 460 und 462 in 4B) mit der berührungsempfindlichen Oberfläche 451 an Stellen, die jeweiligen Stellen auf der Anzeige entsprechen (z. B. entspricht 460 in 4B der 468 und 462 entspricht der 470). Auf diese Weise werden Benutzereingaben (z. B. Kontakte 460 und 462 und Bewegungen davon), die durch die Vorrichtung auf der berührungsempfindlichen Oberfläche erkannt werden (z. B. 451 in 4B), von der Vorrichtung dazu verwendet, die Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) der Multifunktionsvorrichtung zu manipulieren, wenn die berührungsempfindliche Oberfläche getrennt von der Anzeige ist. Es sollte klar sein, dass ähnliche Verfahren optional für andere hierin beschriebene Benutzerschnittstellen verwendet werden.
  • Während die folgenden Beispiele hauptsächlich unter Bezugnahme auf Fingereingaben (z. B. Fingerkontakte, Fingertippgesten, Fingerwischgesten usw.) angeführt werden, sollte außerdem klar sein, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch eine Eingabe von einer anderen Eingabevorrichtung ersetzt werden (z. B. durch eine mausbasierte Eingabe oder eine Stifteingabe). Zum Beispiel wird eine Wischgeste optional durch einen Mausklick ersetzt (z. B. anstelle eines Kontakts), gefolgt von einer Bewegung des Cursors entlang des Pfades des Wischens (z. B. anstelle der Bewegung des Kontakts). Als weiteres Beispiel wird eine Tippgeste optional durch einen Mausklick ersetzt, während sich der Cursor über der Stelle der Tippgeste befindet (z. B. anstelle des Erkennens des Kontakts, gefolgt von dem Aufhören des Erkennens des Kontakts). Auf ähnliche Weise sollte klar sein, dass, wenn mehrere Benutzereingaben simultan erkannt werden, mehrere Computermäuse optional simultan verwendet werden, oder eine Maus und Fingerkontakte optional simultan verwendet werden.
  • Die Verwendung des Ausdrucks „Fokusselektor” hierin bezieht sich auf ein Eingabeelement, das einen aktuellen Teil einer Benutzerschnittstelle angibt, mit dem ein Benutzer interagiert. In einigen Umsetzungen, die einen Cursor oder anderen Positionsmarkierer beinhalten, dient der Cursor als „Fokusselektor”, sodass beim Erkennen einer Eingabe (z. B. einer Druckeingabe) auf einer berührungsempfindlichen Oberfläche (z. B. dem Touchpad 355 in 3 oder der berührungsempfindlichen Oberfläche 451 in 4B), während sich der Cursor über einem bestimmten Benutzerschnittstellenelement (z. B. einer Schaltfläche, einem Fenster, einem Schiebeschalter oder einem anderen Benutzerschnittstellenelement) befindet, das bestimmte Benutzerschnittstellenelement in Übereinstimmung mit der erkannten Eingabe eingestellt wird. In einigen Umsetzungen, die eine Touchscreen-Anzeige (z. B. das berührungsempfindliche Anzeigesystem 112 in 1A oder der Touchscreen in 4A) beinhalten, die eine direkte Interaktion mit Benutzerschnittstellenelementen auf der Touchscreen-Anzeige ermöglicht, dient ein erkannter Kontakt auf dem Touchscreen als „Fokusselektor”, sodass beim Erkennen einer Eingabe (z. B. einer Druckeingabe durch den Kontakt) auf der Touchscreen-Anzeige an einer Position eines bestimmten Benutzerschnittstellenelements (z. B. einer Schaltfläche; einem Fenster, einem Schiebeschalter oder einem anderen Benutzerschnittstellenelement) das bestimmte Benutzerschnittstellenelement in Übereinstimmung mit der erkannten Eingabe eingestellt wird. In einigen Umsetzungen wird der Fokus ohne entsprechende Bewegung eines Cursors oder Bewegung eines Kontakts auf einer Touchscreen-Anzeige (z. B. unter Verwendung einer Tabulatortaste oder von Pfeiltasten zum Verschieben des Fokus von einer Schaltfläche auf eine andere Schaltfläche) von einem Bereich einer Benutzerschnittstelle auf einen anderen Bereich der Benutzerschnittstelle verschoben; in diesen Umsetzungen bewegt sich der Fokusselektor in Übereinstimmung mit der Fokusbewegung zwischen verschiedenen Bereichen der Benutzerschnittstelle. Unabhängig von der spezifischen Form, die der Fokusselektor annimmt, ist der Fokusselektor allgemein das Benutzerschnittstellenelement (oder der Kontakt auf einer Touchscreen-Anzeige), das von dem Benutzer gesteuert wird, um so die vom Benutzer beabsichtigte Interaktion mit der Benutzerschnittstelle zu kommunizieren (z. B. indem der Vorrichtung das Element der Benutzerschnittstelle mitgeteilt wird, mit welcher der Benutzer versucht, zu interagieren). Zum Beispiel gibt die Position eines Fokusselektors (z. B. eines Cursors, eines Kontakts oder einer Auswahlbox) über eine jeweilige Schaltfläche, während auf der berührungsempfindlichen Oberfläche (z. B. einem Touchpad oder Touchscreen) eine Druckeingabe erkannt wird, an, dass der Benutzer versucht, die entsprechende Schaltfläche zu aktivieren (im Gegensatz zu anderen auf einer Anzeige der Vorrichtung gezeigten Benutzerschnittstellenelementen).
  • Die Verwendung des Ausdrucks „Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche in der Beschreibung und den Ansprüchen bezieht sich auf die Kraft oder den Druck (Kraft pro Flächeneinheit) eines Kontakts (z. B. eines Fingerkontakts oder eines Eingabestiftkontakts) auf der berührungsempfindlichen Oberfläche oder auf einen Ersatz (Stellvertreter) für die Kraft oder den Druck eines Kontakts auf der berührungsempfindlichen Oberfläche. Die Intensität eines Kontakts weist einen Wertebereich auf, der mindestens vier einzelne Werte beinhaltet und üblicherweise eher hunderte von einzelnen Werten beinhaltet (z. B. mindestens 256). Die Intensität eines Kontakts wird optional unter Verwendung verschiedener Ansätze und verschiedener Sensoren oder Kombinationen von Sensoren ermittelt (oder gemessen). Ein oder mehrere sich unter oder neben der berührungsempfindlichen Oberfläche befindliche Kraftsensoren werden zum Beispiel optional zum Messen von Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche verwendet. In einigen Umsetzungen werden Kraftmessungen von mehreren Kraftsensoren zum Ermitteln einer geschätzten Kraft eines Kontakts kombiniert (z. B. als gewichteter Durchschnitt oder Summe). Gleichermaßen wird optional eine druckempfindliche Spitze eines Stifts zum Ermitteln eines Drucks des Eingabestifts auf der berührungsempfindlichen Oberfläche verwendet. Alternativ werden die Größe der auf der berührungsempfindlichen Oberfläche erkannten Kontaktfläche und/oder Änderungen daran, der kapazitive Widerstand der berührungsempfindlichen Oberfläche nahe des Kontakts und/oder Änderungen daran, und/oder der ohmsche Widerstand der berührungsempfindlichen Oberfläche nahe des Kontakts und/oder Änderungen daran optional als Ersatz für die Kraft oder den Druck des Kontakts auf der berührungsempfindlichen Oberfläche verwendet. In einigen Umsetzungen werden die Ersatzmessungen für die Kontaktkraft oder den Druck direkt zum Ermitteln verwendet, ob eine Intensitätsschwelle überschritten wurde (z. B. wird die Intensitätsschwelle in Einheiten beschrieben, die den Ersatzmessungen entsprechen). In einigen Umsetzungen werden die Ersatzmessungen für die Kontaktkraft oder den Druck in eine geschätzte Kraft oder einen geschätzten Druck umgewandelt, und die geschätzte Kraft oder der geschätzte Druck zum Ermitteln verwendet, ob eine Intensitätsschwelle überschritten wurde (z. B. handelt es sich bei der Intensitätsschwelle um eine in Druckeinheiten gemessenen Druckschwelle). Das Verwenden der Intensität eines Kontakts als Attribut einer Benutzereingabe ermöglicht einen Benutzerzugriff auf eine zusätzliche Vorrichtungsfunktionalität, die andernfalls auf einer Vorrichtung mit verringerter Größe und eingeschränkter Grundfläche zum Anzeigen von Aufforderungen (z. B. auf einer berührungsempfindlichen Anzeige) und/oder zum Empfangen von Benutzereingaben (z. B. über eine berührungsempfindliche Anzeige, eine berührungsempfindliche Oberfläche oder eine physische/mechanische Steuerung wie zum Beispiel einen Knopf oder eine Taste) für den Benutzer nicht ohne Weiteres zugänglich wäre.
  • In einigen Ausführungsformen verwendet das Kontakt/Bewegungs-Modul 130 einen Satz von einer oder mehreren Intensitätsschwellen zum Ermitteln, ob eine Operation durch einen Benutzer ausgeführt wurde (z. B. zum Ermitteln, ob ein Benutzer auf ein Symbol „geklickt” hat). In einigen Ausführungsformen wird zumindest eine Teilmenge der Intensitätsschwellen gemäß Softwareparametern ermittelt (z. B. werden die Intensitätsschwellen nicht durch die Aktivierungsschwellen bestimmter physischer Auslöser ermittelt und können ohne Ändern der physischen Hardware der Vorrichtung 100 angepasst werden). Zum Beispiel kann eine Maus-„Klick”-Schwelle eines Trackpads oder einer Touchscreen-Anzeige auf einen beliebigen aus einem großen Bereich von vordefinierten Schwellwerten gesetzt werden, ohne die Trackpad- oder Touchscreen-Anzeige-Hardware zu ändern. Zusätzlich werden in einigen Umsetzungen einem Benutzer der Vorrichtung Softwareeinstellungen zum Anpassen einer oder mehrerer aus dem Satz von Intensitätsschwellen bereitgestellt (z. B. durch Anpassen von individuellen Intensitätsschwellen und/oder durch Anpassen von mehreren Intensitätsschwellen gleichzeitig mit einem Systemebenen-Klick-„Intensitäts”-Parameter).
  • Die Verwendung des Ausdrucks „charakteristische Intensität” eines Kontakts in der Beschreibung und den Ansprüchen bezieht sich auf eine Eigenschaft des Kontakts auf Grundlage von einer oder mehreren Intensitäten des Kontakts. In einigen Ausführungsformen beruht die charakteristische Intensität auf mehreren Intensitätsabtastwerten. Die charakteristische Intensität basiert optional auf einer vordefinierten Anzahl von Intensitätsabtastwerten oder einem Satz von Intensitätsabtastwerten, die während einer vorher festgelegten Zeitspanne (z. B. 0,05, 0,1, 0,2, 0,5, 1, 2, 5, 10 Sekunden) relativ zu einem vordefinierten Ereignis erfasst wurden (z. B. nach dem Erkennen des Kontakts, vor dem Erkennen des Abhebens des Kontakts, vor oder nach dem Erkennen eines Beginns einer Bewegung des Kontakts, vor dem Erkennen eines Endes des Kontakts, vor oder nach dem Erkennen einer Erhöhung der Intensität des Kontakts und/oder vor oder nach dem Erkennen einer Verringerung der Intensität des Kontakts). Eine charakteristische Intensität eines Kontakts basiert optional auf einem oder mehreren der Folgenden: einem Maximalwert der Intensitäten des Kontakts, einem Mittelwert der Intensitäten des Kontakts, einem Durchschnittswert der Intensitäten des Kontakts, einem Top-Ten-Perzentilwert der Intensitäten des Kontakts, einem Wert, der dem halben Maximalwert der Intensitäten des Kontakts entspricht, einem Wert, der 90 Prozent des Maximalwerts der Intensitäten des Kontakts entspricht, oder dergleichen. In einigen Ausführungsformen wird die Dauer des Kontakts beim Ermitteln der charakteristischen Intensität verwendet (z. B. wenn die charakteristische Intensität ein Durchschnitt der Intensität des Kontakts im Zeitverlauf ist). In einigen Ausführungsformen wird die charakteristische Intensität mit einem Satz von einer oder mehreren Intensitätsschwellen verglichen, um zu ermitteln, ob eine Operation durch einen Benutzer ausgeführt wurde. Zum Beispiel kann der Satz von einer oder mehreren Intensitätsschwellen eine erste Intensitätsschwelle und eine zweite Intensitätsschwelle beinhalten. In diesem Beispiel hat ein Kontakt mit einer charakteristischen Intensität, welche die erste Schwelle nicht übersteigt, eine erste Operation zur Folge, ein Kontakt mit einer charakteristischen Intensität, welche die erste Intensitätsschwelle übersteigt und die zweite Intensitätsschwelle nicht übersteigt, hat eine zweite Operation zur Folge, und ein Kontakt mit einer charakteristischen Intensität, welche die zweite Intensitätsschwelle übersteigt, hat eine dritte Operation zur Folge. In einigen Ausführungsformen wird ein Vergleich zwischen der charakteristischen Intensität und einer oder mehreren Intensitätsschwellen dazu verwendet, zu ermitteln, ob eine oder mehrere Operationen durchgeführt werden sollen (z. B. ob eine entsprechende Option durchgeführt oder auf das Durchführen der jeweiligen Operation verzichtet werden soll), anstatt dazu verwendet zu werden, zu ermitteln, ob eine erste Operation oder eine zweite Operation durchgeführt werden soll.
  • In einigen Ausführungsformen wird ein Teil einer Geste zum Zwecke des Ermittelns einer charakteristischen Intensität identifiziert. Zum Beispiel kann eine berührungsempfindliche Oberfläche einen ununterbrochenen Wischkontakt empfangen, der von einer Anfangsposition hin zu einer Endposition verläuft (z. B. eine Ziehgeste), an welchem Punkt die Intensität des Kontakts zunimmt. In diesem Beispiel kann die charakteristische Intensität des Kontakts an der Endposition lediglich auf einem Teil des ununterbrochenen Wischkontakts basieren, und nicht auf dem gesamten Wischkontakt (z. B. lediglich auf dem Teil des Wischkontakts an der Endposition). In einigen Ausführungsformen kann vor dem Ermitteln der charakteristischen Intensität des Kontakts ein Glättungsalgorithmus auf die Intensitäten des Wischkontakts angewendet werden. Zum Beispiel beinhaltet der Glättungsalgorithmus optional einen oder mehrere der Folgenden: einen ungewichteten Gleitdurchschnitt-Glättungsalgorithmus, einen triangularen Glättungsalgorithmus, einen Medianfilter-Glättungsalgorithmus und/oder einen Exponential-Glättungsalgorithmus. In bestimmten Fällen beseitigen diese Glättungsalgorithmen schmale Spitzen oder Abfälle der Intensitäten des Wischkontakts zum Zwecke des Ermittelns einer charakteristischen Intensität.
  • Die hierin beschriebenen Benutzerschnittstellenfiguren beinhalten optional verschiedene Intensitätsdiagramme, welche die aktuelle Intensität des Kontakts auf der berührungsempfindlichen Oberfläche relativ zu einer oder mehreren Intensitätsschwellen zeigen (z. B. eine Kontakterkennungs-Intensitätsschwelle ITo, eine Leicht-Drücken-Intensitätsschwelle ITL, eine Fest-Drücken-Intensitätsschwelle ITD (die zumindest anfangs z. B. höher als IL ist) und/oder eine oder mehrere andere Intensitätsschwellen (z. B. eine Intensitätsschwelle IH die niedriger als IL ist)). Dieses Intensitätsdiagramm ist üblicherweise nicht Teil der angezeigten Benutzerschnittstelle, sondern wird bereitgestellt, um bei der Auslegung der Figuren behilflich zu sein. In einigen Ausführungsformen entspricht die Leicht-Drücken-Intensitätsschwelle einer Intensität, bei der die Vorrichtung Operationen durchführt, die üblicherweise mit dem Klicken einer Taste einer physischen Maus oder eines Trackpads verbunden sind. In einigen Ausführungsformen entspricht die Fest-Drücken-Intensitätsschwelle einer Intensität, bei der die Vorrichtung Operationen durchführt, die sich von den Operationen unterscheiden, die üblicherweise mit dem Klicken einer Taste einer physischen Maus oder eines Trackpads verbunden sind. In einigen Ausführungsformen bewegt die Vorrichtung, wenn ein Kontakt mit einer charakteristischen Intensität erkannt wird, die unter der Leicht-Drücken-Intensitätsschwelle liegt (z. B. und über einer nominalen Kontakterkennungs-Intensitätsschwelle ITo, unter welcher der Kontakt nicht mehr erkannt wird), einen Fokusselektor in Übereinstimmung mit der Bewegung des Kontakts auf der berührungsempfindlichen Oberfläche, ohne eine Operation durchzuführen, die mit der Leicht-Drücken-Intensitätsschwelle oder der Fest-Drücken-Intensitätsschwelle verbunden ist. Allgemein sind diese Intensitätsschwellen in verschiedenen Sätzen von Benutzerschnittstellenfiguren gleichbleibend, soweit nicht anderweitig angegeben.
  • In einigen Ausführungsformen hängt die Reaktion der Vorrichtung auf durch die Vorrichtung erkannte Eingaben von Kriterien ab, die auf der Kontaktintensität während der Eingabe basieren. Zum Beispiel wird bei einigen „Leicht-Drücken”-Eingaben eine erste Reaktion ausgelöst, wenn die Intensität eines Kontakts während der Eingabe eine erste Intensitätsschwelle übersteigt. In einigen Ausführungsformen hängt die Reaktion der Vorrichtung auf durch die Vorrichtung erkannte Eingaben von Kriterien ab, die sowohl die Kontaktintensität während der Eingabe als auch zeitbasierende Kriterien beinhalten. Zum Beispiel wird bei einigen „Fest-Drücken”-Eingaben, wenn die Intensität eines Kontakts während der Eingabe eine zweite Intensitätsschwelle übersteigt, die höher ist als die erste Intensitätsschwelle für ein leichtes Drücken, eine zweite Reaktion nur dann ausgelöst, wenn eine Verzögerungszeit zwischen dem Erreichen der ersten Intensitätsschwelle und dem Erreichen der zweiten Intensitätsschwelle verstrichen ist. Diese Verzögerungszeit weist üblicherweise eine Dauer von weniger als 200 ms auf (z. B. 40, 100 oder 120 ms, abhängig von der Größenordnung der zweiten Intensitätsschwelle, wobei die Verzögerungszeit zunimmt, wenn die zweite Intensitätsschwelle höher wird). Diese Verzögerungszeit hilft dabei, versehentliche Fest-Drücken-Eingaben zu vermeiden. Als anderes Beispiel gibt es für einige „Fest-Drücken”-Eingaben eine Zeitspanne mit verringerter Empfindlichkeit, die nach dem Zeitpunkt stattfindet, an dem die erste Intensitätsschwelle erreicht wird. Während der Zeitspanne mit verringerter Empfindlichkeit wird die zweite Intensitätsschwelle erhöht. Diese vorübergehende Erhöhung der zweiten Intensitätsschwelle hilft auch dabei, versehentliche Fest-Drücken-Eingaben zu vermeiden. Für andere Fest-Drücken-Eingaben hängt die Reaktion auf das Erkennen einer Fest-Drücken-Eingabe nicht von zeitbasierenden Kriterien ab.
  • In einigen Ausführungsformen variieren eine oder mehrere der Eingabe-Intensitätsschwellen und/oder die entsprechenden Ausgaben auf Grundlage eines oder mehrerer Faktoren wie zum Beispiel Benutzereinstellungen, Kontaktbewegung, Eingabezeitpunkt, Anwendungsausführung, Geschwindigkeit, mit der die Intensität ausgeübt wird, Anzahl von gleichzeitigen Eingaben, Benutzerhistorie, Umgebungsfaktoren (z. B. Umgebungsgeräusch), Position des Fokusselektors und dergleichen. Beispielhafte Faktoren sind in der US-Patentanmeldung mit den Anmeldenummern 14/399,606 und 14/624,296 beschrieben, die hierin durch Bezugnahme in vollem Umfang aufgenommen werden.
  • Zum Beispiel veranschaulicht 4C eine dynamische Intensitätsschwelle 480, die sich teilweise auf Grundlage der Intensität der Touch-Eingabe 476 im Zeitverlauf ändert. Die dynamische Intensitätsschwelle 480 ist eine Summe von zwei Komponenten, einer ersten Komponente 474, die im Zeitverlauf nach einer vordefinierten Verzögerungszeit p1 ab dem Zeitpunkt, an dem die Touch-Eingabe 476 erstmals erkannt wird, abnimmt, und einer zweiten Komponente 478, welche die Intensität der Touch-Eingabe 476 im Zeaverlauf verfolgt. Die ursprüngliche hohe Intensitätsschwelle der ersten Komponente 474 verringert ein versehentliches Auslösen einer Reaktion auf ein „festes Drücken”, während sie dennoch eine unmittelbare Reaktion auf ein „festes Drücken” zulässt, wenn die Touch-Eingabe 476 eine ausreichend hohe Intensität bereitstellt. Die zweite Komponente 478 verringert ein unbeabsichtigtes Auslösen einer Reaktion auf ein „festes Drücken” durch schrittweise Intensitätsfluktuationen in einer Touch-Eingabe. In einigen Ausführungsformen wird die Reaktion auf ein „festes Drücken” ausgelöst, wenn die Touch-Eingabe 476 die dynamische Intensitätsschwelle 480 erfüllt (z. B. an Punkt 481 in 4C).
  • 4D veranschaulicht eine andere dynamische Intensitätsschwelle 486 (z. B. die Intensitätsschwelle ID). 4D veranschaulicht auch zwei andere Intensitätsschwellen: eine erste Intensitätsschwelle IH und eine zweite Intensitätsschwelle IL. Obwohl die Touch-Eingabe 484 in 4D die erste Intensitätsschwelle IH und die zweite Intensitätsschwelle IL vor dem Zeitpunkt p2 erfüllt, wird keine Reaktion bereitgestellt, bis die Verzögerungszeit P2 bei Zeitpunkt 482 verstrichen ist. Auch nimmt die Intensitätsschwelle 486 in 4D im Zeitverlauf ab, wobei die Abnahme bei Zeitpunkt 488 beginnt, nachdem eine vordefinierte Verzögerungszeit ab Zeitpunkt 482 verstrichen ist (als die mit der zweiten Intensitätsschwelle IL verbundene Reaktion ausgelöst wurde). Dieser Typ dynamische Intensitätsschwelle verringert ein versehentliches Auslösen einer mit der dynamischen Intensitätsschwelle ID verbundenen Reaktion unmittelbar nach oder gleichzeitig mit dem Auslösen einer Reaktion, die mit einer niedrigeren Intensitätsschwelle wie zum Beispiel der ersten Intensitätsschwelle IH oder der zweiten Intensitätsschwelle IL verbunden ist.
  • 4E veranschaulicht noch eine andere dynamische Intensitätsschwelle 492 (z. B. die Intensitätsschwelle ID). In 4E wird eine mit der zweiten Intensitätsschwelle IL verbundene Reaktion ausgelöst, nachdem die Verzögerungszeit p2 ab dem Zeitpunkt, an dem die Touch-Eingabe 490 erstmals erkannt wird, verstrichen ist. Gleichzeitig nimmt die dynamische Intensitätsschwelle 492 ab, nachdem die vordefinierte Verzögerungszeit p1 ab dem Zeitpunkt, an dem die Touch-Eingabe 490 erstmals erkannt wird, verstrichen ist. Somit kann eine Verringerung der Intensität der Touch-Eingabe 490 nach dem Auslösen der mit der Intensitätsschwelle IL verbundenen Reaktion, gefolgt von einer Erhöhung der Intensität der Touch-Eingabe 490, ohne die Touch-Eingabe 490 zu beenden, eine Reaktion auslösen, die mit der Intensitätsschwelle ID verbunden ist (z. B. bei Zeitpunkt 494), selbst wenn die Intensität der Touch-Eingabe 490 unter einer anderen Intensitätsschwelle wie zum Beispiel der Intensitätsschwelle IL liegt.
  • Eine Erhöhung der charakteristischen Intensität des Kontakts von einer Intensität von unter der Leicht-Drücken-Intensitätsschwelle ITL auf eine Intensität zwischen der Leicht-Drücken-Intensitätsschwelle ITL und der Fest-Drücken-Intensitätsschwelle ITD wird manchmal eine „Leicht-Drücken”-Eingabe genannt. Eine Erhöhung der charakteristischen Intensität des Kontakts von einer Intensität von unter der Fest-Drücken-Intensitätsschwelle ITD auf eine Intensität über der Fest-Drücken-Intensitätsschwelle ITD wird manchmal eine „Fest-Drücken”-Eingabe genannt. Eine Erhöhung der charakteristischen Intensität des Kontakts von einer Intensität von unter der Kontakterkennungs-Intensitätsschwelle ITo auf eine Intensität zwischen der Kontakterkennungs-Intensitätsschwelle ITo und der Leicht-Drücken-Intensitätsschwelle ITL wird manchmal als das Erkennen des Kontakts auf der Touch-Oberfläche bezeichnet. Eine Verringerung der charakteristischen Intensität des Kontakts von einer Intensität von über der Kontakterkennungs-Intensitätsschwelle ITo auf eine Intensität unter der Kontakterkennungs-Intensitätsschwelle ITo wird manchmal als das Erkennen des Abhebens des Kontakts von der Touch-Oberfläche bezeichnet. In einigen Ausführungsformen ist ITo gleich null. In einigen Ausführungsformen ist ITo größer als null. In einigen Abbildungen wird ein schattierter Kreis oder ein schattiertes Oval verwendet, um die Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche darzustellen. In einigen Abbildungen wird ein Kreis oder ein Oval ohne Schattierung verwendet, um einen jeweiligen Kontakt auf der berührungsempfindlichen Oberfläche darzustellen, ohne die Intensität des jeweiligen Kontakts zu spezifizieren.
  • In einigen hierin beschriebenen Ausführungsformen werden als Reaktion auf das Erkennen einer Geste, die eine jeweilige Drücken-Eingabe beinhaltet, oder als Reaktion auf das Erkennen, dass die jeweilige Drücken-Eingabe mit einem jeweiligen Kontakt (oder mehreren Kontakten) durchgeführt wird, eine oder mehrere Operationen durchgeführt, wobei die jeweilige Drücken-Eingabe zumindest teilweise auf Grundlage des Erkennens einer Erhöhung der Intensität des Kontakts (oder der mehreren Kontakte) auf über eine Drücken-Eingabe-Intensitätsschwelle erkannt wird. In einigen Ausführungsformen wird die Operation als Reaktion auf das Erkennen der Erhöhung der Intensität des jeweiligen Kontakts auf über die Drücken-Eingabe-Intensitätsschwelle durchgeführt (z. B. wird die jeweilige Operation bei einem „Abwärtshub” der jeweiligen Drücken-Eingabe durchgeführt). In einigen Ausführungsformen beinhaltet die Drücken-Eingabe eine Erhöhung der Intensität des jeweiligen Kontakts auf über die Drücken-Eingabe-Intensitätsschwelle und eine anschließende Verringerung der Intensität des jeweiligen Kontakts auf unter die Drücken-Eingabe-Intensitätsschwelle, und die jeweilige Operation wird als Reaktion auf das Erkennen der anschließenden Verringerung der Intensität des jeweiligen Kontakts auf unter die Drücken-Eingabe-Intensitätsschwelle durchgeführt (z. B. wird die jeweilige Operation bei einem „Aufwärtshub” der jeweiligen Drücken-Eingabe durchgeführt).
  • In einigen Ausführungsformen setzt die Vorrichtung eine Intensitätshysterese ein, um versehentliche Eingaben zu vermeiden, die manchmal „Jitter” genannt werden, wobei die Vorrichtung eine Hysterese-Intensitätsschwelle mit einer vordefinierten Beziehung zu der Drücken-Eingabe-Intensitätsschwelle definiert oder auswählt (z. B. ist die Hysterese-Intensitätsschwelle X Intensitätseinheiten niedriger als die Drücken-Eingabe-Intensitätsschwelle, oder die Hysterese-Intensitätsschwelle beträgt 75%, 90% oder irgendein realistisches Verhältnis der Drücken-Eingabe-Intensitätsschwelle). Somit beinhaltet die Drücken-Eingabe in einigen Ausführungsformen eine Erhöhung der Intensität des jeweiligen Kontakts auf über die Drücken-Eingabe-Intensitätsschwelle und eine anschließende Verringerung der Intensität des jeweiligen Kontakts auf unter die Hysterese-Intensitätsschwelle, die der Drücken-Eingabe-Intensitätsschwelle entspricht, und die jeweilige Operation wird als Reaktion auf das Erkennen der anschließenden Verringerung der Intensität des jeweiligen Kontakts auf unter die Hysterese-Intensitätsschwelle durchgeführt (z. B. wird die jeweilige Operation bei einem „Aufwärtshub” der jeweiligen Drücken-Eingabe durchgeführt). Gleichermaßen wird die Drücken-Eingabe in einigen Ausführungsformen nur dann erkannt, wenn die Vorrichtung eine Erhöhung der Intensität des Kontakts von einer Intensität von gleich oder unter der Hysterese-Intensitätsschwelle auf eine Intensität von gleich oder über die Drücken-Eingabe-Intensitätsschwelle erkennt, und die jeweilige Operation wird als Reaktion auf das Erkennen der Drücken-Eingabe durchgeführt (z. B. die Erhöhung der Intensität des Kontakts oder die Verringerung der Intensität des Kontakts, abhängig von den Umständen).
  • Zur Vereinfachung der Erklärung wird die Beschreibung von Operationen, die als Reaktion auf eine Drücken-Eingabe, die mit einer Drücken-Eingabe-Intensitätsschwelle verbunden ist, oder als Reaktion auf eine Geste, welche die Drücken-Eingabe beinhaltet, optional als Reaktion auf das Erkennen des Folgenden durchgeführt: eine Erhöhung der Intensität eines Kontakts auf über die Drücken-Eingabe-Intensitätsschwelle, eine Erhöhung der Intensität eines Kontakts von einer Intensität von unter der Hysterese-Intensitätsschwelle auf eine Intensität auf über die Drücken-Eingabe-Intensitätsschwelle, eine Verringerung der Intensität des Kontakts auf unter die Drücken-Eingabe-Intensitätsschwelle oder eine Verringerung der Intensität des Kontakts auf unter die Hysterese-Intensitätsschwelle, die der Drücken-Eingabe-Intensitätsschwelle entspricht. Zusätzlich wird in Beispielen, in denen eine Operation so beschrieben ist, dass sie als Reaktion auf das Erkennen einer Verringerung der Intensität des Kontakts auf unter die Drücken-Eingabe-Intensitätsschwelle durchgeführt wird, optional als Reaktion auf das Erkennen einer Verringerung der Intensität des Kontakts auf unter eine Hysterese-Intensitätsschwelle durchgeführt, die der Drücken-Eingabe-Intensitätsschwelle entspricht und niedriger als diese ist. Wie vorstehend beschrieben, hängt das Auslösen dieser Reaktionen in einigen Ausführungsformen auch davon ab, dass zeitbasierende Kriterien erfüllt werden (z. B. ist eine Verzögerungszeit zwischen dem Erreichen einer ersten Intensitätsschwelle und dem Erreichen einer zweiten Intensitätsschwelle verstrichen).
  • BENUTZERSCHNITTSTELLEN UND ZUGEHÖRIGE PROZESSE
  • Die Aufmerksamkeit wird nun auf Ausführungsformen von Benutzerschnittstellen („UI”) und zugehörige Prozesse gerichtet, die auf einer elektronischen Vorrichtung wie zum Beispiel der tragbaren Multifunktionsvorrichtung 100 oder der Vorrichtung 300 mit einer Anzeige, einer berührungsempfindlichen Oberfläche und optional einem oder mehreren Sensoren zum Erkennen von Intensitäten von Kontakten auf der berührungsempfindlichen Oberfläche umgesetzt sein können.
  • Die 5A5K veranschaulichen beispielhafte Benutzerschnittstellen zum Einfangen einer gruppierten Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Einer einfachen Erklärung halber werden einige der Ausführungsformen unter Bezugnahme auf Operationen erörtert, die auf einer Vorrichtung mit einem berührungsempfindlichen Anzeigesystem 112 durchgeführt werden. In derartigen Ausführungsformen handelt es sich bei dem Fokusselektor optional um: einen jeweiligen Finger- oder Eingabestiftkontakt, einen jeweiligen Punkt, der einem Finger- oder Eingabestiftkontakt entspricht (z. B. einen Schwerpunkt eines jeweiligen Kontakts oder einen Punkt, der einem jeweiligen Kontakt zugehörig ist) oder einen Schwerpunkt von zwei oder mehr Kontakten, die auf dem berührungsempfindlichen Anzeigesystem 112 erkannt werden. Jedoch werden analoge Operationen optional auf einer Vorrichtung mit einer Anzeige 450 und einer getrennten berührungsempfindlichen Oberfläche 451 als Reaktion auf das Erkennen der Kontakte auf der berührungsempfindlichen Oberfläche 451 durchgeführt, während die in den Figuren auf der Anzeige 450 gezeigten Benutzerschnittstellen gemeinsam mit einem Fokusselektor angezeigt werden.
  • 5A veranschaulicht eine Medieneinfang-Benutzerschnittstelle 500 zur Anzeige einer Live-Vorschau auf dem Touchscreen 112. Bei der in 5A veranschaulichten Live-Vorschau handelt es sich um eine Vorschau von Bildern, die von einer Kamera in einer portablen Multifunktionsvorrichtung 100 erhalten wurden (z. B. von dem Kameramodul 143 gemeinsam mit dem optischen Sensor 164). Die Live-Vorschau auf der Medieneinfang-Benutzerschnittstelle 500 zeigt Bilder an, die von der Kamera in Echtzeit oder Nahe-Echtzeit (z. B. innerhalb einer von der tragbaren Multifunktionsvorrichtung 100 zum Erzeugen des angezeigten Bildes benötigten Verarbeitungszeit) erhalten wurden. Somit betrachtet der Benutzer in dem in 5A gezeigten Bild eine Szene mit einer Möwe 502, die im Himmel über einen Baum 504 fliegt, und die tragbare Multifunktionsvorrichtung 100 reproduziert die Szene in Echtzeit oder Nahe-Echtzeit auf dem Touchscreen 112. In einigen Ausführungsformen zeigt die Live-Vorschau Bilder mit einer ersten Auflösung an (die z. B. geringer ist als eine Auflösungsobergrenze der Kamera).
  • In diesem Beispiel ist die tragbare Multifunktionsvorrichtung 100, während der Live-Vorschau so konfiguriert, dass sie sich in einem erweiterten Medienerfassungsmodus (in dem die tragbare Multifunktionsvorrichtung 100 z. B. so konfiguriert, dass sie erweiterte Fotos erhält) oder in einem anderen Medienerfassungsmodus befindet (in dem die tragbare Multifunktionsvorrichtung 100 z. B. so konfiguriert, dass sie Standbilder, Video, Serienbilder oder einen beliebigen anderen Bildtyp erhält). In einigen Ausführungsformen beinhaltet die Medieneinfang-Benutzerschnittstelle 500 eine Aufforderung 506 zum Aktivieren des erweiterten Medienerfassungsmodus (z. B. Ein-/Aus-/Umschalten des erweiterten Medienerfassungsmodus). In einigen Ausführungsformen beinhaltet die Medieneinfang-Benutzerschnittstelle 500 eine visuelle Anzeige, dass der erweiterte Medienerfassungsmodus ausgeschaltet ist. Zum Beispiel zeigt die Aufforderung 506 in 5A das Wort ”AUS” an.
  • In einigen Ausführungsformen stellt die tragbare Multifunktionsvorrichtung 100, wenn der erweiterte Medienerfassungsmodus eingeschaltet ist, eine visuelle Anzeige bereit, dass der erweiterte Medienerfassungsmodus eingeschaltet ist (z. B. um anzuzeigen, dass Bild- und/oder Audiodaten eingefangen werden, während die Medieneinfang-Benutzerschnittstelle 500 angezeigt wird). Wenn zum Beispiel, wie in den 5C5H gezeigt, der erweiterte Medienerfassungsmodus eingeschaltet ist, wird die Aufforderung 506 mit einer Animation animiert, die eine Uhr mit einem Zeiger 508 zeigt, der auf der Uhr fortschreitet.
  • Wie in 5B gezeigt ist, erkennt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen das Auswählen der Aufforderung 506 (z. B. erkennt sie eine Tippgeste 510 auf der Aufforderung 506), während der erweiterte Medienerfassungsmodus deaktiviert ist. Als Reaktion darauf aktiviert die tragbare Multifunktionsvorrichtung 100 den erweiterten Medienerfassungsmodus (wie in den 5C5H durch die Animation der Aufforderung 506 gezeigt ist).
  • Die tragbare Multifunktionsvorrichtung 100 fängt Medien ein (z. B. Bilder und/oder Ton), wenn der erweiterte Medienerfassungsmodus eingeschaltet ist. Da der erweiterte Videomodus in den 5C5E eingeschaltet ist, werden ein Bild 512-1 (5C), ein Bild 512-2 (5D) und ein Bild 512-3 (5E) eingefangen (z. B. in dem dauerhaften Speicher gespeichert). In einigen Ausführungsformen wird auch ein den Bildern entsprechender Ton eingefangen (z. B. mit dem Mikrofon 113) und den Bildern zugewiesen (z. B. zum anschließenden Wiedergeben mit den Bildern, wie in den 6E6I gezeigt ist). In einigen Ausführungsformen werden andere Informationen (z. B. Metadaten wie zum Beispiel Zeit, Ort oder Ereignisdaten) erhalten und den eingefangenen Bildern zugewiesen (z. B. zum anschließenden Anzeigen, wie in den 6J6M gezeigt ist).
  • Die Medieneinfang-Benutzerschnittstelle 500 beinhaltet einen Auslöseknopf 514 (der als Verschlussauslösungssymbol veranschaulicht ist). Wie in 5F gezeigt ist, ist die Medieneinfang-Benutzerschnittstelle 500 so konfiguriert, dass sie die Aktivierung des Auslöseknopfes 514 (z. B. durch die Tippgeste 518) erkennt. Als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes 514 gruppiert die tragbare Multifunktionsvorrichtung 100 mehrere Bilder 512, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes 514 erfasst wurden, in eine Folge von Bildern (z. B. ein so genanntes „erweitertes Foto”). Das erweiterte Foto beinhaltet einige Bilder 512, die vor der Tippgeste 518 aufgenommen wurden (z. B. mindestens einige von Bild 512-1, Bild 512-2 und Bild 512-3, die, wie oben erwähnt, in dem dauerhaften Speicher gespeichert sind), ein stellvertretendes Bild (z. B. Bild 512-4, 5F, das der Aktivierung der Auslösung entspricht), und einige Bilder, die nach der Tippgeste 518 aufgenommen wurden (z. B. Bild 512-5, 5G, Bild 512-6, 5H).
  • In einigen Ausführungsformen ist das stellvertretende Bild analog zu einem Einzelbild, das in dem Standbildmodus einer herkömmlichen Digitalkamera eingefangen wird, wenn deren Auslöseknopf aktiviert wird. In einigen Ausführungsformen entspricht das stellvertretende Bild 512-4 einem Bild, das zu dem Zeitpunkt erfasst wurde, als der Auslöseknopf 514 durch die Tippgeste 518 aktiviert wurde. In einigen Ausführungsformen entspricht das stellvertretende Bild 512-4 einem Bild, das kurz nach dem Erkennen der Aktivierung des Auslöseknopfes 514 erfasst wurde, zu einem Zeitpunkt, der die Auslöseverzögerung berücksichtigt (die Zeitverzögerung zwischen dem Erkennen der Aktivierung des Auslöseknopfes und dem Einfangen/Speichern des stellvertretenden Bildes). In einigen Ausführungsformen wird das von der Kamera erfasste stellvertretende Bild 512-4 zum Darstellen der Folge von Bildern verwendet, zum Beispiel in einem Bildpräsentationsmodus (wie in 6A gezeigt ist).
  • Wie vorstehend erwähnt, zeigt die Live-Vorschau in einigen Ausführungsformen Bilder mit einer ersten Auflösung an. Die Folge von Bildern 512 beinhaltet in einigen Ausführungsformen Bilder mit der ersten Auflösung, die in der Live-Vorschau angezeigt wurden, während das von der Kamera erfasste stellvertretende Bild 512-4 eine zweite Auflösung aufweist, die höher ist als die erste Auflösung. Wie in 5I gezeigt ist, beinhaltet die Folge von Bildern 512 zum Beispiel (in chronologischer Reihenfolge): Bild 512-2; Bild 512-3; Bild 512-4; Bild 512-5; und Bild 512-6, wobei 512-4 das stellvertretende Bild ist. In einigen Ausführungsformen wird das stellvertretende Bild 512-4 mit einer höheren Auflösung gespeichert als Bild 512-2, Bild 512-3, Bild 512-5 oder Bild 512-6.
  • Wie in den 5F5H gezeigt ist, zeigt die Medieneinfang-Benutzerschnittstelle 500 in einigen Ausführungsformen nach Aktivierung des Auslöseknopfes 514 eine Animation an, während sie die übrigen Bilder einfängt, die in der gruppierten Folge von Bildern beinhaltet sein werden (z. B. wird die Animation angezeigt, während die tragbare Multifunktionsvorrichtung 100 das stellvertretende Bild 512-4 und die nach dem stellvertretenden Bild 512-4 erfassten Bilder einfängt). In den 5F5H zeigt die Medieneinfang-Benutzerschnittstelle 500 eine Animation an, in welcher der Auslöseknopf 514 auseinandergeht und sich wieder zusammenzieht (um z. B. dem Benutzer eine Anzeige bereitzustellen, dass noch immer Bilder und/oder Ton eingefangen werden). In einigen Ausführungsformen ist die Animation eine sich wiederholende Animation, die nahtlos erweitert werden kann, wenn der Auslöseknopf 514 gedrückt gehalten oder erneut aktiviert wird, bevor die Kamera das Erfassen von Bildern für die Folge von Bildern abgeschlossen hat.
  • In einigen Ausführungsformen kehrt die tragbare Multifunktionsvorrichtung 100 beim Beenden des Einfangens der Folge von Bildern zu der in Bezug auf 5A beschriebenen Funktionalität zurück, sodass der Benutzer auf eine dem vorstehend beschriebenen Einfangen der Folge von Bildern entsprechende Weise eine zweite Folge von Bildern erhalten kann.
  • Wie in den 5I5K gezeigt ist, zeigt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen eine zweite Benutzerschnittstelle 520 zum Bearbeiten und/oder Konfigurieren der Folge von Bildern an (z. B. handelt es sich bei der zweiten Benutzerschnittstelle 520 um eine Benutzerschnittstelle in einem Bildfolge-Bearbeitungsmodus). In 5I sind die Bilder 512, die in der Folge von Bildern beinhaltet sind, diejenigen mit einem durchgezogenen Rahmen: Bild 512-2; Bild 512-3; Bild 512-4; Bild 512-5; und Bild 512-6, wobei Bild 512-4 das stellvertretende Bild ist. Somit ist Bild 512-2 das Anfangsbild in der Folge von Bildern, und zwischen dem Anfangsbild 512-2 und dem stellvertretenden Bild 512-4 befindet sich ein Bild (Bild 512-3) (obwohl es in einigen Ausführungsformen eine größere ganzzahlige Anzahl von Bildern zwischen dem Anfangsbild und dem stellvertretenden Bild gibt, wie zum Beispiel 5, 10 oder 30 Bilder). Bild 512-6 ist das letzte Bild in der Folge von Bildern, und zwischen dem stellvertretenden Bild 512-4 und dem letzten Bild 512-6 befindet sich ein Bild (Bild 512-5) (obwohl es in einigen Ausführungsformen eine größere ganzzahlige Anzahl von Bildern zwischen dem stellvertretenden Bild und dem letzten Bild gibt, wie zum Beispiel 5, 10 oder 30 Bilder, und diese Anzahl muss nicht dieselbe sein wie die Anzahl von Bildern zwischen dem Anfangsbild und dem stellvertretenden Bild). Der fettgedruckte Rahmen um Bild 512-4 in 5I gibt an, dass es sich um das stellvertretende Bild handelt.
  • Wie in 5J gezeigt ist, ist die zweite Benutzerschnittstelle 520 so konfiguriert, dass sie eine Anforderung zum Ändern des stellvertretenden Bildes in der Folge von Bildern empfängt (z. B. empfängt sie eine Touch-Geste 522 über einem Bild, das nicht das aktuelle stellvertretende Bild 512-4 ist). Wie in 5K gezeigt ist, reagiert die Vorrichtung auf die Touch-Geste 522 durch Änderung des stellvertretenden Bildes auf Bild 512-3 (das den fettgedruckten Rahmen in 5K aufweist, was bedeutet, dass es das neue stellvertretende Bild ist). In einigen Ausführungsformen ist die Anzahl von Bildern zwischen dem Anfangsbild und dem stellvertretenden Bild sowie die Anzahl von Bildern zwischen dem stellvertretenden Bild und dem letzten Bild unveränderlich, sodass die tragbare Multifunktionsvorrichtung 100 die Folge von Bildern ändert, indem sie auf einer Seite Bilder zu der Folge von Bildern hinzufügt und auf der anderen Seite Bilder entfernt (z. B. löscht oder nicht einschließt). Zum Beispiel wurde in 5K das Bild 512-1 zu der Folge von Bildern hinzugefügt, um die Anzahl von Bildern zwischen dem Anfangsbild und dem stellvertretenden Bild unverändert zu lassen, während das Bild 512-6 aus der Folge von Bildern entfernt wurde, um die Anzahl von Bildern zwischen dem stellvertretenden Bild und dem letzten Bild unverändert zu lassen.
  • Die 6A6FF veranschaulichen beispielhafte Benutzerschnittstellen zum Anzeigen (oder Wiedergeben) einer gruppierten Folge von verwandten Bildern, manchmal als erweitertes Foto bezeichnet, in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind, wie auf der tragbaren Multifunktionsvorrichtung 100 gezeigt ist), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • 6A veranschaulicht eine Benutzerschnittstelle 600. Die tragbare Multifunktionsvorrichtung 100 zeigt in der Benutzerschnittstelle 600 ein stellvertretendes Bild 602-3 in einer gruppierten Folge von Bildern 602 an. In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 600 um eine Benutzerschnittstelle in einem Bildpräsentationsmodus. Wie vorstehend beschrieben, beinhaltet die Folge von Bildern 602 das stellvertretende Bild 602-3, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. Bild 602-4, 6C, und Bild 602-5, 6D), sowie ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. Bild 602-1, 6E, und Bild 602-2, 6F).
  • In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 600 um eine Benutzerschnittstelle in einer Bildverwaltungsanwendung (z. B. Photos von Apple Inc. aus Cupertino, Kalifornien). Zu diesem Zweck ist die Kamera, welche die Folge von Bildern 602 aufgenommen hat, in einigen Ausführungsformen Teil der tragbaren Multifunktionsvorrichtung 100 (z. B. weist die Kamera die optischen Sensoren 164 in Verbindung mit dem Bildmodul 143, 1A auf). In einigen Ausführungsformen wurde die Folge von Bildern 602 von einer Kamera aufgenommen, die nicht Teil der tragbaren Multifunktionsvorrichtung 100 ist (z. B. wurde die Folge von Bildern 602 an die tragbare Multifunktionsvorrichtung 100 übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die Folge von Bildern 602 als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das stellvertretende Bild 602-3 dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • In einigen Ausführungsformen speichert die tragbare Multifunktionsvorrichtung 100 mehrere gruppierte Folgen von Bildern, von denen einige unter Verwendung der tragbaren Multifunktionsvorrichtung 100 erfasst wurden und einige auf die tragbare Multifunktionsvorrichtung 100 übertragen wurden, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurden. In bestimmten Fällen kann ein Benutzer zum Beispiel Folgen von Bildern auf mehreren Vorrichtungen (z. B. einem Tablet, einem Laptop und/oder einer Digitalkamera, alle zusätzlich zur tragbaren Multifunktionsvorrichtung 100) erhalten (z. B. aufnehmen, einfangen), wie unter Bezugnahme auf die Verfahren 900/2600 beschrieben ist, und die Folgen von Bildern mit der tragbaren Multifunktionsvorrichtung 100 synchronisieren oder anderweitig auf diese übertragen.
  • In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 600 um eine Benutzerschnittstelle in einer Messaging-Anwendung (z. B. Messages von Apple Inc. aus Cupertino, Kalifornien). In bestimmten Fällen kann eine Benutzerin eine jeweilige Folge von Bildern auf ihrer tragbaren Multifunktionsvorrichtung 100 erhalten (z. B. aufgenommen, eingefangen) haben und auch eine andere Folge von Bildern von einem anderen Benutzer empfangen haben (z. B. in einer Messaging-Anwendung). Somit handelt es sich in einigen Ausführungsformen bei der Folge von Bildern 602 um eine jeweilige Folge von Bildern aus mehreren auf der tragbaren Multifunktionsvorrichtung 100 gespeicherten Folgen von Bildern, die mindestens eine Folge von Bildern beinhaltet, die unter Verwendung einer Kamera auf der tragbaren Multifunktionsvorrichtung 100 erhalten wurde, und mindestens eine Folge von Bildern, die unter Verwendung einer Kamera auf einer anderen Vorrichtung erhalten wurde, die getrennt von der tragbaren Multifunktionsvorrichtung 100 ist.
  • In einigen Ausführungsformen wird das stellvertretende Bild 602-3 in der Benutzerschnittstelle 600 angezeigt, wenn sich die tragbare Multifunktionsvorrichtung 100 in einem Kollektionsansichtsmodus befindet.
  • Die Benutzerschnittstelle 600 beinhaltet optional eine oder mehrere Symbolleisten. Zum Beispiel beinhaltet die Benutzerschnittstelle 600, wie gezeigt, eine Operationensymbolleiste 604, die mehrere Aufforderungen 606 beinhaltet (z. B. eine Senden-Aufforderung 606-1, die es der Benutzerin ermöglicht, die Folge von Bildern 602 an andere Benutzer unter Verwendung von E-Mail-, Messaging- oder anderen Anwendungen zu senden; eine Bearbeiten-Aufforderung 606-2, die eine Benutzerschnittstelle zum Bearbeiten der Folge von Bildern 602 öffnet; eine Favoriten-Aufforderung 606-3, durch welche die Benutzerin angeben kann, dass die Folge von Bildern 602 eine ihrer Favoriten ist; und eine Löschen-Aufforderung 606-4, die es der Benutzerin ermöglicht, die Folge von Bildern 602 zu löschen). Als anderes Beispiel beinhaltet die Benutzerschnittstelle 600 eine Navigationssymbolleiste 608, die mehrere andere Aufforderungen beinhaltet (z. B. eine Alle-Fotos-Aufforderung 610-1, die bei Aktivierung zu einer Benutzerschnittstelle zum Navigieren durch die Fotos des Benutzers navigiert; und eine „Fertig”-Aufforderung 610-2, die bei Aktivierung zu einer anderen Benutzerschnittstelle wie zum Beispiel einer Benutzerschnittstelle zum Erhalten eines Fotos navigiert).
  • Die Folge von Bildern 602, die in den 6A6V gezeigt ist, stellt eine Szene dar, in der eine Katze 612 in das Sichtfeld läuft, sich rückwärts auf dem Boden wälzt und aufsteht und wegläuft. Unterdessen landet ein zwitschernder Vogel 614 auf einem Zweig. Während es in Wirklichkeit mehrere Sekunden dauert, bis sich eine derartige Szene entwickelt, wird die Folge von Bildern 602 in einigen Ausführungsformen in einem kurzen Zeitfenster eingefangen. Zum Beispiel stellt die Folge von Bildern 602 in einigen Ausführungsformen den Moment dar, der den Augenblick umgibt (z. B. innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden), an dem das stellvertretende Bild 602-3 erhalten wurde. Zum Beispiel wurde das Interesse des Benutzers möglicherweise geweckt, als die Katze 612 damit begann, sich im Gras zu wälzen, was den Benutzer dazu veranlasste, das stellvertretende Bild 602-3 aufzunehmen. In einigen Ausführungsformen beinhaltet die Folge von Bildern 602 Bilder kurz vor und kurz nach dem Erhalten des stellvertretenden Bildes 602-3, sodass die Folge von Bildern 602 ein erweitertes Foto umfasst, durch den der Moment „zum Leben erweckt” werden kann, wenn der Benutzer bestimmte Operationen in Bezug auf das stellvertretende Bild 602-3 wie hierin beschrieben durchführt.
  • 6B veranschaulicht einen ersten Teil 616-1 einer ersten Eingabe 616, die von der tragbaren Multifunktionsvorrichtung 100 erkannt wird, während die tragbare Multifunktionsvorrichtung 100 die Benutzerschnittstelle 600 anzeigt. Insbesondere erkennt die tragbare Multifunktionsvorrichtung 100 den ersten Teil 616-1 der ersten Eingabe 616, während die tragbare Multifunktionsvorrichtung 100 das stellvertretende Bild 602-3 auf der die Benutzerschnittstelle 600 anzeigt, die auf dem Touchscreen 112 angezeigt wird. In einigen Ausführungsformen werden die in den 6B6O veranschaulichten Operationen infolge eines Feststellens durchgeführt, dass die erste Eingabe 616 vordefinierte Kriterien erfüllt (z. B. vordefinierte Kriterien zum Anzeigen eines erweiterten Fotos). Zum Beispiel werden in einigen Ausführungsformen die in den 6B6O veranschaulichten Operationen durchgeführt (z. B. ausgelöst), wenn die erste Eingabe 616 oder der erste Teil 616-1 eine Drücken-und-Halten-Geste ist, wie in den 6B6O veranschaulicht ist. In einigen Ausführungsformen beinhaltet die tragbare Multifunktionsvorrichtung 100 einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten mit dem Touchscreen 112, und die in den 6B6O veranschaulichten Operationen werden durchgeführt (z. B. ausgelöst), wenn die erste Eingabe 616 eine charakteristische Intensität aufweist, die vordefinierte Intensitätskriterien erfüllt (z. B. einhält) (z. B. übersteigt die erste Eingabe 616 die Leicht-Drücken-Schwelle ITL, wie in dem Intensitätsdiagramm 618 gezeigt, ein Diagramm, das nicht Teil der angezeigten Benutzerschnittstelle 600 ist, sondern das bereitgestellt wird, um bei der Auslegung der Figuren behilflich zu sein). In einigen Ausführungsformen werden die in den 6B6O veranschaulichten Operationen durchgeführt (z. B. ausgelöst), wenn die erste Eingabe 616 oder der erste Teil 616-1 vordefinierte Pfadeigenschaften aufweist (z. B. stationär, wie im Falle einer Drücken-und-Halten-Geste, oder im Wesentlichen linear, wie im Falle einer Wisch-/Ziehgeste) und vordefinierte Intensitätskriterien erfüllt (z. B. eine vordefinierte Intensitätsschwelle übersteigt). Zum Zwecke der Erläuterung werden die in den 6B6O veranschaulichten Operationen nachfolgend als durch eine Drücken-und-Halten-Geste ausgelöst beschrieben, welche die Leicht-Drücken-Schwelle ITL, wie in dem Intensitätsdiagramm 618 gezeigt, übersteigt.
  • 6C veranschaulicht die Reaktion der tragbaren Multifunktionsvorrichtung 100 auf eine Fortführung (aus 6B) des ersten Teils 616-1 der ersten Eingabe 616, die erkannt wird, während die tragbare Multifunktionsvorrichtung 100 die Benutzerschnittstelle 600 anzeigt. Wie in den 6B6D gezeigt ist, ersetzt die tragbare Multifunktionsvorrichtung 100 insbesondere als Reaktion auf das Erkennen des ersten Teils 616-1 der ersten Eingabe 616 das Anzeigen des stellvertretenden Bildes innerhalb der Benutzerschnittstelle 600 durch das Anzeigen des einen oder der mehreren Bilder innerhalb der Benutzerschnittstelle 600, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden. In Übereinstimmung mit einigen Ausführungsformen werden das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden, der Reihe nach angezeigt, während der erste Teil 616-1 der ersten Eingabe 616 erkannt wird. Zu diesem Zweck veranschaulicht 6C das Anzeigen des Bildes 602-4, bei dem es sich um das nächste Bild handelt, das nach dem stellvertretenden Bild 602-3 in der Folge von Bildern 602 erfasst wurde. In Bild 602-4 ist die Katze 612 aufgestanden, nachdem sie sich rückwärts auf dem Boden gewälzt hat, und hat damit begonnen, wegzulaufen. Der Vogel 614 bleibt im Baum sitzen. Somit handelt es sich bei dem Bild 602-4 um ein Bild, das nach dem jeweiligen Bild 602-3 aufgenommen wurde.
  • 6D veranschaulicht die Reaktion der tragbaren Multifunktionsvorrichtung 100 auf eine Fortführung (aus 6B) des ersten Teils 616-1 der ersten Eingabe 616, die erkannt wird, während die tragbare Multifunktionsvorrichtung 100 die Benutzerschnittstelle 600 anzeigt. In 6D ersetzt die tragbare Multifunktionsvorrichtung 100 das Anzeigen des Bildes 602-4 innerhalb der Benutzerschnittstelle 600 durch das Anzeigen des Bildes 602-5 innerhalb der Benutzerschnittstelle 600, bei dem es sich um das letzte Bild handelt, das von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 in der Folge von Bildern 602 erfasst wurde. Somit veranschaulichen die 6A6D ein Beispiel, in dem es zwei Bilder in der Folge von Bildern 602 gibt, die nach dem stellvertretenden Bild 602-3 erfasst wurden. Es sollte jedoch klar sein, dass in verschiedenen Ausführungsformen und/oder Fällen eine Folge von Bildern eine unterschiedliche (z. B. ganzzahlige) Anzahl von Bildern aufweisen kann, die von der Kamera nach dem stellvertretenden Bild 602-3 erfasst wurden (z. B. 2, 5, 10 oder 20 Bilder).
  • In Bild 602-5 ist die Katze 612 teilweise aus dem Sichtfeld gelaufen, und der Vogel 614 bleibt im Baum sitzen (z. B. handelt es sich bei Bild 602-5 um ein Bild, das nach dem jeweiligen Bild 602-4 aufgenommen wurde). Somit veranschaulichen die 6B6D ein Beispiel, in dem in Übereinstimmung mit einigen Ausführungsformen eine ausreichend starke Drücken-und-Halten-Geste dazu führt, dass das erweiterte Foto beginnend mit dem stellvertretenden Bild vorwärts angezeigt wird, wodurch ein Eindruck entsteht, dass das Bild zum Leben erweckt wurde. In einigen Ausführungsformen dauert der erste Teil 616-1 der ersten Eingabe 616 (hat z. B. eine Dauer von) eine Zeitdauer, die benötigt wird, um alle der Bilder in der Folge von Bildern 602, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden, der Reihe nach zu ersetzen, es sei denn, die erste Eingabe 616 wird während des ersten Teils 616-1 beendet. In derartigen Ausführungsformen wird ein Teil der ersten Eingabe 616, der nach der Zeitdauer stattfindet, die benötigt wird, um alle der Bilder in der Folge von Bildern 602, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden, der Reihe nach zu ersetzen, nicht als Teil des ersten Teils 616-1, sondern stattdessen als ein nachfolgender Teil der ersten Eingabe 616 angesehen, wie nachfolgend beschrieben ist.
  • In einigen Ausführungsformen werden das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden, als Reaktion auf das Erkennen des ersten Teils 616-1 der ersten Eingabe 616 der Reihe nach mit einer Geschwindigkeit angezeigt, die auf einer Intensität eines Kontakts im ersten Teil 616-1 der ersten Eingabe 616 basiert, wie in dem Intensitätsdiagramm 618 gezeigt ist (z. B. nimmt die Anzeigegeschwindigkeit zu, wenn eine Intensität eines Kontakts im ersten Teil 616-1 der ersten Eingabe 616 zunimmt, und die Anzeigegeschwindigkeit nimmt ab, wenn eine Intensität eines Kontakts im ersten Teil 616-1 der ersten Eingabe 616 abnimmt). In einigen Ausführungsformen verweilt die tragbare Multifunktionsvorrichtung 100 während des aufeinanderfolgenden Anzeigens der Folge von Bildern 602 während des ersten Teils 616-1 der ersten Eingabe 616 für eine Zeitdauer auf jedem jeweiligen Bild in der Folge von Bildern 602, die proportional (oder umgekehrt proportional) zu einer charakteristischen Intensität der ersten Eingabe 616 ist, während das jeweilige Bild angezeigt wird. Also verweilt die tragbare Multifunktionsvorrichtung 100 zum Beispiel in derartigen Ausführungsformen für eine kürzere Zeit auf dem stellvertretenden Bild 602-3 (6B) und dem Bild 602-4 (6C) als auf dem Bild 602-5 (6D), da die Intensität der ersten Eingabe 616 während des Anzeigens des stellvertretenden Bildes 602-3 (6B) und des Bildes 602-4 (6C) höher ist als während des Anzeigens des Bildes 602-5 (6D), wie durch die Intensitätsdiagramme 618 in den entsprechenden Figuren gezeigt ist.
  • In einigen Ausführungsformen findet nach dieser anfänglichen Abhängigkeit der Anzeigegeschwindigkeit von der Kontaktintensität während der ersten Eingabe 616 ein anschließendes Anzeigen der Folge von Bildern 602 (als Reaktion auf das Erkennen von späteren Teilen der ersten Eingabe 616, wie nachfolgend beschrieben ist) unabhängig von der Kontaktintensität während späterer Teile der ersten Eingabe 616 mit festen Geschwindigkeiten statt. Also verweilt die tragbare Multifunktionsvorrichtung 100 zum Beispiel trotz des Unterschiedes der Intensität der ersten Eingabe 616, wie in den Intensitätsdiagrammen 618 in den jeweiligen Figuren gezeigt ist, für eine gleiche Zeitdauer auf dem Bild 602-1 (6E) und dem Bild 602-2 (6F).
  • Nachdem die tragbare Multifunktionsvorrichtung 100 als Reaktion auf das Erkennen des ersten Teils 616-1 der ersten Eingabe 616 das eine oder die mehreren Bilder anzeigt, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden, führt die Vorrichtung 100 in einigen Ausführungsformen, wie nachfolgend unter Bezugnahme auf die 6E6I beschrieben ist, eine Schleife zurück aus und zeigt die gesamte Folge von Bildern 602 als Reaktion auf einen zweiten Teil 616-2 der ersten Eingabe 616 an (oder zeigt die gesamte Folge von Bildern 602 so lange an, wie die erste Eingabe 616 und/oder deren Intensität beibehalten werden). In einigen Ausführungsformen wird eine überblendende Animation vom Ende der Folge von Bildern 602 zum Anfang der Folge von Bildern 602 angezeigt, wenn die Folge von Bildern 602 wiederholt oder erneut angezeigt wird.
  • 6E veranschaulicht eine Situation, in der die tragbare Multifunktionsvorrichtung 100 nach dem Erkennen des ersten Teils 616-1 der ersten Eingabe 616 einen zweiten Teil 616-2 der ersten Eingabe 616 erkennt (z. B. erkennt die tragbare Multifunktionsvorrichtung 100 weiterhin eine(n) ausreichend starke(n) Kontakt und/oder Intensität in einer Fingergeste). Als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 zeigt die tragbare Multifunktionsvorrichtung 100, wie in den 6E6I gezeigt ist, innerhalb der Benutzerschnittstelle 600 das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 616-3 erfasst wurden (z. B. Bild 616-1, 6E, und Bild 616-2, 6F), das stellvertretende Bild 602-3 (6G) und das eine oder die mehreren Bilder an, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. Bild 602-4, 6H, und Bild 602-5, 6I), der Reihe nach an. Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 die gesamte Folge von Bildern 602 angezeigt, vom Anfangsbild bis zum letzten Bild in der Folge (es sei denn, die erste Eingabe 616 wird zum Beispiel unterbrochen).
  • In einigen Ausführungsformen handelt es sich bei dem zweiten Teil 616-2 der ersten Eingabe 616 um einen Teil, der zusammenhängend mit dem und unmittelbar anschließend an den ersten Teil 616-1 der ersten Eingabe 616 ist. In einigen Ausführungsformen dauert der zweite Teil 616-2 der ersten Eingabe 616 (hat z. B. eine Dauer von) eine Zeitdauer, die benötigt wird, um alle der Bilder in der Folge von Bildern 602 der Reihe nach zu ersetzen, es sei denn, die erste Eingabe 616 wird während des zweiten Teils 616-2 beendet.
  • In Bild 602-1 (6E) beginnt die Katze 612 damit, in das Sichtfeld zu laufen, und der Vogel 614 ist noch nicht auf dem Ast gelandet. In Bild 602-2 (6E) ist die Katze 612 vollständig in das Sichtfeld gelaufen, und der Vogel 614 ist auf dem Ast gelandet. Somit handelt es sich bei Bild 602-2 um ein Bild, das nach 602-1 aufgenommen wurde, und sowohl Bild 602-1 als auch 602-2 wurden vor dem stellvertretenden Bild 602-3 (6G) aufgenommen. (Die jeweiligen Bilder sind dieselben in den verschiedenen Figuren, in denen sie angezeigt werden. Zum Beispiel ist Bild 602-4 in 6C und in 6H dasselbe. Der Kürze halber werden Aspekte dieser Figuren, die unter Bezugnahme auf die anderen Figuren beschrieben wurden, nicht wiederholt.)
  • In einigen Ausführungsformen besteht ein Unterschied zwischen dem aufeinanderfolgenden Anzeigen während des ersten Teils 616-1 der ersten Eingabe 616 des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden (wie in den 6B6D gezeigt), und dem aufeinanderfolgenden Anzeigen während des zweiten Teils 616-2 der ersten Eingabe 616 der gesamten Folge von Bildern 602 (wie in den 6E6I gezeigt), darin, dass die tragbare Multifunktionsvorrichtung 100 als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 (z. B. über den Lautsprecher 111) den Ton 620 präsentiert, welcher der Folge von Bildern 602 entspricht. Dies ist in den 6F6I durch die von dem Vogel 614 aufsteigenden Worte „Zwitscher zwitscher” veranschaulicht. (In diesem Beispiel tauchen die Worte „Zwitscher zwitscher” nicht in dem Bild auf, sondern werden in den Figuren bereitgestellt, um einen durch den Lautsprecher 111 erzeugten Ton anzugeben). In einigen Ausführungsformen wird als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 die gesamte Folge von Bildern 602 mit dem entsprechenden Ton 620 angezeigt, der aufgezeichnet wurde, als die Folge von Bildern 602 erfasst wurde. In einigen Ausführungsformen wird kein Ton als Reaktion auf das Erkennen des ersten Teils 616-1 der ersten Eingabe 616 präsentiert. Wenn die erste Eingabe 616 nach dem ersten vollständigen Wiedergeben der Folge von Bildern 602 (z. B. als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616) beibehalten wird, wird in einigen Ausführungsformen der Ton nicht noch einmal während des anschließenden Wiedergebens der Folge als Reaktion auf ein kontinuierliches Erkennen der ersten Eingabe 616 präsentiert (wie unter Bezugnahme auf die 6J6M erklärt wird, die ein zweites Wiedergeben der gesamten Folge von Bildern 602 veranschaulichen). In einigen Ausführungsformen wird der Ton für eine gegebene Eingabe nur während des ersten vollständigen Wiedergebens der Folge von Bildern 602 präsentiert. In einigen Ausführungsformen wird der Ton für eine gegebene Eingabe nur während eines anderen anschließenden Wiedergebens der Folge von Bildern 602 präsentiert (z. B. während des zweiten vollständigen Wiedergebens der Folge von Bildern 602) oder während mehreren vordefinierten Malen des Wiedergebens (z. B. während des ersten und des zweiten Wiedergebens der Folge von Bildern 602).
  • In einigen Ausführungsformen wird die Folge von Bildern 602 als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 (z. B. während des ersten vollständigen Wiedergebens) der Reihe nach mit einer festen Geschwindigkeit angezeigt (z. B. mit derselben Geschwindigkeit, mit der die Bilder erhalten wurden, auch eine „1x”-Geschwindigkeit genannt). Zum Beispiel wird in einigen Ausführungsformen während des ersten vollständigen Wiedergebens Ton mit einer 1x-Geschwindigkeit präsentiert, und die entsprechende Folge von Bildern 602 wird mit einer 1x-Geschwindigkeit angezeigt, wodurch das Wiedergeben einen natürlichen Anblick und Ton erhält. In einigen Ausführungsformen bedeutet eine 1x-Geschwindigkeit, dass die tragbare Multifunktionsvorrichtung 100 für eine Zeitdauer auf einem jeweiligen Bild verweilt, die im Wesentlichen gleich ist, wie die Zeitdauer, die zwischen dem Erhalten des jeweiligen Bildes und des nächsten Bildes verstrichen ist.
  • In einigen Ausführungsformen werden Bilder in der Folge von Bildern 602 unabhängig von der Intensität eines Kontakts in der ersten Eingabe 616 mit einer festen Geschwindigkeit aufeinanderfolgend angezeigt. Zum Beispiel verweilt die tragbare Multifunktionsvorrichtung 100 trotz der unterschiedlichen Eingabeintensitäten, wie in den Intensitätsdiagrammen 618 in den jeweiligen Figuren gezeigt ist, für dieselbe Dauer auf dem Bild 602-1 (6E) und dem Bild 602-2 (6F). In einigen Ausführungsformen hängt die Geschwindigkeit, mit der Bilder in der Folge von Bildern 602 während des zweiten Teils 616-2 der ersten Eingabe aufeinanderfolgend angezeigt werden, von der Intensität eines Kontakts der ersten Eingabe 616 ab. Zum Beispiel nimmt die Geschwindigkeit zu, wenn die Intensität des Kontakts zunimmt.
  • Nachdem die tragbare Multifunktionsvorrichtung 100 als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 die Folge von Bildern 602 anzeigt (z. B. schließt die Vorrichtung das erste Wiedergeben der Folge von Bildern 602 ab), führt die Vorrichtung 100 in einigen Ausführungsformen, wie nachfolgend unter Bezugnahme auf die 6J6M beschrieben ist, wieder eine Schleife zurück aus und zeigt die gesamte Folge von Bildern 602 als Reaktion auf einen dritten Teil 616-3 der ersten Eingabe 616 an (oder so lange, wie die erste Eingabe 616 und/oder deren Intensität beibehalten werden). In einigen Ausführungsformen wird eine überblendende Animation vom Ende der Folge von Bildern 602 zum Anfang der Folge von Bildern 602 angezeigt, wenn die Folge von Bildern 602 wiederholt oder erneut angezeigt wird.
  • Die 6J6M veranschaulichen eine Situation, in der die tragbare Multifunktionsvorrichtung 100 nach dem Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 einen dritten Teil 616-3 der ersten Eingabe 616 erkennt (z. B. erkennt die tragbare Multifunktionsvorrichtung 100 weiterhin eine(n) ausreichend starke(n) Kontakt und/oder Intensität in einer Fingergeste). Als Reaktion auf das Erkennen des dritten Teils 616-3 der ersten Eingabe 616 zeigt die tragbare Multifunktionsvorrichtung 100 innerhalb der Benutzerschnittstelle 600 das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 602-3 erfasst wurden (z. B. Bild 602-1, 6J, und Bild 602-2, 6K), das stellvertretende Bild 616-3 (6K) und das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. Bild 602-4, 6M), der Reihe nach an. In dem gezeigten Beispiel wird die erste Eingabe 616 jedoch während des dritten Teils 616-3 beendet, was zu einer anderen Funktionalität führt, die nachfolgend ausführlicher beschrieben ist. Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des dritten Teils 616-3 der ersten Eingabe 616 die gesamte Folge von Bildern 602 angezeigt, vom Anfangsbild bis zum letzten Bild in der Folge, es sei denn, die erste Eingabe 616 wird unterbrochen (z. B. abgebrochen), bevor das vollständige Anzeigen der gesamten Folge von Bildern 602 abgeschlossen ist. In einigen Ausführungsformen wird die Schleife so lange fortgeführt, wie die erste Eingabe 616 beibehalten wird, obwohl für verschiedene Schleifen (eine) andere Funktionalität und/oder Operationen optional verfügbar sind (oder durchgeführt werden). Zum Beispiel stellt die tragbare Multifunktionsvorrichtung 100 wie vorstehend beschrieben beim ersten vollständigen Wiedergeben einen Ton bereit. Gleichermaßen zeigt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen als Reaktion auf das Erkennen des dritten Teils 616-3 der ersten Eingabe 616 und während des Anzeigens des zweiten vollständigen Wiedergebens Metadaten 622 an, die der Folge von Bildern 602 entsprechen (die z. B. ein Datum, eine Zeit, einen Ort oder beliebige andere Informationen zeigen, die der Folge von Bildern 602 zugehörig sind).
  • Wie vorstehend erwähnt, veranschaulichen die 6J6O ein Beispiel, in dem die erste Eingabe 616 während des dritten Teils 616-3 abgebrochen wird (z. B. durch Abheben oder einen Abfall der Intensität unter die vordefinierte Schwelle ITo, wie durch das Intensitätsdiagramm 618, 6N, gezeigt). Die 6N6O veranschaulichen Operationen, die in Übereinstimmung mit einigen Ausführungsformen als Reaktion auf ein Beenden (z. B. Abbrechen oder Unterbrechen) der ersten Eingabe 616 während des dritten Teils 616-3 stattfinden. In einigen Ausführungsformen werden analoge Operationen durchgeführt, wenn die erste Eingabe 616 während des zweiten Teils 616-2 oder des ersten Teils 616-1 der ersten Eingabe 616 beendet wird. In einigen Ausführungsformen ermittelt die tragbare Multifunktionsvorrichtung 100, wenn die erste Eingabe 616 beendet wird, ob das aktuell angezeigte Bild vor oder nach dem stellvertretenden Bild 602-3 vorkommt. Wenn das aktuell angezeigte Bild nach dem stellvertretenden Bild 602-3 vorkommt (z. B. danach aufgenommen wurde), wie in den 6N6O gezeigt ist, zeigt die tragbare Multifunktionsvorrichtung 100 aufeinanderfolgend die Folge von Bildern 602 ab dem aktuell angezeigten Bild (z. B. Bild 602-4, 6N) bis zum stellvertretenden Bild 602-3 in umgekehrter chronologischer Reihenfolge an (z. B. geht die tragbare Multifunktionsvorrichtung 100 wieder zu dem stellvertretenden Bild 602-3 zurück). Umgekehrt zeigt die tragbare Multifunktionsvorrichtung 100 aufeinanderfolgend die Folge von Bildern 602 ab dem aktuell angezeigten Bild bis zum stellvertretenden Bild 602-3 in chronologischer Reihenfolge an (z. B. führt die tragbare Multifunktionsvorrichtung 100 die Schleife vorwärts bis zum stellvertretenden Bild 602-3 weiter aus), wenn das aktuell angezeigte Bild vor dem stellvertretenden Bild 602-3 vorkommt (z. B. davor aufgenommen wurde).
  • In bestimmten Fällen ist eine gruppierte Folge von Bildern asymmetrisch in Bezug auf ihr stellvertretendes Bild, was bedeutet, dass es eine ungleiche Anzahl von Bildern gibt, die vor bzw. nach dem stellvertretenden Bild vorkommen. In einigen Ausführungsformen ermittelt die tragbare Multifunktionsvorrichtung 100, ob es zwischen dem aktuell angezeigten Bild und dem stellvertretenden Bild in der chronologischen Vorwärtsrichtung oder der umgekehrten chronologischen Richtung weniger Bilder gibt. Die tragbare Multifunktionsvorrichtung 100 zeigt dann die Folge von Bildern aufeinanderfolgend in derjenigen Richtung an, bei der sich weniger Bilder zwischen dem aktuell angezeigten Bild und dem stellvertretenden Bild befinden (durchläuft diese z. B.).
  • Die 6P6V veranschaulichen Ausführungsformen, in denen ein Benutzer das Anzeigen von Bildern in einer gruppierten Folge von Bildern durch Steuern der Intensität einer Drücken-und-Halten-Geste 636 steuert. 6P ist analog zu 6A und wird als Ausgangspunkt zum Beschreiben der Funktionalität in den 6Q6V bereitgestellt. In einigen Ausführungsformen wird die Wiedergabefunktionalität für die Folge von Bildern 602 ausgelöst, wenn die Drücken-und-Halten-Geste 636 vordefinierte Kriterien erfüllt. Wenn zum Beispiel eine jeweilige Drücken-und-Halten-Eingabe unter der Drücken-Schwelle ITL bleibt, ersetzt die tragbare Multifunktionsvorrichtung 100 das Anzeigen des stellvertretenden Bildes 602-3 nicht als Reaktion auf die Drücken-und-Halten-Geste (z. B. führt die tragbare Multifunktionsvorrichtung 100 stattdessen eine andere Funktionalität durch). Wenn im Gegensatz dazu die Drücken-und-Halten-Geste 636 die Leicht-Drücken-Schwelle ITL übersteigt, wie in 6Q gezeigt ist, ordnet die tragbare Multifunktionsvorrichtung 100 zumindest einigen der Bilder in der Folge von Bildern 602 eine Intensität der Drücken-und-Halten-Geste 636 (in dem Intensitätsdiagramm 618 gezeigt) zu. Da die Wiedergabefunktionalität für die Folge von Bildern 602 zum Beispiel in 6Q ausgelöst wird, zeigt die tragbare Multifunktionsvorrichtung 100 das stellvertretende Bild 602-3 an, wenn sich die Intensität der Drücken-und-Halten-Geste 636 in einem Intensitätsbereich 618-3 befindet (6Q und 6U). Gleichermaßen zeigt die tragbare Multifunktionsvorrichtung 100 Bild 602-1 an, wenn sich die Intensität der Drücken-und-Halten-Geste 636 in einem Intensitätsbereich 618-1 befindet; zeigt Bild 602-2 an, wenn sich die Intensität der Drücken-und-Halten-Geste 636 in einem Intensitätsbereich 618-2 befindet (6V); zeigt Bild 602-4 an, wenn sich die Intensität der Drücken-und-Halten-Geste 636 in einem Intensitätsbereich 618-4 befindet (6T und 6R); und zeigt Bild 602-5 an, wenn sich die Intensität der Drücken-und-Halten-Geste 636 in einem Intensitätsbereich 618-5 befindet (6S). Somit veranschaulichen die 6Q6V die Fähigkeit eines Benutzers, auf Grundlage einer Intensität einer Benutzereingabe Bilder in einer gruppierten Folge von Bildern rückwärts und vorwärts zu durchblättern (z. B. ein angezeigtes Bild in einer gruppierten Folge von Bildern direkt zu steuern) (was z. B. zu einer sanften Rückwärts- und Vorwärtsanimation führt, die das Ersetzen von Bildern in der gruppierten Folge von Bildern anzeigt).
  • 6W veranschaulicht Ausführungsformen, in denen ein Benutzer das Anzeigen von Bildern durch Steuern einer Eingabeintensität 654 steuert, die nach einem stellvertretenden Bild in einer gruppierten Folge von Bildern 656 erhalten wurden. In dem in 6W gezeigten Beispiel verweisen Intensitätswerte zwischen der Leicht-Drücken-Schwelle ITL und der Fest-Drücken-Schwelle ITD auf jeweilige Bilder, die nach dem stellvertretenden Bild in der gruppierten Folge von Bildern 656 erhalten wurden. Die in 6W gezeigten Intensitätsdiagramme veranschaulichen die Eingabeintensitäten 654, die auf bestimmte Bilder verweisen, wie durch deren Pfeile angegeben ist, die nach dem stellvertretenden Bild in der gruppierten Folge von Bildern 656 erhalten wurden. Wenn eine Eingabe die Leicht-Drücken-Schwelle ITL übersteigt, kann der Benutzer also durch Steuern der Intensität der Eingabe vorwärts und rückwärts durch die Bilder blättern, die nach dem stellvertretenden Bild in der gruppierten Folge von Bildern erhalten wurden. In einigen Ausführungsformen wird, wenn eine Eingabe die Fest-Drücken-Schwelle ITD übersteigt, die Gruppenfolge von Bildern 656 mit einer festen Geschwindigkeit ersetzt (z. B. weitergeschaltet) (z. B. gibt die Vorrichtung die gruppierte Folge von Bildern 656 mit einer festen Geschwindigkeit wieder, wobei sie eine Schleife zurück zum Anfang ausführt, nachdem das letzte Bild in der Gruppenfolge von Bildern 656 angezeigt wurde). 6W veranschaulicht auch Ton 658 und Metadaten 660, die der gruppierten Folge von Bildern 656 zugehörig sind (z. B. und die, wie vorstehend beschrieben, mit der gruppierten Folge von Bildern 658 bereitgestellt werden).
  • 6X veranschaulicht Ausführungsformen, die weitgehend analog zu den unter Bezugnahme auf die 6A6O beschriebenen Ausführungsformen sind, außer, dass sich die Reaktion der Vorrichtung 100 auf einen anfänglichen Teil einer Benutzereingabe von den Ausführungsformen unterscheidet, die unter Bezugnahme auf die 6A6O beschrieben wurden. Insbesondere beginnt die Vorrichtung 100 in den in 6X veranschaulichten Ausführungsformen als Reaktion auf das Erkennen eines ersten Teils einer Benutzereingabe (z. B. einer Benutzereingabe, die analog zu den unter Bezugnahme auf die 6A6O beschriebenen ist) mit dem Wiedergeben entweder durch direktes Übergehen zum Anfangsbild in der Folge von Bildern (wie z. B. in Diagramm 656 gezeigt ist) oder durch kurzes Wiedergeben der Folge von Bildern vorwärts (z. B. durch Wiedergeben einiger Bilder vorwärts, wie in Diagramm 650 gezeigt ist) und darauffolgendes Überblenden auf das Anfangsbild (z. B. anstelle des anfänglichen Wiedergebens der Folge von Bildern vorwärts bis zum letzten Bild in der Folge von Bildern).
  • In 6X wird das Wiedergeben während einer Benutzereingabe 648 durch eine oder mehrere Kurven dargestellt (z. B. Kurve 662 und/oder Kurve 664). In Übereinstimmung mit einigen Ausführungsformen stellen durchgezogene Teile der das Wiedergeben während der Benutzereingabe 648 darstellenden Kurven Bilder dar, die wiedergegeben werden, während gestrichelte Teile Bilder darstellen, die nicht wiedergegeben werden.
  • Also zeigt die Vorrichtung 100 zum Beispiel in Diagramm 650 anfangs das stellvertretende Bild 652 an. Als Reaktion auf die Benutzereingabe 648 gibt die Vorrichtung 100 drei Bilder vorwärts (z. B. ein Bild oder zehn Bilder usw.) bis zum Bild 660 wieder und ersetzt dann das Anzeigen des Bildes 660 durch das Anzeigen des Anfangsbildes 654. Die Vorrichtung 100 gibt dann in Übereinstimmung mit einer beliebigen der vorstehend unter Bezugnahme auf die 6A6O beschriebenen Ausführungsformen die Folge von Bildern ab dem Anfangsbild 654 vorwärts wieder (z. B. führt sie eine Schleife durch das erweiterte Foto mit Ton, Metadaten usw. bei nachfolgenden Wiederholungen durch). Somit geht die Vorrichtung 100 vom Anzeigen des stellvertretenden Bildes 652 zum Anzeigen des Anfangsbildes 654 (oder eines beliebigen anderen jeweiligen vorhergehenden Bildes) über, indem sie ein oder mehrere Bilder anzeigt, die nach dem stellvertretenden Bild 652 erfasst wurden. In einigen Ausführungsformen blendet die Vorrichtung 100 das stellvertretende Bild 652 und/oder eines oder mehrere der nach dem stellvertretenden Bild erfassten Bilder in das Anfangsbild 654 über und/oder lässt es verschwimmen.
  • Als anderes Beispiel zeigt die Vorrichtung 100 in Diagramm 656 anfangs das stellvertretende Bild 652 an. Als Reaktion auf die Benutzereingabe 648 ersetzt die Vorrichtung 100 das Anzeigen des stellvertretenden Bildes 652 durch das Anzeigen des Anfangsbildes 654 (oder eines beliebigen anderen jeweiligen vorhergehenden Bildes). Die Vorrichtung 100 gibt dann in Übereinstimmung mit einer beliebigen der vorstehend unter Bezugnahme auf die 6A6O beschriebenen Ausführungsformen die Folge von Bildern ab dem Anfangsbild 654 vorwärts wieder (z. B. führt sie eine Schleife durch das erweiterte Foto mit Ton, Metadaten usw. bei nachfolgenden Wiederholungen durch). Somit geht die Vorrichtung 100 vom Anzeigen des stellvertretenden Bildes 652 zum direkten Anzeigen des Anfangsbildes 654 über. In einigen Ausführungsformen blendet die Vorrichtung 100 das stellvertretende Bild 652 in das Anfangsbild 654 über und/oder lässt es verschwimmen.
  • Wie in Diagramm 656 gezeigt ist, beinhaltet das Übergehen vom Anzeigen des stellvertretenden Bildes 652 zum Anzeigen des Anfangsbildes 654 (z. B. des jeweiligen vorhergehenden Bildes) in einigen Ausführungsformen nicht das Anzeigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 652 erfasst wurden (z. B. geht die Vorrichtung direkt zurück zum Anfangsbild 654).
  • In einigen Ausführungsformen ermittelt die Vorrichtung 100 auf Grundlage von Eigenschaften der Benutzereingabe 648 (z. B. einer charakteristischen Kontaktintensität des ersten Teils der ersten Eingabe 648), welcher Übergang anzuwenden ist (z. B. der in Diagramm 650 gezeigte Übergang oder der in Diagramm 656 gezeigte Übergang). Wenn zum Beispiel der erste Teil der ersten Eingabe 648 die Fest-Drücken-Schwelle ITD übersteigt, wie im Intensitätsdiagramm 668-2 gezeigt ist, weist die Vorrichtung 100 einen Übergang in Übereinstimmung mit dem Diagramm 656 auf. Wenn der erste Teil der ersten Eingabe 648 die Fest-Drücken-Schwelle ITD nicht übersteigt, wie im Intensitätsdiagramm 668-1 gezeigt ist, weist die Vorrichtung 100 einen Übergang in Übereinstimmung mit dem Diagramm 650 auf.
  • In einigen Ausführungsformen werden bestimmte Bilder während des Erfassens der Folge von Bildern beim Erzeugen einer Folge von Bildern weggelassen oder verschmolzen. Zum Beispiel werden unscharfe Bilder in der Folge von Bildern weggelassen (z. B. nicht eingeschlossen) und/oder ein oder mehrere dunkle Bilder werden zusammengeführt, um die Qualität der Bilder in der Folge von Bildern zu erhöhen. In bestimmten Fällen führt das Weglassen und/oder Verschmelzen von Bildern zu einer Folge von Bildern, die zeitlich nicht gleichmäßig verteilt sind. Wenn zum Beispiel von einer Kamera zehn Bilder pro Sekunde erfasst werden, aber drei Bilder verschmolzen werden, um ein jeweiliges Einzelbild in der Folge von Bildern zu bilden, stellt das jeweilige Einzelbild eine größeren Zeitablauf dar als die anderen Bilder in der Folge von Bildern. Somit wird das Wiedergeben der Folge von Bildern in einigen Ausführungsformen gemäß dem Entfernen und/oder Verschmelzen von Bildern innerhalb der Folge von Bildern zeitlich neu berechnet (z. B. verweilt die Vorrichtung 100 in dem vorstehenden Beispiel beim Wiedergeben der Folge von Bildern bei 1x-Wiedergabe 0,3 Sekunden lang auf dem jeweiligen Einzelbild oder dreimal so lang, wie sie es andernfalls tun würde).
  • In Übereinstimmung mit einigen Ausführungsformen veranschaulichen die 6Y6BB eine Benutzerschnittstelle, die anfangs ein erstes Bild in einer Folge von Bildern (z. B. eines erweiterten Fotos) anzeigt. Die Benutzerschnittstelle gibt die Folge von Bildern in Übereinstimmung mit einer Intensität eines Kontakts einer Benutzereingabe auf die folgende Weise vorwärts oder rückwärts wieder: Ein Bereich von Intensitäten über einer Schwelle verweist auf Vorwärtsgeschwindigkeiten des Durchlaufens der Folge von Bildern, während ein Bereich von Intensitäten unter der Schwelle auf Rückwärtsgeschwindigkeiten des Durchlaufens der Folge von Bildern verweist. In einigen Ausführungsformen wiederholt die Benutzerschnittstelle die Folge von Bildern nicht. Wenn das Anfangsbild angezeigt wird, gibt ein Kontakt mit einer Intensität über der Schwelle also die Bilder vorwärts mit einer Geschwindigkeit wieder, die proportional zu der Kontaktintensität ist, und hört damit auf, wenn das letzte Bild erreicht ist. Wenn der Benutzer den Kontakt so vermindert, dass die Kontaktintensität unter die Schwelle fällt, gibt die Vorrichtung die Bilder rückwärts mit einer Geschwindigkeit wieder, die auf der Kontaktintensität basiert, und hört damit auf, wenn das Anfangsbild erreicht ist.
  • 6Y veranschaulicht eine Benutzerschnittstelle 640. In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 640 um eine Bildschirmsperre-Benutzerschnittstelle. Zum Beispiel kann eine Benutzerin die Vorrichtung 100 sperren, damit sie die Vorrichtung 100 in ihre Tasche stecken kann, ohne unabsichtlich Operationen mit der Vorrichtung 100 durchzuführen (z. B. jemanden versehentlich anzurufen). In einigen Ausführungsformen wird die Bildschirmsperre-Benutzerschnittstelle 640 angezeigt, wenn die Benutzerin die Vorrichtung 100 aktiviert (z. B. durch Drücken eines Knopfes). In einigen Ausführungsformen initiiert eine Wischgeste auf dem Touchscreen 112 einen Prozess zum Entsperren der Vorrichtung 100.
  • Die tragbare Multifunktionsvorrichtung 100 zeigt in der Benutzerschnittstelle 640 ein stellvertretendes Bild 602-1 in einer gruppierten Folge von Bildern 602 an. In einigen Ausführungsformen handelt es sich bei der Folge von Bildern 602 um ein erweitertes Foto, das die Benutzerin für ihren Sperrbildschirm ausgesucht hat (z. B. in einer Einstellungen-Benutzerschnittstelle ausgewählt hat). In dem in den 6Y6BB gezeigten Beispiel handelt es sich bei der Folge von Bildern um ein erweitertes Foto, das eine Szene darstellt, in der eine Katze 612 in das Sichtfeld läuft und sich rückwärts auf dem Boden wälzt. Unterdessen landet ein Vogel 614 auf einem Zweig. In einigen Ausführungsformen beinhaltet die Folge von Bildern ein oder mehrere Bilder, die nach dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. ist das stellvertretende Bild 602-1 ein Anfangsbild in der Folge von Bildern).
  • In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 640 auch Schnellzugriffinformationen 642 wie zum Beispiel Zeit- und Datumsinformationen.
  • Während des Anzeigens des stellvertretenden Bildes 602-1 auf dem Touchscreen 112 erkennt die Vorrichtung 100 eine Eingabe 644 (z. B. eine Drücken-und-Halten-Geste), für die eine charakteristische Intensität eines Kontakts auf dem Touchscreen 112 eine Intensitätsschwelle übersteigt. In diesem Beispiel handelt es sich bei der Intensitätsschwelle um die Leicht-Drücken-Schwelle ITL. Wie in dem Intensitätsdiagramm 618 (6Y) gezeigt ist, beinhaltet die Eingabe 644 einen Kontakt, der die Leicht-Drücken-Schwelle ITL übersteigt.
  • Als Reaktion auf das Erkennen des Erhöhens der charakteristischen Intensität des Kontakts schaltet die Vorrichtung mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der charakteristischen Intensität des Kontakts der Eingabe 644 bestimmt wird, in chronologischer Reihenfolge durch das eine oder die mehreren Bilder, die nach dem Erfassen des stellvertretenden Bildes 602-1 erfasst wurden. Also wird zum Beispiel das Anzeigen des stellvertretenden Bildes 602-1 (6Y) durch das Anzeigen des Bildes 602-2 (6Z) mit einer wie in dem Geschwindigkeitsdiagramm 646 (6Y) angegebenen Geschwindigkeit ersetzt, die auf der in dem Intensitätsdiagramm 618 (6Y) gezeigten Kontaktintensität basiert. Das Bild 602-2 ist ein Bild in der Folge von Bildern 602, das nach dem stellvertretenden Bild 602-1 erfasst wurde. Das Anzeigen des stellvertretenden Bildes 602-2 (6Z) wird durch das Anzeigen des Bildes 602-3 (6AA) mit einer wie in dem Geschwindigkeitsdiagramm 646 (6Z) angegebenen, schnelleren Geschwindigkeit ersetzt, die auf der in dem Intensitätsdiagramm 618 (6Z) gezeigten Kontaktintensität basiert. Das Bild 602-3 ist ein Bild in der Folge von Bildern 602, das nach dem stellvertretenden Bild 602-2 erfasst wurde.
  • In 6AA fällt die Intensität des Kontakts der Eingabe 644 unter ITL, was in diesem Beispiel die Schwelle zum Wiedergeben der Folge von Bildern 602 rückwärts oder vorwärts darstellt. Als Folge wird das Bild 602-3 (6AA) durch das vorhergehende Bild 602-2 (6BB) mit einer Rückwärtsgeschwindigkeit ersetzt, die auf der aktuellen Kontaktintensität der Eingabe 644 basiert.
  • In einigen Ausführungsformen ist die in den Geschwindigkeitsdiagrammen 646 (6Y6AA) angegebene Geschwindigkeit proportional zu einem Absolutwert der Differenz zwischen ITL und der aktuellen Kontaktintensität der Eingabe 644, wie in den Intensitätsdiagrammen 618 (6Y6AA) gezeigt ist. Die Richtung des Durchlaufens basiert darauf, ob die aktuelle Kontaktintensität über (z. B. Vorwärtsbewegung) oder unter (z. B. Rückwärtsbewegung) ITL (oder einer beliebigen anderen entsprechenden Schwelle) liegt.
  • In einigen Ausführungsformen wird die Vorwärts- oder Rückwärtsgeschwindigkeit in Echtzeit oder Nahe-Echtzeit bestimmt, sodass der Benutzer das Durchlaufen der Bilder (entweder in Vorwärts- oder in Rückwärtsrichtung) durch Ändern der charakteristischen Intensität des Kontakts beschleunigen oder verlangsamen kann. Somit kann der Benutzer in einigen Ausführungsformen durch Erhöhen und Verringern der Kontaktintensität der Benutzereingabe 644 vorwärts und rückwärts durch die Folge von Bildern 602 blättern (z. B. zwischen dem Anfangsbild und dem letzten Bild in der Folge von Bildern).
  • In Übereinstimmung mit einigen Ausführungsformen sind die 6CC6DD Schaubilder, die veranschaulichen, wie sich die Durchlaufgeschwindigkeit, V, zu der aktuellen Kontaktintensität, I, der Eingabe 644 verhält.
  • Wie in 6CC gezeigt ist, handelt es sich bei der Schwelle für Vorwärts/Rückwärts-Durchlaufen in diesem Beispiel um die Leicht-Drücken-Schwelle ITL. Wenn die aktuelle Kontaktintensität der Eingabe 644 gleich der Leicht-Drücken-Schwelle ITL ist, schaltet die Vorrichtung 100 weder in chronologischer noch in umgekehrt chronologischer Reihenfolge durch die Folge von Bildern. Somit behält die Vorrichtung 100 ein aktuell angezeigtes Bild aus der Folge von Bildern 602 bei (z. B. ist die Durchlaufgeschwindigkeit gleich 0x, wobei 1x die Geschwindigkeit ist, mit der die Bilder in der Folge von Bildern 602 erfasst wurden). Wenn die aktuelle Kontaktintensität der Eingabe 644 ganz leicht über der Leicht-Drücken-Schwelle ITL liegt, schaltet die Vorrichtung 100 mit einer ersten Geschwindigkeit (z. B. 0,2x) in chronologischer Reihenfolge durch die Folge von Bildern. Wenn die aktuelle Kontaktintensität der Eingabe 644 um dieselbe Höhe unter der Leicht-Drücken-Schwelle ITL liegt, schaltet die Vorrichtung 100 mit der ersten Geschwindigkeit in umgekehrt chronologischer Reihenfolge durch die Folge von Bildern (z. B. schaltet sie mit einer –0,2x-Geschwindigkeit durch, wobei das Minuszeichen die umgekehrt chronologische Reihenfolge oder Rückwärtswiedergabe angibt).
  • In diesem Beispiel weist die Vorrichtung 100 eine Höchstgeschwindigkeit von Vmax auf (z. B. plus oder minus 2x), die erreicht wird, wenn die aktuelle Kontaktintensität der Eingabe 644 die Fest-Drücken-Schwelle ITD (oder eine beliebige andere obere Schwelle) bzw. die Andeutungsschwelle ITH (oder eine beliebige andere entsprechende untere Schwelle) erreicht. Die Durchlaufgeschwindigkeit der Folge von Bildern wird durch eine Rückwärtshöchstgeschwindigkeit beschränkt, während der Kontakt auf der berührungsempfindlichen Oberfläche erkannt wird.
  • 6DD zeigt eine beispielhafte Reaktionskurve, wobei die Durchlaufgeschwindigkeit zwischen der Leicht-Drücken-Schwelle ITL und der Fest-Drücken-Schwelle ITD exponentiell von 0x auf Vmax zunimmt. Über der Fest-Drücken-Schwelle ITD ist die Durchlaufgeschwindigkeit konstant.
  • In Übereinstimmung mit einigen Ausführungsformen führen bestimmte Umstände optional dazu, dass die Vorrichtung 100 von einer ausschließlich auf der aktuellen Kontaktintensität der Eingabe 644 basierenden Durchlaufgeschwindigkeit abweicht. Wenn sich die Vorrichtung 100 zum Beispiel einem letzten Bild nähert, während sie vorwärts durch die Folge von Bildern 602 weiterschaltet, verlangsamt die Vorrichtung 100 die Durchlaufgeschwindigkeit im Vergleich dazu, wie die Durchlaufgeschwindigkeit wäre, wenn sie ausschließlich auf der aktuellen Kontaktintensität der Eingabe 644 basieren würde (z. B. „bremst” die Vorrichtung 100 leicht ab, wenn sie das Ende der Folge von Bildern erreicht). Wenn sich die Vorrichtung 100 einem Anfangsbild nähert, während sie rückwärts durch die Folge von Bildern 602 weiterschaltet, verlangsamt die Vorrichtung 100 in einigen Ausführungsformen gleichermaßen die Durchlaufgeschwindigkeit im Vergleich dazu, wie die Durchlaufgeschwindigkeit wäre, wenn sie ausschließlich auf der aktuellen Kontaktintensität der Eingabe 644 basieren würde (z. B. „bremst” die Vorrichtung 100 leicht ab, wenn sie beim Rückwärtsdurchlaufen den Anfang der Folge von Bildern erreicht).
  • Die 6EE6FF veranschaulichen Ausführungsformen, in denen die Folge von Bildern 602 in einer Benutzerschnittstelle 680 für eine Messaging-Anwendung (z. B. Messages von Apple Inc. aus Cupertino, Kalifornien) angezeigt und/oder wiedergegeben wird. In einigen Ausführungsformen handelt es sich bei der Folge von Bildern 602 um eine Nachricht in einer Nachrichtenkonversation, die in einem scrollbaren Bereich 682 der Messaging-Anwendung angezeigt wird (z. B. kann der Benutzer nach oben oder nach unten scrollen, um frühere oder spätere Nachrichten im Bereich 682 anzusehen). In einigen Ausführungsformen wird das stellvertretende Bild 602-3 anfangs in der Messaging-Anwendung 680 angezeigt. In einigen Ausführungsformen wird die Folge von Bildern 602 als Reaktion auf eine Wischen/Ziehgeste angezeigt (z. B. wiedergegeben). In einigen Ausführungsformen wird das Anzeigen von Bildern in der Folge von Bildern 602 durch eine Position einer Ziehgeste gesteuert (z. B. kann der Benutzer vorwärts oder rückwärts in der Folge von Bildern 602 blättern, indem er die Ziehgeste nach rechts bzw. links bewegt). Zum Beispiel bewegt sich in den 6EE6FF der Kontakt 686 von Position 686-1 (6EE) zur Position 686-2 (6FF), wodurch die Folge von Bildern 602 von dem stellvertretenden Bild 602-3 (6EE) auf das Bild 602-4 (6FF) weitergeschaltet wird.
  • In einigen Ausführungsformen löst eine Wischen-Geste das Wiedergeben der Folge von Bildern 602 beim Beenden (z. B. Abheben) der Wischen-Geste aus. In einigen Ausführungsformen wird die Folge von Bildern 602 nicht während einer Ziehgeste wiedergegeben, sondern stattdessen beim Beenden (z. B. Abheben) einer Ziehgeste wiedergegeben. In einigen Ausführungsformen wird die Folge von Bildern 602 als Reaktion auf eine Drücken-und-Halten-Geste wiedergegeben (z. B. wird die Folge von Bildern 602 in der Messaging-Anwendung 680 in Übereinstimmung mit einer beliebigen der unter Bezugnahme auf die 6A6DD beschriebenen Ausführungsformen wiedergegeben). In einigen Ausführungsformen wird die Folge von Bildern 602 in der Messaging-Anwendung 680 in Übereinstimmung mit einer beliebigen der unter Bezugnahme auf die 7A7CC beschriebenen Ausführungsformen wiedergegeben.
  • In einigen Ausführungsformen wird die Folge von Bildern 602 angezeigt (z. B. wiedergegeben), wenn der scrollbare Bereich der Messaging-Anwendung gescrollt wird, und in die Bilder sind in bestimmten Fällen Textnachrichten 684 oder andere über die Messaging-Anwendung gesendete und empfangene Nachrichten eingestreut (z. B. in Gesprächsblasen). In bestimmten Fällen kann eine Benutzerin eine jeweilige Folge von Bildern auf ihrer tragbaren Multifunktionsvorrichtung 100 erhalten (z. B. aufgenommen, eingefangen) haben und auch eine andere Folge von Bildern von einem anderen Benutzer empfangen haben (z. B. in einer Messaging-Anwendung). Somit beinhalten die mehreren auf der tragbaren Multifunktionsvorrichtung 100 gespeicherten Folgen von Bildern in bestimmten Fällen mindestens eine Folge von Bildern, die unter Verwendung einer Kamera auf der tragbaren Multifunktionsvorrichtung 100 erhalten wurde, und mindestens eine Folge von Bildern, die unter Verwendung einer Kamera auf einer anderen Vorrichtung erhalten wurden, die getrennt von der tragbaren Multifunktionsvorrichtung 100 ist.
  • Die 7A7CC veranschaulichen beispielhafte Benutzerschnittstellen zum Navigieren durch Folgen von verwandten Bildern, manchmal als erweiterte Fotos bezeichnet, in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind, wie auf der tragbaren Multifunktionsvorrichtung 100 gezeigt ist), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • Die tragbare Multifunktionsvorrichtung 100 zeigt eine Benutzerschnittstelle 700 an. Die Benutzerschnittstelle 700 beinhaltet optional eine oder mehrere Symbolleisten. Zum Beispiel beinhaltet die Benutzerschnittstelle 700, wie gezeigt, eine Operationensymbolleiste 704, die mehrere Aufforderungen 706 beinhaltet (z. B. eine Senden-Aufforderung 706-1, die es der Benutzerin ermöglicht, eine erste Folge von Bildern 702 an andere Benutzer unter Verwendung von E-Mail-, Messaging- oder anderen Anwendungen zu senden; eine Bearbeiten-Aufforderung 706-2, die eine Benutzerschnittstelle zum Bearbeiten der ersten Folge von Bildern 702 öffnet; eine Favoriten-Aufforderung 706-3, durch welche die Benutzerin angeben kann, dass die erste Folge von Bildern 702 eine ihrer Favoriten ist; und eine Löschen-Aufforderung 706-4, die es der Benutzerin ermöglicht, die erste Folge von Bildern 702 zu löschen). Als anderes Beispiel beinhaltet die Benutzerschnittstelle 700 eine Navigationssymbolleiste 706, die mehrere andere Aufforderungen beinhaltet (z. B. eine Alle-Fotos-Aufforderung 710-1, die zu einer Benutzerschnittstelle zum Navigieren durch die Fotos des Benutzers navigiert; und eine „Fertig”-Aufforderung 710-2, die zu einer anderen Benutzerschnittstelle wie zum Beispiel einer Benutzerschnittstelle zum Erhalten eines Fotos navigiert).
  • Die 7A7CC veranschaulichen ein Beispiel, in dem die tragbare Multifunktionsvorrichtung 100 mehrere Folgen von Bildern speichert (z. B. die erste Folge von Bildern 702, eine zweite Folge von Bildern 724, eine dritte Folge von Bildern 726 und eine vierte gruppierte Folge von Bildern 760, 7A7CC). Die erste gruppierte Folge von Bildern 702 beinhaltet ein erstes stellvertretendes Bild 702-3 (7A), das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes 702-3 erfasst wurden (z. B. Bild 702-4, 7C, und Bild 702-5, 7D), und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des ersten stellvertretenden Bildes 702-3 erfasst wurden (z. B. Bild 702-2, 7H, und Bild 702-1, 7I). Somit lautet die chronologische Reihenfolge (z. B. die Reihenfolge, in der die Bilder von der Kamera aufgenommen wurden) der ersten Folge von Bildern 702: Bild 702-1; Bild 702-2; Bild 702-3; Bild 702-4; und Bild 702-5.
  • Die erste Folge von Bildern 702 stellt eine Szene dar, in der eine Katze 712 in das Sichtfeld läuft, sich rückwärts auf dem Boden wälzt und aufsteht und wegläuft. Unterdessen landet ein Vogel 714 auf einem Zweig. Während es in Wirklichkeit mehrere Sekunden dauert, bis sich eine derartige Szene entwickelt, wird die erste Folge von Bildern 702 in einigen Ausführungsformen in einem kurzen Zeitfenster eingefangen. Zum Beispiel kann eine beliebige der hierin beschriebenen Folgen von Bildern in einigen Ausführungsformen die Momente darstellen, die den Augenblick umgeben (z. B. innerhalb einer halben oder einer Sekunde), an dem das stellvertretende Bild erhalten wurde. Zum Beispiel wurde das Interesse des Benutzers möglicherweise geweckt, als die Katze 712 damit begann, sich im Gras zu wälzen, was den Benutzer dazu veranlasste, das erste stellvertretende Bild 702-3 aufzunehmen. In einigen Ausführungsformen beinhaltet die erste Folge von Bildern 702 Bilder kurz vor und kurz nach dem Erhalten des ersten stellvertretenden Bildes 702-3, sodass die erste Folge von Bildern 702 ein erweitertes Foto umfasst, durch den der Moment „zum Leben erweckt” werden kann, wenn der Benutzer bestimmte Operationen in Bezug auf das erste stellvertretende Bild 702-3 wie hierin beschrieben durchführt.
  • Die zweite gruppierte Folge von Bildern 724 beinhaltet ein zweites stellvertretendes Bild 724-3 (7F) und mindestens ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes 724-3 erfasst wurden (z. B. Bild 724-1, 7C, und Bild 724-2, 7D). Die zweite Folge von Bildern 724 beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des zweiten stellvertretenden Bildes 724-3 erfasst wurden. Somit lautet die chronologische Reihenfolge (z. B. die Reihenfolge, in der sie von der Kamera aufgenommen wurden) der zweiten Folge von Bildern 724: Bild 724-1; Bild 724-2; und Bild 724-3. Die zweite Folge von Bildern 724 stellt eine Szene dar, in der eine Möwe 728 in der Ferne fliegt (Bild 724-1, 7C), in den Vordergrund fliegt (Bild 724-2, 7D) und beginnt, wieder davon zu fliegen (Bild 724-3, 7F).
  • Die dritte gruppierte Folge von Bildern 726 beinhaltet ein drittes stellvertretendes Bild 726-1 und mindestens ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des dritten stellvertretenden Bildes 726-1 erfasst wurden (z. B. Bild 726-3, 7H, und Bild 724-2, 7D). Die dritte Folge von Bildern 726 beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des dritten stellvertretenden Bildes 726-1 erfasst wurden. Somit lautet die chronologische Reihenfolge (z. B. die Reihenfolge, in der sie von der Kamera aufgenommen wurden) der dritten Folge von Bildern 726: Bild 726-1; Bild 726-2; und Bild 726-3. Die dritte Folge von Bildern 726 stellt eine Szene dar, in der ein Walfisch 730 auftaucht (Bild 726-1, 7K), in gleicher Höhe im Sichtfeld mit einem Schiff 732 schwimmt (Bild 726-2, 7I) und aus dem Sichtfeld verschwindet, nachdem der in den Ozean abgetaucht ist (Bild 726-3, 7H).
  • Die vierte gruppierte Folge von Bildern 760 beinhaltet ein viertes stellvertretendes Bild 760-3 und mindestens ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des vierten stellvertretenden Bildes 760-1 erfasst wurden (z. B. Bild 760-1, 7V, und Bild 760-2, 7W). Somit lautet die chronologische Reihenfolge (z. B. die Reihenfolge, in der sie von der Kamera aufgenommen wurden) der vierten Folge von Bildern 760: Bild 760-1; Bild 760-2; und Bild 760-3. Die vierte Folge von Bildern 760 stellt eine Szene dar, in der ein Feuerwerkskörper 762 startet (Bild 760-1, 7V), durch die Luft fliegt (Bild 760-2, 7W) und explodiert (Bild 760-3, 7X).
  • In einigen Ausführungsformen wurde die erste Folge von Bildern 702 von der Kamera vor der zweiten Folge von Bildern 724 erfasst, und die erste Folge von Bildern 702 wurde von der Kamera nach der dritten Folge von Bildern 726 erfasst.
  • In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 700 um eine Benutzerschnittstelle in einer Bildverwaltungsanwendung (z. B. Photos von Apple Inc. aus Cupertino, Kalifornien). Zu diesem Zweck ist die Kamera, welche die erste Folge von Bildern 702 (und/oder die zweite Folge von Bildern 724; die dritte Folge von Bildern 726 usw.) aufgenommen hat, in einigen Ausführungsformen Teil der tragbaren Multifunktionsvorrichtung 100 (z. B. weist die Kamera die optischen Sensoren 164 in Verbindung mit dem Bildmodul 143, 1A auf). In einigen Ausführungsformen wurde die erste Folge von Bildern 702 von einer Kamera aufgenommen, die nicht Teil der tragbaren Multifunktionsvorrichtung 100 ist (z. B. wurde die erste Folge von Bildern 702 an die tragbare Multifunktionsvorrichtung 100 übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die erste Folge von Bildern 702 als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das erste stellvertretende Bild 702-3 dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • In einigen Ausführungsformen wurden einige der mehreren Folgen von Bildern unter Verwendung der tragbaren Multifunktionsvorrichtung 100 erfasst, und einige wurden auf die tragbare Multifunktionsvorrichtung 100 übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurden. In bestimmten Fällen kann ein Benutzer zum Beispiel Folgen von Bildern auf mehreren Vorrichtungen (z. B. einem Tablet, einem Laptop und/oder einer Digitalkamera, alle zusätzlich zur tragbaren Multifunktionsvorrichtung 100) erhalten (z. B. aufnehmen, einfangen), wie unter Bezugnahme auf die Verfahren 900/2600 beschrieben ist, und die Folgen von Bildern mit der tragbaren Multifunktionsvorrichtung 100 synchronisieren oder anderweitig auf diese übertragen.
  • In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 700 um eine Benutzerschnittstelle in einer Messaging-Anwendung (z. B. Messages von Apple Inc. aus Cupertino, Kalifornien). In einigen Ausführungsformen handelt es sich bei der ersten Folge von Bildern 702 um eine Nachrichtenkonversation, die in einem scrollbaren Bereich der Messaging-Anwendung angezeigt wird, und die erste Folge von Bildern 702 wird angezeigt, wenn der scrollbare Bereich der Messaging-Anwendung gescrollt wird, und in die Bilder sind in bestimmten Fällen Textnachrichten oder andere über die Messaging-Anwendung gesendete und empfangene Nachrichten eingestreut (z. B. in Gesprächsblasen). In bestimmten Fällen kann eine Benutzerin eine jeweilige Folge von Bildern auf ihrer tragbaren Multifunktionsvorrichtung 100 erhalten (z. B. aufgenommen, eingefangen) haben und auch eine andere Folge von Bildern von einem anderen Benutzer empfangen haben (z. B. in einer Messaging-Anwendung). Somit beinhalten die mehreren auf der tragbaren Multifunktionsvorrichtung 100 gespeicherten Folgen von Bildern in bestimmten Fällen mindestens eine Folge von Bildern, die unter Verwendung einer Kamera auf der tragbaren Multifunktionsvorrichtung 100 erhalten wurde, und mindestens eine Folge von Bildern, die unter Verwendung einer Kamera auf einer anderen Vorrichtung erhalten wurden, die getrennt von der tragbaren Multifunktionsvorrichtung 100 ist.
  • In einigen Ausführungsformen wird das stellvertretende Bild 702-3 in der Benutzerschnittstelle 700 angezeigt (z. B. in einer Bildverwaltungsanwendung oder Messaging-Anwendung angezeigt, wenn die Benutzerin durch ihre Bilder oder Nachrichten scrollt).
  • 7A veranschaulicht eine Benutzerschnittstelle 700. Die tragbare Multifunktionsvorrichtung 100 zeigt in der Benutzerschnittstelle 700 ein erstes stellvertretendes Bild 702 in einem beweglichen ersten Bereich 734 auf dem Touchscreen 112 an. Es sollte klar sein, dass die Grenze des beweglichen ersten Bereichs 734 nicht immer auf dem Touchscreen 112 angezeigt wird und bereitgestellt wird, um bei der Beschreibung der Figuren zu helfen.
  • 7B veranschaulicht die tragbare Multifunktionsvorrichtung 100, die eine Ziehgeste 736 (beginnend bei Position 736-1) auf dem Touchscreen 112 erkennt. In einigen Ausführungsformen werden die in den 7B7K veranschaulichten Operationen infolge eines Feststellens durchgeführt, dass die Ziehgeste 736 vordefinierte Kriterien erfüllt (z. B. vordefinierte Kriterien zum Navigieren zum nächsten Foto). Zum Beispiel werden die in den 7B7F veranschaulichten Operationen in einigen Ausführungsformen durchgeführt (z. B. ausgelöst), wenn die Ziehgeste 736 vordefinierte Pfadeigenschaften aufweist (z. B. ist die Ziehgeste 736 durch eine laterale (oder vertikale) Geschwindigkeit gekennzeichnet; das heißt, die Ziehgeste verläuft in der in den 7A7CC gezeigten Ausrichtung eher seitlich (oder nach oben und unten) als nach oben und unten (oder seitlich)). In einigen Ausführungsformen beinhaltet die tragbare Multifunktionsvorrichtung 100 einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten mit dem Touchscreen 112, und die in den 7B7F veranschaulichten Operationen werden durchgeführt (z. B. ausgelöst), wenn die Ziehgeste 736 eine charakteristische Intensität aufweist, die vordefinierte Intensitätskriterien erfüllt (z. B. einhält) (z. B. die Leicht-Drücken-Schwelle ITL übersteigt, wie an anderer Stelle in diesem Dokument beschrieben ist). In einigen Ausführungsformen werden die in den 7B7F veranschaulichten Operationen durchgeführt (z. B. ausgelöst), wenn die Ziehgeste 736 vordefinierte Pfadeigenschaften aufweist (z. B. ist die Ziehgeste 736 durch eine laterale Geschwindigkeit gekennzeichnet) und vordefinierte Intensitätskriterien erfüllt (z. B. eine vordefinierte Intensitätsschwelle übersteigt).
  • Wie in 7A gezeigt ist, veranschaulicht die Benutzerschnittstelle 700 das Anzeigen des ersten stellvertretenden Bildes 702-3 in einem Bildpräsentationsmodus. Wie in 7A gezeigt ist, handelt es sich in einigen Ausführungsformen bei dem beweglichen ersten Bereich 734 um einen Bereich, der Bilder in der ersten Folge von Bildern anzeigt, ohne Bilder aus anderen Folgen von Bildern als der ersten Folge von Bildern anzuzeigen.
  • In 7B verläuft die Ziehgeste 736 nach links. Entsprechend bewegt die tragbare Multifunktionsvorrichtung 100 den ersten Bereich 734 nach links, wie in den 7C7D gezeigt ist. Zusätzlich ersetzt die tragbare Multifunktionsvorrichtung 100 in dem beweglichen ersten Bereich 734 der Benutzerschnittstelle 700 das Anzeigen des ersten stellvertretenden Bildes 702-3 durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern 702, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes 702-3 erfasst wurden, in chronologischer Reihenfolge (nämlich Bild 702-4, 7C, und Bild 702-5, 7D). Das heißt, die tragbare Multifunktionsvorrichtung 100 zeigt ein animiertes Anzeigen der ersten Folge von Bildern 702 in dem ersten Bereich an.
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern 702, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem ersten Bereich 734 in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste 736 statt. Wenn die Bewegung der Ziehgeste 736 nach links schneller wird, wird somit das Anzeigen des chronologischen Fortschreitens von Bildern in dem ersten Bereich 734 schneller. Wenn die Bewegung der Ziehgeste 736 nach links langsamer wird, wird das Anzeigen des chronologischen Fortschreitens von Bildern in dem ersten Bereich 734 langsamer. Wenn die Bewegung der Ziehgeste 736 nach links pausiert wird, wird das Anzeigen des chronologischen Fortschreitens von Bildern in dem ersten Bereich 734 pausiert. Und, wenn die Bewegung der Ziehgeste 736 die Richtung umkehrt (z. B. von einer Ziehgeste nach links zu einer Ziehgeste nach rechts), wird das Anzeigen des chronologischen Fortschreitens von Bildern in der ersten Folge von Bildern 702 in dem ersten Bereich 734 umgekehrt, und die Bilder werden in Übereinstimmung mit der Bewegung der Ziehgeste 736 in der umgekehrten Richtung in umgekehrter chronologischer Reihenfolge gezeigt. Allgemeiner ausgedrückt, findet für eine jeweilige Folge von Bildern das Anzeigen eines Fortschreitens von Bildern in der jeweiligen Folge von Bildern in einigen Ausführungsformen in einem jeweiligen Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt.
  • In einigen Ausführungsformen löst der Benutzer die in den 6A6FF gezeigten Operationen aus, indem er eine oder mehrere Eigenschaften der Ziehgeste 736 auf eine vordefinierte Weise ändert. Wenn der Benutzer zum Beispiel die Ziehgeste 736 pausiert und fester auf den Touchscreen 112 drückt, gibt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen die erste Folge von Bildern 702 wie unter Bezugnahme auf die 6A6FF beschrieben wieder, selbst wenn sich lediglich ein Teil des ersten Bereichs 734 auf dem Display befindet. In einigen Ausführungsformen ist die tragbare Multifunktionsvorrichtung 100 so konfiguriert, dass sie die Änderung oder Abänderung der einen oder mehreren Eigenschaften der Ziehgeste 736 erkennt.
  • Die 7C7D veranschaulichen auch, dass die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen in Übereinstimmung mit der Ziehgeste 736 nach links einen zweiten Bereich 738 nach links bewegt. In einigen Ausführungsformen beinhaltet das Bewegen des zweiten Bereichs 738 nach links das Bewegen von zumindest einem Teil des zweiten Bereichs 738 von links auf den Touchscreen 112 hinauf. In einigen Ausführungsformen handelt es sich bei dem beweglichen zweiten Bereich 738 um einen Bereich, der Bilder in der zweiten Folge von Bildern 724 anzeigt, ohne Bilder aus anderen Folgen von Bildern als der zweiten Folge von Bildern 724 anzuzeigen (z. B. werden die erste Folge von Bildern 702 und die dritte Folge von Bildern 726 in dem beweglichen zweiten Bereich 738 nicht angezeigt). Wie in 7C gezeigt ist, befindet sich der bewegliche zweite Bereich 738 in einigen Ausführungsformen neben dem beweglichen ersten Bereich 734 (z. B. rechts des beweglichen ersten Bereichs 734). In einigen Ausführungsformen zeigt die tragbare Multifunktionsvorrichtung 100 während des Bewegens des zweiten Bereichs 738 nach links in chronologischer Reihenfolge in dem zweiten Bereich 738 zumindest einige von einem oder mehreren Bildern für die zweite Folge von Bildern 724 an, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes 724-3 erfasst wurden.
  • In einigen Ausführungsformen entspricht die Bewegung des ersten Bereichs 734 der Bewegung der Ziehgeste 736. Zum Beispiel ist die Bewegung des ersten Bereichs 734 zwischen 7B und 7C in einigen Ausführungsformen proportional zu der Distanz zwischen der Position 736-1 (7B) und 736-2 (7C). Gleichermaßen ist die Bewegung des ersten Bereichs 734 zwischen 7D und 7D in einigen Ausführungsformen proportional zu der Distanz zwischen der Position 736-2 (7C) und 736-3 (7D), wodurch der Benutzer den Eindruck des Ziehens des beweglichen ersten Bereichs 734 erhält. Wie in den 7C7D gezeigt, ist, beinhaltet das Bewegen des ersten Bereichs 734 nach links in einigen Ausführungsformen das Bewegen von zumindest einem Teil des ersten Bereichs 734 nach links herunter von dem Touchscreen 112.
  • Wie in den 7B7D gezeigt ist, bewegen sich der erste Bereich 734 und der zweite Bereich 738 in einigen Ausführungsformen mit derselben Geschwindigkeit über den Touchscreen 112 (z. B. entsprechen die Distanz der Bewegung des ersten Bereichs 734 und die Distanz der Bewegung des zweiten Bereichs 738 der Distanz der Bewegung der Ziehgeste 736). Wie in den 7L7P gezeigt ist, bewegen sich der erste Bereich 734 und der zweite Bereich 738 in einigen Ausführungsformen mit unterschiedlichen Geschwindigkeiten. Zum Beispiel ist in den 7L7P die Bewegung des zweiten Bereichs 738 als Reaktion auf die Ziehgeste 752 weniger als die Bewegung des ersten Bereichs 734 als Reaktion auf die Ziehgeste 752 (z. B. stimmt die Distanz der Bewegung des ersten Bereichs 734 mit der Distanz der Bewegung der Ziehgeste 752 überein, und die Distanz der Bewegung des zweiten Bereichs 738 ist ein Bruchteil wie zum Beispiel 50% der Distanz der Bewegung der Ziehgeste 752).
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die zweite Folge von Bildern 724, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes 724-3 erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich 738 in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste 736 statt (z. B. auf entsprechende Weise wie vorstehend unter Bezugnahme auf die erste Folge von Bildern 702 beschrieben). Zum Beispiel werden sowohl die Bilder in dem ersten Bereich 734 als auch die Bilder in dem zweiten Bereich 738 während der Ziehgeste 736 mit derselben Geschwindigkeit weitergeschaltet, wobei die Geschwindigkeit auf der Bewegung der Ziehgeste 736 basiert. In einigen Ausführungsformen werden die Bilder in dem ersten Bereich 734 und die Bilder in dem zweiten Bereich 738 während der Ziehgeste 752 mit unterschiedlichen Geschwindigkeiten weitergeschaltet, wie zum Beispiel nachfolgend unter Bezugnahme auf die 7L7P beschrieben wird. Zum Beispiel ist in den 7L7P die Geschwindigkeit, mit der die Bilder in dem zweiten Bereich als Reaktion auf die Ziehgeste 752 weitergeschaltet werden, geringer als die Geschwindigkeit, mit der die Bilder in dem ersten Bereich 734 als Reaktion auf die Ziehgeste 752 weitergeschaltet werden (z. B. 50% der Geschwindigkeit, mit der die Bilder in dem ersten Bereich 734 als Reaktion auf die Ziehgeste 752 weitergeschaltet werden).
  • In einigen Ausführungsformen zeigt der zweite Bereich 738 als Alternative zu dem in den 7B7D gezeigten Beispiel während des Bewegens des zweiten Bereichs 738 nach links lediglich das zweite stellvertretende Bild 724-3 für die zweite Folge von Bildern an, ohne andere Bilder in der zweiten Folge von Bildern 724 anzuzeigen.
  • In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 700 ein Weiter-Symbol 750-1 (z. B. 7A) und ein Zurück-Symbol 750-2. In einigen Ausführungsformen führt das Erkennen der Aktivierung des Weiter-Symbols 750-1 wie das Erkennen einer Ziehgeste in die erste Richtung auch zu dem animierten Anzeigen von Bildern aus der ersten Folge von Bildern 702 in dem ersten Bereich 734 und dem animierten Anzeigen von Bildern aus der zweiten Folge von Bildern 724 in dem zweiten Bereich 738. In einigen Ausführungsformen führt das Erkennen der Aktivierung des Weiter-Symbols 750-1 zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes 702-3 durch das Anzeigen des zweiten stellvertretenden Bildes 724-3, ohne das animierte Anzeigen von Bildern aus der ersten Folge von Bildern 702 in dem ersten Bereich 734 und ohne das animierte Anzeigen von Bildern aus der zweiten Folge von Bildern 724 in dem zweiten Bereich 738. In einigen Ausführungsformen führt das Erkennen der Aktivierung des Weiter-Symbols 750-1 zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes 702-3 durch das Anzeigen des zweiten stellvertretenden Bildes 724-3, ohne das Anzeigen von anderen Bildern in der ersten Folge oder der zweiten Folge.
  • Obgleich die in den 7B7D stattfindenden Operationen in Bezug auf eine Links/Rechts-Bewegung der Ziehgeste 736 beschrieben werden, werden analoge Operationen in Bezug auf eine Oben/Unten-Bewegung einer Ziehgeste für möglich gehalten, die innerhalb des Umfangs der Ansprüche fallen sollten, soweit nicht anderweitig angegeben. Anstelle des Bewegens des zweiten Bereichs 738 nach links auf den Touchscreen 112 hinauf befindet sich in einigen Ausführungsformen als Alternative zu dem in den 7B7D gezeigten Beispiel der zweite Bereich 738 unterhalb des ersten Bereichs 734 in einer Z-Ordnung (von vorne nach hinten), wenn die Ziehgeste 736 eine Geste nach links oder unten ist, und der zweite Bereich 738 wird gezeigt (z. B. aufgedeckt), wenn der erste Bereich 734 herunter von dem Touchscreen 112 nach links (oder nach unten) bewegt wird.
  • Wie in 7F veranschaulicht ist, zeigt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen nach dem Bewegen des zweiten Bereichs 738 nach links, wie in Bezug auf die 7B7D beschrieben ist, in der Benutzerschnittstelle 700 das zweite stellvertretende Bild 724-3 an. In einigen Ausführungsformen findet das Anzeigen des zweiten stellvertretenden Bildes 724-3 in Übereinstimmung mit den nachfolgend in Bezug auf die 7E7F beschriebenen Operationen statt.
  • Wie in 7E veranschaulicht ist, erkennt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen das Beenden (z. B. Abheben) der Ziehgeste 736, während sie den ersten Bereich 734 und den zweiten Bereich 738 bewegt. Als Reaktion darauf ermittelt die tragbare Multifunktionsvorrichtung 100, ob die Ziehgeste 736 Kriterien für das Navigieren zur nächsten Folge erfüllt. Zum Beispiel werden die Kriterien für das Navigieren zur nächsten Folge in einigen Ausführungsformen erfüllt, wenn die Bewegung des ersten Bereichs 734 so ist, dass der erste Bereich 734 mehr als zur Hälfte vom Touchscreen 112 verschwunden ist (z. B. wurde ein Mittelpunkt des ersten Bereichs 734 vom Touchscreen 112 herunter bewegt). Wie in 7E gezeigt ist, werden die Kriterien für das Navigieren zur nächsten Folge in einigen Ausführungsformen erfüllt, wenn die Bewegung des ersten Bereichs 734 und des zweiten Bereichs 738 so ist, dass sich eine Grenze 740 zwischen dem ersten Bereich 734 und dem zweiten Bereich 738 über einem Mittelpunkt 742 des Touchscreen 112 befindet (oder einem Mittelpunkt der Benutzerschnittstelle 700, wenn diese nicht innerhalb des Touchscreen 112 zentriert ist, oder einem beliebigen anderen geeigneten vordefinierten Punkt wie zum Beispiel einem Drittel oder einem Viertel der Strecke auf der Benutzerschnittstelle 700). In einigen Ausführungsformen werden die Kriterien für das Navigieren zur nächsten Folge erfüllt, wenn eine Geschwindigkeit der Ziehgeste 736 vordefinierte Geschwindigkeitskriterien erfüllt (z. B., wenn eine durchschnittliche Geschwindigkeit oder eine momentane Geschwindigkeit der Ziehgeste 736 eine Geschwindigkeitsschwelle übersteigt). In einigen Ausführungsformen werden die Kriterien für das Navigieren zur nächsten Folge erfüllt, wenn die Geschwindigkeit der Ziehgeste 736 auf eine „Flick”-Geste hinweist.
  • Wie in 7F gezeigt ist, bewegt die tragbare Multifunktionsvorrichtung 100, wenn die Kriterien für das Navigieren zur nächsten Folge erfüllt werden, den ersten Bereich 734 vollständig vom Touchscreen 112 herunter (z. B. durch Bewegen des ersten Bereichs 734 weiter nach links, bis der erste Bereich 734 vollständig vom Touchscreen 112 verschwunden ist), und bewegt den zweiten Bereich 738 vollständig auf den Touchscreen 112 hinauf (z. B. durch Bewegen des zweiten Bereichs 738 weiter nach links, bis sich der zweite Bereich 738 vollständig auf dem Touchscreen 112 befindet). Infolgedessen zeigt die tragbare Multifunktionsvorrichtung 100 das zweite stellvertretende Bild 724-3 (7F) an. Somit erhält der Benutzer in einigen Ausführungsformen durch das Beenden der Ziehgeste 736, wenn die Kriterien für das Navigieren zur nächsten Folge erfüllt werden, den Eindruck, das zweite stellvertretende Bild 724-3 auf die Benutzerschnittstelle 700 hinauf zu schnipsen.
  • Umgekehrt bewegt die tragbare Multifunktionsvorrichtung 100, wenn die Kriterien für das Navigieren zur nächsten Folge nicht erfüllt werden, in einigen Ausführungsformen den zweiten Bereich 738 vollständig vom Touchscreen 112 herunter (z. B. durch Bewegen des zweiten Bereichs 738 nach rechts, bis der zweite Bereich 738 vollständig vom Touchscreen 112 verschwunden ist), und bewegt den ersten Bereich 734 vollständig auf den Touchscreen 112 hinauf (z. B. durch Bewegen des ersten Bereichs 734 zurück nach rechts, bis sich der erste Bereich 734 vollständig auf dem Touchscreen 112 befindet). Infolgedessen zeigt die tragbare Multifunktionsvorrichtung 100 wieder das erste stellvertretende Bild 702-3 an (kehrt z. B. zu der in 7 gezeigten Ansicht zurück). Somit erhält der Benutzer in einigen Ausführungsformen durch das Beenden der Ziehgeste 736, wenn Kriterien für das Navigieren zur nächsten Folge nicht erfüllt werden, den Eindruck, das erste stellvertretende Bild 702-3 zurück auf die Benutzerschnittstelle 700 hinauf zu schnipsen. In einigen Ausführungsformen werden die erste Folge von Bildern 702 und die zweite Folge von Bildern 724 rückwärts angezeigt (z. B. in umgekehrter chronologischer Reihenfolge), während die tragbare Multifunktionsvorrichtung 100 den ersten Bereich 734 vollständig auf den und den zweiten Bereich 738 vollständig herunter von dem Touchscreen 112 bewegt.
  • Die 7G7K veranschaulichen analoge Merkmale wie die 7B7F, außer, dass die 7G7K das Navigieren zur vorherigen Folge in Übereinstimmung mit einigen Ausführungsformen veranschaulicht, während die 7B7F das Navigieren zur nächsten Folge in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • 7F veranschaulicht die tragbare Multifunktionsvorrichtung 100, die eine Ziehgeste 744 (beginnend bei Position 744-1) auf dem Touchscreen 112 erkennt. In einigen Ausführungsformen werden die in den 7G7K veranschaulichten Operationen infolge eines Feststellens durchgeführt, dass die Ziehgeste 744 vordefinierte Kriterien erfüllt (z. B. vordefinierte Kriterien zum Navigieren zum vorhergehenden Foto). In einigen Ausführungsformen sind die vordefinierten Kriterien für das Navigieren zu einem vorhergehenden Foto (z. B. einer vorhergehenden gruppierten Folge von Bildern) analog zu den vordefinierten Kriterien für das Navigieren zu einem nächsten Foto (z. B. einer nächsten gruppierten Folge von Bildern), das unter Bezugnahme auf die 7B7F beschrieben ist, außer, dass die jeweiligen Ziehgesten für die beiden allgemein in entgegengesetzten Richtungen verlaufen (oder zumindest hauptsächlich).
  • 7G ist analog zu 7B, außer, dass die Ziehgeste 744 in der entgegengesetzten Richtung zur Ziehgeste 736 (7B) verläuft, während die tragbare Multifunktionsvorrichtung 100 das erste stellvertretende Bild 702-3 anzeigt. Das heißt, in 7G verläuft die Ziehgeste 744 nach rechts. Entsprechend bewegt die tragbare Multifunktionsvorrichtung 100 den ersten Bereich 734 nach rechts, wie in den 7H7I gezeigt ist. Zusätzlich ersetzt die tragbare Multifunktionsvorrichtung 100 in dem beweglichen ersten Bereich 734 der Benutzerschnittstelle 700 das Anzeigen des ersten stellvertretenden Bildes 702-3 durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern 702, die von der Kamera vor dem Erfassen des ersten stellvertretenden Bildes 702-3 erfasst wurden, in umgekehrt chronologischer Reihenfolge (nämlich Bild 702-2, 7H, und Bild 702-1, 7I). Wie vorstehend unter Bezugnahme auf die 7B7F beschrieben, findet für eine jeweilige Folge von Bildern das Anzeigen eines Fortschreitens von Bildern in der jeweiligen Folge von Bildern in einigen Ausführungsformen in einem jeweiligen Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt (z. B. einer Bewegung von Position 744-1, 7G zur Position 744-2, 7H, zur Position 744-3, 7I).
  • Die 7H7I veranschaulichen auch, dass die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen in Übereinstimmung mit der Ziehgeste 736 nach rechts einen dritten Bereich 746 nach rechts bewegt. In einigen Ausführungsformen beinhaltet das Bewegen des dritten Bereichs 746 nach rechts das Bewegen von zumindest einem Teil des dritten Bereichs 746 nach rechts auf den Touchscreen 112 hinauf. In einigen Ausführungsformen handelt es sich bei dem beweglichen dritten Bereich 746 um einen Bereich, der Bilder in der dritten Folge von Bildern 726 anzeigt, ohne Bilder aus anderen Folgen von Bildern als der dritten Folge von Bildern 726 anzuzeigen (z. B. werden die erste Folge von Bildern 702 und die zweite Folge von Bildern 724 in dem beweglichen dritten Bereich 746 nicht angezeigt). Wie in 7H gezeigt ist, befindet sich der bewegliche dritte Bereich 746 in einigen Ausführungsformen neben dem beweglichen ersten Bereich 734 (z. B. links des beweglichen ersten Bereichs 734, entgegengesetzt zum beweglichen zweiten Bereich 738). In einigen Ausführungsformen zeigt die tragbare Multifunktionsvorrichtung 100 während des Bewegens des dritten Bereichs 746 nach rechts in umgekehrt chronologischer Reihenfolge in dem dritten Bereich 746 zumindest einige von einem oder mehreren Bildern für die dritte Folge von Bildern 726 an, die von der Kamera vor dem Erfassen des dritten stellvertretenden Bildes 726-1 erfasst wurden.
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die dritte Folge von Bildern 726, die von der Kamera nach dem Erfassen des dritten stellvertretenden Bildes 726-1 erfasst wurden, in umgekehrt chronologischer Reihenfolge in dem dritten Bereich 746 in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste 744 statt (z. B. auf entsprechende Weise wie vorstehend unter Bezugnahme auf die erste Folge von Bildern 702 beschrieben). Zum Beispiel schreiten sowohl die Bilder in dem ersten Bereich 734 als auch die Bilder in dem dritten Bereich 746 während der Ziehgeste 744 mit derselben Geschwindigkeit zurück, wobei die Geschwindigkeit auf der Bewegung der Ziehgeste 744 basiert.
  • In einigen Ausführungsformen führt das Erkennen der Aktivierung des Zurück-Symbols 750-2 (z. B. 7A) wie das Erkennen der Ziehgeste 744 in der zweiten Richtung zu dem animierten Anzeigen von Bildern aus der ersten Folge 702 in dem ersten Bereich 734 und dem animierten Anzeigen von Bildern aus der dritten Folge 726 in dem dritten Bereich 744. In einigen Ausführungsformen führt das Erkennen der Aktivierung des Zurück-Symbols 750-2 zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes 702-3 durch das Anzeigen des dritten stellvertretenden Bildes 726-1, ohne das animierte Anzeigen von Bildern aus der ersten Folge 702 in dem ersten Bereich 734 und ohne das animierte Anzeigen von Bildern aus der dritten Folge 726 in dem dritten Bereich 744. In einigen Ausführungsformen führt das Erkennen der Aktivierung des Zurück-Symbols 750-2 zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes 702-3 durch das Anzeigen des dritten stellvertretenden Bildes 726-1, ohne das Anzeigen von anderen Bildern in der ersten Folge 702 oder der dritten Folge 726.
  • In einigen Ausführungsformen zeigt der dritte Bereich 746 als Alternative zu dem in den 7G7I gezeigten Beispiel während des Bewegens des dritten Bereichs 746 nach rechts als Reaktion auf die Ziehgeste 744 lediglich das dritte stellvertretende Bild 726-1 für die dritte Folge von Bildern 726 an, ohne andere Bilder in der dritten Folge von Bildern 726 anzuzeigen.
  • Obgleich die in den 7G7I stattfindenden Operationen in Bezug auf eine Links/Rechts-Bewegung der Ziehgeste 744 beschrieben werden, werden analoge Operationen in Bezug auf eine Oben/Unten-Bewegung einer Ziehgeste für möglich gehalten, die innerhalb des Umfangs der Ansprüche fallen sollten, soweit nicht anderweitig angegeben. Anstelle des Bewegens des dritten Bereichs 746 nach links auf den Touchscreen 112 hinauf befindet sich in einigen Ausführungsformen als Alternative zu dem in den 7G7I gezeigten Beispiel der dritte Bereich 746 unterhalb des ersten Bereichs 734 in einer Z-Ordnung (von vorne nach hinten), wenn die Ziehgeste 744 eine Geste nach rechts oder oben ist, und der dritte Bereich 746 wird gezeigt (z. B. aufgedeckt), wenn der erste Bereich 734 herunter von dem Touchscreen 112 nach rechts (oder nach oben) bewegt wird.
  • Wie in 7K veranschaulicht ist, zeigt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen nach dem Bewegen des dritten Bereichs 746 nach rechts, wie in Bezug auf die 7G7I beschrieben ist, in der Benutzerschnittstelle 700 das dritte stellvertretende Bild 726-1 an. In einigen Ausführungsformen findet das Anzeigen des dritten stellvertretenden Bildes 726-1 in Übereinstimmung mit den nachfolgend in Bezug auf die 7J7K beschriebenen Operationen statt.
  • Wie in 7J veranschaulicht ist, erkennt die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen das Beenden (z. B. Abheben) der Ziehgeste 744, während sie den ersten Bereich 734 und den dritten Bereich 746 bewegt. Als Reaktion darauf ermittelt die tragbare Multifunktionsvorrichtung 100, ob die Ziehgeste 744 Kriterien für das Navigieren zur vorherigen Folge erfüllt. Zum Beispiel werden die Kriterien für das Navigieren zur vorherigen Folge in einigen Ausführungsformen erfüllt, wenn die Bewegung des ersten Bereichs 734 so ist, dass der erste Bereich 734 mehr als zur Hälfte vom Touchscreen 112 verschwunden ist (z. B. wurde ein Mittelpunkt des ersten Bereichs 734 vom Touchscreen 112 herunter bewegt). Wie in 7J gezeigt ist, werden die Kriterien für das Navigieren zur vorherigen Folge in einigen Ausführungsformen erfüllt, wenn die Bewegung des ersten Bereichs 734 und des dritten Bereichs 746 so ist, dass sich eine Grenze 748 zwischen dem ersten Bereich 734 und dem dritten Bereich 746 über dem Mittelpunkt 742 des Touchscreen 112 befindet (oder dem Mittelpunkt der Benutzerschnittstelle 700, wenn diese nicht innerhalb des Touchscreen 112 zentriert ist, oder einem beliebigen anderen geeigneten vordefinierten Punkt).
  • Wie in 7K gezeigt ist, bewegt die tragbare Multifunktionsvorrichtung 100, wenn die Kriterien für das Navigieren zur vorherigen Folge erfüllt werden, den ersten Bereich 734 vollständig vom Touchscreen 112 herunter (z. B. durch Bewegen des ersten Bereichs 734 weiter nach rechts, bis der erste Bereich 734 vollständig vom Touchscreen 112 verschwunden ist), und bewegt den dritten Bereich 746 vollständig auf den Touchscreen 112 hinauf (z. B. durch Bewegen des dritten Bereichs 746 weiter nach rechts, bis sich der dritte Bereich 746 vollständig auf dem Touchscreen 112 befindet). Infolgedessen zeigt die tragbare Multifunktionsvorrichtung 100 das dritte stellvertretende Bild 726-1 (7K) an. Somit erhält der Benutzer in einigen Ausführungsformen durch das Beenden der Ziehgeste 744, wenn die Kriterien für das Navigieren zur vorherigen Folge erfüllt werden, den Eindruck, das dritte stellvertretende Bild 726-1 auf die Benutzerschnittstelle 700 hinauf zu schnipsen.
  • Umgekehrt bewegt die tragbare Multifunktionsvorrichtung 100, wenn die Kriterien für das Navigieren zur vorherigen Folge nicht erfüllt werden, in einigen Ausführungsformen den dritten Bereich 746 vollständig vom Touchscreen 112 herunter (z. B. durch Bewegen des dritten Bereichs 746 nach links, bis der dritte Bereich 746 vollständig vom Touchscreen 112 verschwunden ist), und bewegt den ersten Bereich 734 vollständig auf den Touchscreen 112 hinauf (z. B. durch Bewegen des ersten Bereichs 734 zurück nach links, bis sich der erste Bereich 734 vollständig auf dem Touchscreen 112 befindet). Infolgedessen zeigt die tragbare Multifunktionsvorrichtung 100 wieder das erste stellvertretende Bild 702-3 an (kehrt z. B. zu der in 7 gezeigten Ansicht zurück). Somit erhält der Benutzer in einigen Ausführungsformen durch das Beenden der Ziehgeste 744, wenn Kriterien für das Navigieren zur vorherigen Folge nicht erfüllt werden, den Eindruck, das erste stellvertretende Bild 702-3 zurück auf die Benutzerschnittstelle 700 hinauf zu schnipsen. In einigen Ausführungsformen werden die erste Folge von Bildern 702 und die dritte Folge von Bildern 726 vorwärts angezeigt (z. B. in chronologischer Reihenfolge), während die tragbare Multifunktionsvorrichtung 100 den ersten Bereich 734 vollständig auf den und den dritten Bereich 746 vollständig herunter von dem Touchscreen 112 bewegt.
  • Die 7L7P veranschaulichen Ausführungsformen, in denen sich der erste Bereich 734 und der zweite Bereich 738 als Reaktion auf eine Ziehgeste 752 mit unterschiedlichen Geschwindigkeiten auf dem Touchscreen 112 bewegen. 7L ist analog zu 7A und wird als Ausgangspunkt für die in den 7M7P gezeigte Funktionalität bereitgestellt. Wie in den 7M7O gezeigt ist, bewegt sich die Ziehgeste 752 von Position 752-1 (7M) zur Position 752-2 (7N) zur Position 752-3 (7O). In einigen Ausführungsformen entspricht die Bewegung des ersten Bereichs 734 der Bewegung der Ziehgeste 752. Wenn sich die Ziehgeste 752 zum Beispiel um 1 Zentimeter (cm) bewegt, bewegt sich der erste Bereich 734 um 1 cm. In einigen Ausführungsformen bewegt sich der zweite Bereich 738 auf Grundlage der Bewegung der Ziehgeste 752, aber die Distanz der Bewegung des zweiten Bereichs 738 ist geringer als die Distanz der Bewegung der Ziehgeste 752. Wenn sich die Ziehgeste 752 zum Beispiel um 1 Zentimeter (cm) bewegt, bewegt sich der zweite Bereich 738 um 0,5 cm.
  • In diesem Beispiel befindet sich der erste Bereich 734 über dem zweiten Bereich 738 (z. B. in einer Z-Ordnung), sodass der zweite Bereich 738 stufenweise gezeigt wird, wenn der erste Bereich 734 von dem Touchscreen 112 als Reaktion auf die Ziehgeste 752 [hier fehlt etwas im englischen Text]. Zu Beginn der Ziehgeste 752 befindet sich der zweite Bereich 738 teilweise, aber nicht vollständig auf dem Touchscreen 112 (z. B. zur Hälfte oder zu drei Vierteln auf dem Touchscreen 112). Wenn der Benutzer den ersten Bereich 734 nach rechts herunter von dem Touchscreen 112 schiebt, wird der zweite Bereich 738 die restliche Strecke auf den Touchscreen 112 hinauf geschoben, sodass das vollständige Verschieben des ersten Bereichs 734 herunter von dem Touchscreen 112 dem vollständigen Verschieben des zweiten Bereichs 738 auf den Touchscreen 112 hinauf entspricht. Das Bewegen des ersten Bereichs 734 herunter von dem Touchscreen 112 mit einer Geschwindigkeit, die sich von der Geschwindigkeit unterscheidet, mit welcher der zweite 738 auf den Touchscreen 112 hinauf bewegt wird, stellt dem Benutzer intuitive visuelle Hinweise in die Richtung bereit, dass der Benutzer in einer Hierarchie (z. B. Z-Ordnung) von erweiterten Fotos navigiert.
  • In einigen Ausführungsformen werden die Bilder in dem ersten Bereich 734 und die Bilder in dem zweiten Bereich 738 während der Ziehgeste 752 mit unterschiedlichen Geschwindigkeiten weitergeschaltet. In einigen Ausführungsformen basieren die Geschwindigkeiten, mit denen die Bilder in dem ersten Bereich 734 und die Bilder in dem zweiten Bereich 738 weitergeschaltet werden, auf der Bewegung der Ziehgeste 752. In einigen Ausführungsformen werden die Bilder in dem ersten Bereich 734 mit einer Geschwindigkeit weitergeschaltet, die höher ist als eine Geschwindigkeit, mit der die Bilder in dem zweiten Bereich 738 weitergeschaltet werden. In den 7M7P werden Bilder in dem ersten Bereich 734 als Reaktion auf die Ziehgeste 752 mit der doppelten Geschwindigkeit wie die Bilder in dem zweiten Bereich 738 weitergeschaltet. Wie zum Beispiel in den 7N7O gezeigt ist, werden im ersten Bereich 734 während derselben Zeitspanne zwei Bilder in der ersten Folge von Bildern 702 durchgeschaltet (702-4, 7N, und 702-5, 7O), während der zweite Bereich 738 das Anzeigen eines Einzelbildes in der zweiten Folge von Bildern beibehält (724-2, 7N und 7O). 7P veranschaulicht, dass der zweite Bereich 738 zum Anzeigen des stellvertretenden Bildes 724-3 weitergeschaltet hat.
  • Die 7Q7CC veranschaulichen Ausführungsformen, in denen die Vorrichtung 100 ein erweitertes Foto auf die Anzeige hinauf schiebt. Wenn das erweiterte Foto auf die Anzeige hinauf geschoben wird, gibt die Vorrichtung 100 in chronologischer Reihenfolge die Folge von Bildern wieder, die das erweiterte Foto aufweist (z. B. vom Anfangsbild bis zum stellvertretenden Bild). In einigen Ausführungsformen ersetzt das Schieben des neuen erweiterten Fotos auf die Anzeige hinauf ein aktuell angezeigtes erweitertes Foto, wie vorstehend beschrieben wurde. Zum Beispiel schiebt das Schieben des erweiterten Fotos auf die Anzeige hinauf das aktuell angezeigte erweiterte Foto herunter von der Anzeige. Als anderes Beispiel verdeckt das Schieben des erweiterten Fotos auf die Anzeige hinauf das aktuell angezeigte erweiterte Foto (z. B. in einer Z-Richtung). In einigen Ausführungsformen wird das aktuell angezeigte erweiterte Foto nicht wiedergegeben, während es verschoben wird (z. B. behält die Vorrichtung das Anzeigen des stellvertretenden Bildes aus dem aktuell angezeigten erweiterten Foto bei). In einigen Ausführungsformen wird das erweiterte Foto vorwärts wiedergegeben, unabhängig davon, ob es sich um das nächste erweiterte Foto oder das vorherige erweiterte Foto handelt (z. B. in einer Kamerarolle).
  • Zu diesem Zweck veranschaulicht die 7Q die Vorrichtung 100, die das erste stellvertretende Bild 702-3 der ersten Folge von Bildern 702 in dem beweglichen ersten Bereich 734 auf dem Touchscreen 112 anzeigt.
  • Wie in 7Q gezeigt ist, erkennt die Vorrichtung eine Geste 740 (z. B. eine Wischgeste) auf dem Touchscreen 112, die eine Bewegung eines Kontakts nach links beinhaltet. Wie in 7R gezeigt ist, bewegt die Vorrichtung 100 als Reaktion auf die Geste 740 den ersten Bereich 734 nach links herunter von der Anzeige und bewegt den beweglichen zweiten Bereich 738 nach links auf die Anzeige hinauf (z. B. handelt es sich bei dem zweiten Bereich 738 um einen beweglichen Bereich, der sich neben dem ersten Bereich 734 befindet). Der Pfeil in 7R gibt die Beharrung der Geste 740 an, die damit fortfährt, den zweiten Bereich 738 auf die Anzeige hinauf zu bewegen. In diesem Beispiel handelt es sich bei der Folge von Bildern, die auf die Anzeige hinauf geschoben wird, (z. B. der zweiten Folge von Bildern 724) um die nächste Folge von Bildern (z. B. in einer Kamerarolle), da die Geste 740 nach links verläuft.
  • Wie in den 7R7T gezeigt ist, gibt die Vorrichtung 100 infolge eines Feststellens, dass während des Bewegens des zweiten Bereichs 738 nach links Kriterien zum Anzeigen der Folge erfüllt werden, zumindest einige des einen oder der mehreren Bilder für die zweite Folge von Bildern 724 vorwärts wieder, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes 724-3 erfasst wurden. Zum Beispiel beginnt die Vorrichtung 100 mit dem Anzeigen des Anfangsbildes 724-1 aus der zweiten Folge von Bildern 724 (7R). Die Vorrichtung 100 gibt die zweite Folge von Bildern 724 (z. B. in chronologischer Reihenfolge) vom Anfangsbild 724-1 bis zum stellvertretenden Bild 724-3 (7S7T) wieder. In einigen Ausführungsformen wird das Wiedergeben der zweiten Folge von Bildern 724 zeitlich so gesteuert, dass das stellvertretende Bild 724-3 genau dann auftaucht, wenn das Bewegen des beweglichen Bereichs 738 auf den Touchscreen 112 hinauf abgeschlossen ist (7T).
  • In einigen Ausführungsformen beinhalten die Kriterien zum Anzeigen der Folge Navigationskriterien (z. B. Kriterien, die angeben, dass die Vorrichtung 100 das Übergehen zum nächsten oder zum vorherigen Foto sogar ohne weitere Benutzereingabe abschließen soll). Zum Beispiel gibt die Vorrichtung 100 die zweite Folge von Bildern 724 nur dann wieder, wenn der Benutzer schnell genug geschnipst und/oder weit genug gezogen hat, um zur nächsten Folge von Bildern (z. B. der zweiten Folge von Bildern 724) überzugehen. Navigationskriterien sind vorstehend ausführlicher unter Bezugnahme auf 7E beschrieben.
  • In einigen Ausführungsformen behält die Vorrichtung 100 das Anzeigen des ersten stellvertretenden Bildes 702-3 bei (z. B. statisch, ohne das Anzeigen des ersten stellvertretenden Bildes 702-3 zu ersetzen), wenn der erste Bereich 734 von der Anzeige geschoben wird, während sie zumindest einen Teil der zweiten Folge von Bildern 724 wiedergibt (z. B. wird die erste Folge von Bildern 702 nicht wiedergegeben, während die zweite Folge von Bildern 724 wiedergegeben wird). Somit wird das stellvertretende Bild 702-3 in jeder der 7Q7S in dem ersten Bereich 734 angezeigt.
  • In einigen Ausführungsformen führt eine Wisch-/Ziehgeste nach rechts zu einer analogen Funktionalität, außer dass das vorherige erweiterte Foto (z. B. in einer Kamerarolle) an Stelle des nächsten erweiterten Fotos (z. B. in der Kamerarolle) auf die Anzeige hinauf geschoben wird. Zum Beispiel erkennt die Vorrichtung 100 in 7U eine Wischgeste 742, die analog zur Wischgeste 740 ist, außer, dass die Wischgeste 742 nach rechts verläuft. In den 7V7X wird die vierte Folge von Bildern 760 (bei der es sich in diesem Beispiel um das vorhergehende erweiterte Foto in einer Kamerarolle handelt) vom Anfangsbild 760-1 bis zum stellvertretenden Bild 760-3 wiedergegeben. Das heißt, die Vorrichtung 100 gibt in einigen Ausführungsformen das erweiterte Foto vorwärts wieder, unabhängig davon, ob es sich bei der Wisch-/Ziehgeste um eine Geste zum Navigieren zu einem vorhergehenden Foto oder zu einem nächsten Foto handelt (z. B. anstatt ein vorhergehendes Foto in der Kamerarolle in umgekehrter Reihenfolge wiederzugeben, wie vorstehend unter Bezugnahme auf die 7G7K beschrieben wurde). Die 7U7X sind sonst analog zu den 7Q7T.
  • Wie in den 7Y7CC gezeigt ist, beinhalten die Kriterien zum Anzeigen der Folge ein Kriterium, das erfüllt wird, wenn die Vorrichtung 100 das Abheben der Geste erkennt (z. B. beginnt die Vorrichtung 100 erst dann mit dem Wiedergeben des neuen erweiterten Fotos, wenn die Benutzerin ihren Finger vom Touchscreen gehoben hat). Zum Beispiel erkennt die Vorrichtung 100 in 7Y den Anfang einer Ziehgeste 764 bei einer Position 764-1. In 7Z hat der Benutzer die Ziehgeste 764 zu einer Position 764-2 bewegt, und die Vorrichtung 100 hat das Anfangsbild 760-1 der vierten Folge von Bildern 760 entsprechend teilweise auf die Anzeige hinauf bewegt. In 7AA hat der Benutzer die Ziehgeste 764 weiter zu einer Position 764-3 bewegt, und die Vorrichtung 100 hat das Anfangsbild 760-1 der vierten Folge von Bildern 760 entsprechend weiter auf die Anzeige hinauf bewegt. Jedoch beginnt die Vorrichtung 100 nicht mit dem Wiedergeben der vierten Folge von Bildern 760, bis der Benutzer die Ziehgeste 764 abhebt (7BB). Dieses Kriterium vermeidet eine Überstimulierung des Benutzers, wenn der Benutzer ein erweitertes Foto auf die und von der Anzeige herunter zieht. Wie in 7CC gezeigt ist, sind das Wiedergeben und/oder das Bewegen der beweglichen Bereiche nach dem Abheben der Geste zeitlich so gesteuert, dass das stellvertretende Bild des neuen erweiterten Fotos (z. B. das vierte stellvertretende Bild 760-3) während des Wiedergebens genau dann angezeigt wird, wenn das Schieben des neuen erweiterten Fotos hinauf auf die Anzeige abgeschlossen ist.
  • Die 8A8L veranschaulichen beispielhafte Benutzerschnittstellen, die unterschiedliche Operationen für Folgen von verwandten Bildern im Gegensatz zu Einzelbildern in Übereinstimmung mit einigen Ausführungsformen durchführen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind, wie auf der tragbaren Multifunktionsvorrichtung 100 gezeigt ist), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • Die 8A8L veranschaulichen ein Beispiel, in dem die tragbare Multifunktionsvorrichtung 100 mehrere Folgen von Bildern speichert, von denen es sich bei einer um eine gruppierte Folge von Bildern 802 handelt (die auf der Benutzerschnittstelle 800 angezeigt wird). Einige der Merkmale der Benutzerschnittstelle 800 sind analog zur Benutzerschnittstelle 600 (6A6W) und zur Benutzerschnittstelle 700 (7A7CC) und werden hier der Kürze halber nicht wiederholt. Die Folge von Bildern 802 beinhaltet das stellvertretende Bild 802-3 (6A), das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 802-3 erfasst wurden (z. B. Bild 802-4, 8C, und Bild 802-5, 8D), und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 802-3 erfasst wurden (z. B. Bild 802-1, 8E, und Bild 802-2, 8F). Somit lautet die chronologische Reihenfolge (z. B. die Reihenfolge, in der die Bilder von der Kamera aufgenommen wurden) der Folge von Bildern 802: Bild 802-1; Bild 802-2; Bild 802-3; Bild 802-4; und Bild 802-5.
  • Die Folge von Bildern 802 stellt eine Szene dar, in der eine Katze 812 in das Sichtfeld läuft, sich rückwärts auf dem Boden wälzt und aufsteht und wegläuft. Unterdessen landet ein Vogel 814 auf einem Zweig. Während es in Wirklichkeit mehrere Sekunden dauert, bis sich eine derartige Szene entwickelt, wird die Folge von Bildern 802 in einigen Ausführungsformen in einem kurzen Zeitfenster eingefangen. Zum Beispiel stellt kann jede der hierin beschriebenen Folgen von Bildern in einigen Ausführungsformen den Moment darstellen, der den Augenblick umgibt (z. B. innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden), an dem dessen jeweiliges stellvertretendes Bild erhalten wurde. Zum Beispiel wurde das Interesse des Benutzers möglicherweise geweckt, als die Katze 812 damit begann, sich im Gras zu wälzen, was den Benutzer dazu veranlasste, das stellvertretende Bild 802-3 aufzunehmen. In einigen Ausführungsformen beinhaltet die Folge von Bildern 802 Bilder kurz vor und kurz nach dem Erhalten des ersten stellvertretenden Bildes 802-3, sodass die erste Folge von Bildern 802 ein erweitertes Foto umfasst, durch den der Moment „zum Leben erweckt” werden kann, wenn der Benutzer bestimmte Operationen in Bezug auf das stellvertretende Bild 802-3 wie hierin beschrieben durchführt.
  • In dem in den 8A8L gezeigten Beispiel speichert die tragbare Multifunktionsvorrichtung 100 auch mehrere Folgen von Bildern, die sich von den Bildern in den mehreren gruppierten Folgen von Bildern unterscheiden. Zum Beispiel speichert die tragbare Multifunktionsvorrichtung 100 ein Bild 824 (8I), das nicht Teil einer Folge von Bildern in den mehreren Folgen von Bildern ist (z. B. handelt es sich bei Bild 824 um ein Standbild).
  • In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 800 um eine Benutzerschnittstelle in einer Bildverwaltungsanwendung (z. B. Photos von Apple Inc. aus Cupertino, Kalifornien). Zu diesem Zweck ist die Kamera, welche die Folge von Bildern 802 aufgenommen hat, in einigen Ausführungsformen Teil der tragbaren Multifunktionsvorrichtung 100 (z. B. weist die Kamera die optischen Sensoren 164 in Verbindung mit dem Bildmodul 143, 1A auf). In einigen Ausführungsformen wurde die Folge von Bildern 802 von einer Kamera aufgenommen, die nicht Teil der tragbaren Multifunktionsvorrichtung 100 ist (z. B. wurde die Folge von Bildern 802 an die tragbare Multifunktionsvorrichtung 100 übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die Folge von Bildern 802 als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das stellvertretende Bild 802-3 dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • In einigen Ausführungsformen wurden einige der Standbilder und/oder der mehreren Folgen von Bildern unter Verwendung der tragbaren Multifunktionsvorrichtung 100 erfasst, und einige wurden auf die tragbare Multifunktionsvorrichtung 100 übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurden. In bestimmten Fällen kann ein Benutzer zum Beispiel Folgen von Bildern auf mehreren Vorrichtungen (z. B. einem Tablet, einem Laptop und/oder einer Digitalkamera, alle zusätzlich zur tragbaren Multifunktionsvorrichtung 100) erhalten (z. B. aufnehmen, einfangen), wie unter Bezugnahme auf die Verfahren 900/2600 beschrieben ist, und die Folgen von Bildern mit der tragbaren Multifunktionsvorrichtung 100 synchronisieren oder anderweitig auf diese übertragen, die zusätzliche Standbilder speichert.
  • In einigen Ausführungsformen handelt es sich bei der Benutzerschnittstelle 800 um eine Benutzerschnittstelle in einer Messaging-Anwendung (z. B. Messages von Apple Inc. aus Cupertino, Kalifornien). In einigen Ausführungsformen handelt es sich bei der Folge von Bildern 802 und/oder dem Standbild 824 um Nachrichten in einer Nachrichtenkonversation, die in einem scrollbaren Bereich der Messaging-Anwendung angezeigt wird, und die Folge von Bildern 802 wird angezeigt, wenn der scrollbare Bereich der Messaging-Anwendung gescrollt wird. In bestimmten Fällen kann eine Benutzerin eine jeweilige Folge von Bildern auf ihrer tragbaren Multifunktionsvorrichtung 100 erhalten (z. B. aufgenommen, eingefangen) haben und auch eine andere Folge von Bildern oder andere Standbilder von einem anderen Benutzer empfangen haben (z. B. in einer Messaging-Anwendung). Somit beinhalten die mehreren auf der tragbaren Multifunktionsvorrichtung 100 gespeicherten Folgen von Bildern in einigen Ausführungsformen mindestens eine Folge von Bildern, die unter Verwendung einer Kamera auf der tragbaren Multifunktionsvorrichtung 100 erhalten wurde, und mindestens eine Folge von Bildern oder ein Standbild, die unter Verwendung einer Kamera auf einer anderen Vorrichtung erhalten wurden, die getrennt von der tragbaren Multifunktionsvorrichtung 100 ist.
  • Wie in den 8A8L gezeigt ist, erkennt die tragbare Multifunktionsvorrichtung 100 zwei analoge Eingaben: eine erste Eingabe 816 (8B8F) und eine zweite Eingabe 836 (8K8L). Die erste Eingabe 816 und die zweite Eingabe 836 sind analog, da sie sich einen gemeinsamen Satz von Eigenschaften teilen (z. B. einen gemeinsamen Satz von vordefinierten Kriterien erfüllen) wie zum Beispiel Intensitätskriterien (wie in dem Intensitätsdiagramm 818 gezeigt) und Pfadeigenschaften (z. B. handelt es sich sowohl bei der ersten Eingabe 816 als auch bei der zweiten Eingabe 836 um Drücken-und-Halten-Gesten). Die erste Eingabe 816 und die zweite Eingabe 836 sind gleich, außer, dass die erste Eingabe 816 über einem Bild erkannt wird, das Teil einer Folge von Bildern ist (z. B. das stellvertretende Bild 802-3), während die zweite Eingabe 836 über einem Bild erkannt wird, das nicht Teil einer Folge von Bildern ist (z. B. das Standbild 824).
  • Infolgedessen führt die tragbare Multifunktionsvorrichtung 100 eine erste Operation durch, wenn die erste Eingabe 816 erkannt wird, während sie das stellvertretende Bild 802-3 anzeigt, und eine zweite, unterschiedliche Operation, wenn die zweite Eingabe 836 erkannt wird, während sie das Standbild 824 anzeigt. In dem in den 8B8F gezeigten Beispiel beinhaltet die erste Operation das Anzeigen von zumindest einem Teil der Folge von Bildern 802 auf die unter Bezugnahme auf die 6A6FF und Verfahren 1000/10000/10050 beschriebene Weise. Das heißt: Während eines ersten Teils 816-1 der ersten Eingabe 816 gibt die tragbare Multifunktionsvorrichtung 100 Bilder wieder, die von der Kamera nach dem Erhalten des Bildes 802-3 erhalten wurden (z. B. zeigt sie Bild 802-4, 8C, an und zeigt Bild 802-5, 8D an); und während eines zweiten Teils 816-2 der ersten Eingabe 816 gibt die tragbare Multifunktionsvorrichtung 100 Bilder wieder, die von der Kamera vor dem Erhalten des Bildes 802-3 erhalten wurden (z. B. zeigt sie Bild 802-1, 8E, an und zeigt Bild 802-2, 8F an). In dem in den 8K8L gezeigten Beispiel beinhaltet die zweite Operation das Anzeigen einer Animation, die verschiedene Teile des Standbildes 824 zeigt. Zum Beispiel beinhaltet die zweite Operation, wie in 8L gezeigt ist, eine Animation, die auf einen Teil des Standbildes 824 hineinzoomt (z. B. einen Teil, der sich unter oder nahe der zweiten Eingabe 836 befindet). Zusätzlich zum oder anstelle des Hineinzoomens beinhaltet die zweite Operation in einigen Ausführungsformen das Anzeigen von Informationen (z. B. Metadaten 822) über das Standbild 824.
  • Die 8G8I veranschaulichen eine Navigationsgeste 844 (z. B. eine Ziehgeste). Bei der Navigationsgeste handelt es sich um eine Geste nach links, beginnend bei Position 844-1, weiter zur Position 844-2, weiter zur Position 844-3. Von daher geht die tragbare Multifunktionsvorrichtung 100 in einigen Ausführungsformen vom Anzeigen der Folge von Bildern 802 (z. B. durch Anzeigen der Folge wie unter Bezugnahme auf die 7A7CC beschrieben) zum Anzeigen des Standbildes 824 über (z. B. wird das Bild 824 über den Touchscreen geschoben, ohne die Folge von Bildern zu animieren, da es kein erweitertes Foto sondern ein Standfoto ist). In einigen Ausführungsformen geht die tragbare Multifunktionsvorrichtung 100, wenn eine Eingabe über einem Standbild erkannt wird, die analog zur Navigationsgeste 844 ist, zu einem anderen Bild über, ohne dem Standbild zugehörige Bilder anzuzeigen (z. B. da es keine gibt).
  • Die 9A9G veranschaulichen einen Ablaufplan eines Verfahrens 900 zum Einfangen einer gruppierten Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 900 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer Kamera durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 900 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Während sich die Kamera in einem ersten Medienerfassungsmodus befindet, zeigt (902) die Vorrichtung (z. B. wie in 5A gezeigt) eine Live-Vorschau auf der Anzeige an (z. B. zeigt die Vorrichtung Bilder in Echtzeit oder Nahe-Echtzeit an, wenn die Bilder von der Kamera erhalten werden). Zum Beispiel handelt es sich bei dem ersten Medienerfassungsmodus um einen Modus, der als erweiterter Fotomodus, Momentmodus oder dergleichen bezeichnet wird.
  • In einigen Ausführungsformen ist der erste Medienerfassungsmodus (904) so konfiguriert, dass er von einem Benutzer der Vorrichtung aktiviert oder deaktiviert werden kann (z. B. über eine Einstellungen-Schnittstelle für die Kamera). In einigen Ausführungsformen beinhaltet die Vorrichtung mindestens drei Medienerfassungsmodi: (i) den ersten Medienerfassungsmodus (der als ein „erweitertes Standbild”-Erfassungsmodus angesehen werden kann), der eine Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes gruppiert, wobei die Folge von Bildern Bilder vor der Aktivierung des Auslöseknopfes und nach der Aktivierung des Auslöseknopfes beinhaltet, und diese als Gruppe von Bildern speichert; (2) einen zweiten Medienerfassungsmodus (z. B. einen herkömmlichen Standbild-Erfassungsmodus), der als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes ein Einzelbild speichert, wie der Standbildmodus in einer herkömmlichen Digitalkamera; und (3) einen dritten Medienerfassungsmodus (z. B. einen Video-Erfassungsmodus), der ein Video speichert, das nach dem Erkennen der Aktivierung des Auslöseknopfes erfasst wird, und das Video so lange aufzeichnet, bis der Auslöseknopf erneut aktiviert wird. In einigen Ausführungsformen kann der Benutzer über eine Einstellungen-Schnittstelle für die Kamera, über Modusauswahl-Schaltflächen, über einen Modusauswahl-Drehschalter oder dergleichen auswählen, welcher Medienerfassungsmodus aktiviert wird.
  • In einigen Ausführungsformen wird (906) die Live-Vorschau als Teil einer Medieneinfang-Benutzerschnittstelle angezeigt, die eine Aufforderung zum Aktivieren des ersten Medienerfassungsmodus beinhaltet (z. B. die Aufforderung 506, 5A5H). Während der erste Medienerfassungsmodus aktiviert ist, wird die Aufforderung animiert (z. B. um anzuzeigen, dass Bild- und/oder Audiodaten eingefangen werden, während die Medieneinfang-Benutzerschnittstelle angezeigt wird), und während der erste Medienerfassungsmodus deaktiviert ist, wird die Aufforderung nicht animiert. In einigen Ausführungsformen aktiviert die Vorrichtung als Reaktion auf das Erkennen des Auswählens der Aufforderung (z. B. eine Tippgeste auf die Aufforderung), während der erste Medienerfassungsmodus deaktiviert ist, den ersten Medienerfassungsmodus, beginnt mit dem Einfangen von Medien (z. B. Bildern und/oder Ton) und beginnt mit dem Animieren der Aufforderung. In einigen Ausführungsformen beinhaltet das Einfangen von Medien das Aufzeichnen von Bildern und/oder Ton. In einigen Ausführungsformen beinhaltet das Einfangen von Medien das Speichern von Bildern und/oder Ton (z. B. in einem dauerhaften Speicher).
  • Während des Anzeigens der Live-Vorschau erkennt die Vorrichtung (908) die Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt (z. B. erkennt die Vorrichtung das Drücken eines physischen Knopfes zum ersten Zeitpunkt oder erkennt eine Geste auf einem virtuellen Auslöseknopf auf einer berührungsempfindlichen Anzeige zum ersten Zeitpunkt wie zum Beispiel eine Tippgeste auf einem Verschlussauslösungssymbol (wie in 5F gezeigt ist), oder eine Tippgeste auf die Live-Vorschau, wobei die Live-Vorschau als virtueller Auslöseknopf dient). In einigen Ausführungsformen handelt es sich bei der erkannten Aktivierung um eine einzelne Aktivierung des Auslöseknopfes (z. B. analog zu einer einzelnen Aktivierung, die in einer herkömmlichen Digitalkamera zum Einfangen eines Einzelbildes im Einzelbildmodus einer herkömmlichen Digitalkamera verwendet wird).
  • Als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt gruppiert (910) die Vorrichtung mehrere Bilder, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, in eine erste Folge von Bildern (wie z. B. in den 5I5K gezeigt ist). Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • In einigen Ausführungsformen wird das das stellvertretende Bild von der Kamera zum ersten Zeitpunkt erfasst und ist analog zu dem Einzelbild, das in dem Standbildmodus einer herkömmlichen Digitalkamera eingefangen wird, wenn deren Auslöseknopf aktiviert wird. In einigen Ausführungsformen entspricht das von der Kamera erfasste stellvertretende Bild einem Bild, das zum ersten Zeitpunkt erfasst wurde. In einigen Ausführungsformen entspricht das von der Kamera erfasste stellvertretende Bild einem Bild, das kurz nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurde, zu einem Zeitpunkt, der die Auslöseverzögerung berücksichtigt (die Zeitverzögerung zwischen dem Erkennen der Aktivierung des Auslöseknopfes und dem Einfangen/Speichern des stellvertretenden Bildes). In einigen Ausführungsformen wird das von der Kamera erfasste stellvertretende Bild zum Darstellen der Folge von Bildern verwendet, zum Beispiel in einem Bildpräsentationsmodus.
  • In einigen Ausführungsformen beinhaltet die erste Folge von Bildern eine vordefinierte Anzahl von Bildern – wie zum Beispiel 5, 10, 15, 20, 25 oder 30 Bilder – die nach dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen handelt es sich bei den Bildern, die nach dem Erfassen des stellvertretenden Bildes erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne nach dem Erfassen des stellvertretenden Bildes befinden, wie zum Beispiel innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden nach dem Erfassen des stellvertretenden Bildes. In einigen Ausführungsformen beinhaltet die erste Folge von Bildern eine vordefinierte Anzahl von Bildern – wie zum Beispiel 5, 10, 15, 20, 25 oder 30 Bilder – die nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden. In einigen Ausführungsformen handelt es sich bei den Bildern, die nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne nach dem ersten Zeitpunkt befinden, wie zum Beispiel innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden nach dem ersten Zeitpunkt. In einigen Ausführungsformen erfüllen die mehreren Bilder in der ersten Folge von Bildern, die nach dem Erfassen des stellvertretenden Bildes erfasst wurden, vordefinierten Gruppierungskriterien. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern nach dem stellvertretenden Bild. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar nach dem Erkennen der Aktivierung des Auslöseknopfes. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar nach dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird.
  • In einigen Ausführungsformen wird die erste Folge von Bildern (912) als ein erster eigenständiger Satz von Bildern in dem Speicher gespeichert (z. B. gemeinsam in einer Datenstruktur in dem nichtflüchtigen Speicher gespeichert). In einigen Ausführungsformen wird das von der Kamera erfasste stellvertretende Bild zum Darstellen des ersten eigenständigen Satzes von Bildern verwendet, zum Beispiel in einem Bildpräsentationsmodus (siehe z. B. 6A6FF, 7A7CC und 8A8L).
  • In einigen Ausführungsformen zeigt (914) die Live-Vorschau Bilder mit einer ersten Auflösung, und die erste Folge von Bildern beinhaltet Bilder mit der ersten Auflösung, die in der Live-Vorschau angezeigt wurden (z. B. ist die erste Auflösung geringer als eine Obergrenze der Auflösung der Kamera). In einigen Ausführungsformen weist (916) das von der Kamera erfasste stellvertretende Bild eine zweite Auflösung auf, die höher ist als die erste Auflösung. In einigen Ausführungsformen weist das von der Kamera erfasste stellvertretende Bild eine höhere Auflösung als andere Bilder in der ersten Folge von Bildern auf. Zum Beispiel handelt es sich bei dem von der Kamera erfassten stellvertretenden Bild um ein Bild mit 12, 18 oder 24 Megapixeln, und die anderen Bilder in der ersten Folge von Bildern haben eine geringere Auflösung, die der in der Live-Vorschau angezeigten Auflösung entspricht (z. B. der ersten Auflösung). In einigen Ausführungsformen weist das von der Kamera erfasste stellvertretende Bild dieselbe Auflösung wie andere Bilder in der ersten Folge von Bildern auf.
  • In einigen Ausführungsformen sind (918) Parameter für eine jeweilige Folge von Bildern, die als Reaktion auf das Erkennen einer jeweiligen Aktivierung des Auslöseknopfes gruppiert werden, durch einen Benutzer der Vorrichtung konfigurierbar. Zum Beispiel kann ein Benutzer über eine Einstellungen-Schnittstelle für die Kamera die Anzahl von Bildern in einer jeweiligen Folge, welches Bild als stellvertretendes Bild der Folge dient (wie z. B. in den 5I5K gezeigt ist) und/oder andere Erfassungs- oder Anzeigeparameter für die Folge von Bildern auswählen (z. B. die Auflösung des jeweiligen Bildes, die Auflösung der anderen Bilder, die Bildwiederholrate, Filtereffekte usw.).
  • In einigen Ausführungsformen werden (920) die mehreren Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt in einer ersten Form in dem Speicher (z. B. in Programmspeicher, flüchtigem Speicher, Ringpuffer usw.) gespeichert, und werden als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt in einer zweiten Form in dem Speicher (z. B. in nichtflüchtigem Speicher/Massenspeicher) gespeichert.
  • In einigen Ausführungsformen handelt es sich (922) bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um eine vordefinierte Anzahl von Bildern (z. B. 5, 10, 15, 20, 25 oder 30 Bilder).
  • In einigen Ausführungsformen handelt es sich (924) bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne vor dem ersten Zeitpunkt befinden, (z. B. innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden vor dem ersten Zeitpunkt).
  • In einigen Ausführungsformen handelt es sich (926) bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne vor einem Zeitpunkt befinden, zu dem das stellvertretende Bild erfasst wird (z. B. innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden vor dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird).
  • In einigen Ausführungsformen stammen (928) die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, aus einem Zeitraum zwischen dem ersten Zeitpunkt und einem zweiten Zeitpunkt, der vor dem ersten Zeitpunkt liegt, und das Erfassen der mehreren Bilder vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt ist unabhängig von einem Erkennen einer Interaktion mit dem Auslöseknopf, die zeitlich nahe an dem zweiten Zeitpunkt liegt (neben dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt). Zum Beispiel werden die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, nicht als Reaktion auf das Erkennen einer Interaktion mit dem Auslöseknopf erfasst, die zeitlich nahe an dem zweiten Zeitpunkt liegt (neben dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt). Zum Beispiel werden die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, nicht als Reaktion auf das Erkennen einer teilweisen (oder vollständigen) Aktivierung des Auslöseknopfes zum oder nahe am zweiten Zeitpunkt erfasst.
  • In einigen Ausführungsformen erfüllen (930) die mehreren Bilder in der ersten Folge von Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst werden, ein oder mehrere vordefinierte Gruppierungskriterien. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen (932) einer vordefinierten Anzahl von Bildern vor dem Erkennen der Aktivierung des Auslöseknopfes. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen (934) einer vordefinierten Anzahl von Bildern vor dem stellvertretenden Bild. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen (936) von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Erkennen der Aktivierung des Auslöseknopfes. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen (938) von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird.
  • In einigen Ausführungsformen wird (940) die Live-Vorschau als Teil einer Medieneinfang-Benutzerschnittstelle angezeigt, die eine Aufforderung zum Aktivieren des ersten Medienerfassungsmodus beinhaltet, und bei dem Auslöseknopf handelt es sich um eine Software-Schaltfläche, die in der Medieneinfang-Benutzerschnittstelle angezeigt wird (z. B. der Auslöseknopf 514, 5A5H). Als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes (z. B. der Tippgeste 518, 5F) zeigt (942) die Vorrichtung eine dem Auslöseknopf zugehörige Animation an (z. B. eine Animation, wie ein Teil des Auslöseknopfes auseinandergeht und sich wieder zusammenzieht, wie in den 5F5H gezeigt ist), die eine Zeitdauer andauert, die der Zeitdauer nach der Aktivierung des Auslöseknopfes entspricht, während der die Kamera Bilder für die erste Folge von Bildern erfasst (z. B. um dem Benutzer einen Hinweis bereitzustellen, dass weiterhin Medien eingefangen werden). In einigen Ausführungsformen ist die Animation eine sich wiederholende Animation, die nahtlos erweitert werden kann, wenn der Auslöseknopf erneut aktiviert wird, bevor die Kamera das Erfassen von Bildern für die erste Folge von Bildern abgeschlossen hat.
  • In einigen Ausführungsformen beginnt (944) die Vorrichtung mit dem Erfassen und Speichern von Bildern beim Eintreten in den ersten Medienerfassungsmodus (unabhängig von dem Erkennen von Aktivierungen des Auslöseknopfes). Die Vorrichtung löscht (946) Bilder (oder markiert diese zur Löschung), die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  • In einigen Ausführungsformen beginnt (948) die Vorrichtung mit dem Erfassen und Speichern von Bildern beim Anzeigen der Live-Vorschau (unabhängig von dem Erkennen von Aktivierungen des Auslöseknopfes). Die Vorrichtung löscht (950) Bilder (oder markiert diese zur Löschung), die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  • In einigen Ausführungsformen erfasst (952) und speichert die Vorrichtung Bilder während des Anzeigens der Live-Vorschau, unabhängig von dem Erkennen von Aktivierungen des Auslöseknopfes. Die Vorrichtung löscht (954) erfasste und gespeicherte Bilder (oder markiert diese zur Löschung), die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  • In einigen Ausführungsformen kann der Benutzer eine Dauer auswählen, für die ein Bild behalten wird, bevor das Bild gelöscht wird, wenn es nicht in eine Folge von Bildern gruppiert wird. Zum Beispiel kann der Benutzer die Vorrichtung so einstellen, dass sie in dem Live-Vorschaumodus Bilder für 5, 10 oder 20 Sekunden behält. Angenommen, der Benutzer wählt zum Beispiel eine Dauer von 5 Sekunden aus, so wird ein Bild in der Live-Vorschau 5 Sekunden lang behalten, nachdem es in der Live-Vorschau angezeigt wurde und dann verworfen (z. B. gelöscht oder zur Löschung markiert), wenn es nicht durch Aktivierung des Auslöseknopfes in eine Folge von Bildern gruppiert wird.
  • In einigen Ausführungsformen ordnet (956) die Vorrichtung als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt der ersten Folge von Bildern Ton zu, welcher der ersten Folge von Bildern entspricht (z. B. einschließlich Ton, der vor dem Erkennen der Aktivierung des Auslöseknopfes aufgezeichnet wurde, und Ton, der nach dem Erkennen der Aktivierung des Auslöseknopfes aufgezeichnet wurde). In einigen Ausführungsformen beinhaltet die Vorrichtung ein Mikrofon (oder befindet sich im Austausch mit einem Mikrofon), und Ton, der erkannt wurde, als die Folge von Bildern erfasst wurde, wird in dem Speicher gespeichert und mit der ersten Folge von Bildern verknüpft (oder dieser anderweitig zugeordnet). Zum Beispiel veranschaulichen die 6E6I das Wiedergeben einer Folge von Bildern mit entsprechendem Ton.
  • In einigen Ausführungsformen ordnet (958) die Vorrichtung als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt der ersten Folge von Bildern Metadaten zu, die der ersten Folge von Bildern entspricht (z. B. veranschaulichen die 6J6M das Wiedergeben einer Folge von Bildern mit entsprechenden Metadaten). In einigen Ausführungsformen werden Metadaten wie zum Beispiel Zeit, Datum, Standort (z. B. über GPS), Wetter, Musik, die abgespielt wurde, als die Folge von Bildern erfasst wurde (z. B. Musik, die mit einer Musikidentifizierungssoftware in der Vorrichtung wie zum Beispiel Shazam, SoundHound oder Midomi identifiziert wurde), lokale Ereignisinformationen (wie zum Beispiel ein Sportspiel, das zu der Zeit und an dem Ort stattfand, wo die erste Folge von Bildern erfasst wurde), Informationen nach dem Ereignis (wie zum Beispiel ein Endstand) usw. für die Folge von Bildern in dem Speicher gespeichert und mit der gespeicherten Folge von Bildern verknüpft (oder dieser anderweitig zugeordnet).
  • In einigen Ausführungsformen schließt (960) die Vorrichtung verschwommene Bilder automatisch aus der ersten Folge von Bildern aus (oder löscht diese oder verzichtet auf das Anzeigen dieser als Teil der Folge).
  • In einigen Ausführungsformen erkennt (962) die Vorrichtung nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt eine nächste Aktivierung des Auslöseknopfes zu einem zweiten Zeitpunkt (ohne irgendwelche Aktivierungen des Auslöseknopfes zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt zu erkennen). Als Reaktion auf das Erkennen der nächsten Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt: gruppiert (964) die Vorrichtung mehrere Bilder, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt erfasst wurden, in eine zweite Folge von Bildern. Die zweite Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt erfasst wurden und ein stellvertretendes Bild, das die zweite Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der zweiten Folge von Bildern erfasst wurde. In einigen Ausführungsformen wird das Einfangen von Folgen von Bildern auf eine dem Einfangen von Einzelbildern mit einer herkömmlichen Kamera entsprechende Weise durchgeführt, wodurch es selbst für Erstbenutzer einfach und intuitiv ist, derartige Folgen von Bildern einzufangen. Bei einer herkömmlichen Digitalkamera wird jedes Mal, wenn der Auslöseknopf aktiviert wird, ein Einzelbild eingefangen. Hier wird jedes Mal, wenn der Auslöseknopf aktiviert wird, eine Folge von Bildern eingefangen. Diese Art des Einfangens von Folgen von Bildern unterscheidet sich von der Art des Einfangens von Video mit einer herkömmlichen Digitalkamera. Zum Einfangen von Video mit einer herkömmlichen Digitalkamera startet eine erste Aktivierung eines Auslöseknopfes das Aufzeichnen des Videos, und die nächste Aktivierung des Auslöseknopfes stoppt das Aufzeichnen des Videos.
  • In einigen Ausführungsformen werden das erste Einzelbild und/oder das letzte Einzelbild in einer Folge in Übereinstimmung mit einer Änderung des stellvertretenden Bildes geändert (wie z. B. in den 5I5K gezeigt ist). Zu diesem Zweck beinhaltet (966) die erste Folge von Bildern in einigen Ausführungsformen ein Anfangsbild in der ersten Folge von Bildern, eine erste Anzahl von Bildern, die zwischen dem Anfangsbild und dem stellvertretenden Bild erfasst wurden, ein letztes Bild in der ersten Folge von Bildern und eine zweite Anzahl von Bildern, die zwischen dem stellvertretenden Bild und dem letzten Bild erfasst wurden. Die Vorrichtung erkennt (968) eine Eingabe, die einer Anforderung zum Ändern des stellvertretenden Bildes in der ersten Folge von Bildern entspricht. In einigen Ausführungsformen erkennt die Vorrichtung, während sie sich in einem Bildfolge-Bearbeitungsmodus befindet, eine Geste (z. B. eine Ziehgeste oder eine Tippgeste), die dazu führt, dass sich ein Auswahlindikator eines stellvertretenden Bildes von dem aktuellen stellvertretenden Bild auf ein andere Bild in der ersten Folge von Bildern bewegt (z. B. die Touch-Geste 522). In einigen Ausführungsformen erkennt die Vorrichtung, während sie sich in einem Bildfolge-Bearbeitungsmodus befindet, eine Geste (z. B. eine Ziehgeste oder eine Tippgeste), die dazu führt, dass sich das aktuelle stellvertretende Bild aus einem Auswahlbereich des stellvertretenden Bildes bewegt, und dazu führt, dass sich ein anderes Bild in der ersten Folge von Bildern in den Auswahlbereich des stellvertretenden Bildes bewegt. Als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Ändern des stellvertretenden Bildes in der ersten Folge von Bildern entspricht: ändert die Vorrichtung (970) das stellvertretende Bild auf ein geändertes stellvertretendes Bild in Übereinstimmung mit der erkannten Eingabe ab; und ändert die mehreren gruppierten Bilder in der ersten Folge von Bildern durch Hinzufügen von Bildern auf einer Seite der ersten Folge von Bildern und Löschen von Bildern auf der anderen Seite der ersten Folge von Bildern in Übereinstimmung mit der erkannten Eingabe so, dass die erste Folge von Bildern ein geändertes Anfangsbild und ein geändertes letztes Bild aufweist.
  • In einigen Ausführungsformen ist die Anzahl von Bildern zwischen dem Anfangsbild und dem stellvertretenden Bild gleich der Anzahl von Bildern zwischen dem geänderten Anfangsbild und dem geänderten stellvertretenden Bild. In einigen Ausführungsformen ist die Anzahl von Bildern zwischen dem stellvertretenden Bild und dem letzten Bild gleich der Anzahl von Bildern zwischen dem geänderten stellvertretenden Bild und dem geänderten letzten Bild. In einigen Ausführungsformen befinden sich die hinzugefügten Bilder in zeitlicher Nähe zur einen Seite der ersten Folge von Bildern. Wenn das geänderte stellvertretende Bild zum Beispiel drei Bilder früher in der ersten Folge von Bildern ist, werden drei Bilder (die unmittelbar vor dem Anfangsbild erfasst wurden) zum Anfang der ersten Folge hinzugefügt (wobei das früheste der drei Bilder das geänderte Anfangsbild wird), und drei Bilder werden vom Ende der ersten Folge gelöscht.
  • In einigen Ausführungsformen handelt es sich (972) bei der Anzeige um eine berührungsempfindliche Anzeige. Die Vorrichtung empfängt (974) eine Anforderung zum Anzeigen des stellvertretenden Bildes aus der ersten Folge von Bildern. Als Reaktion auf das Empfangen der Anforderung zum Anzeigen des stellvertretenden Bildes zeigt (976) die Vorrichtung das stellvertretende Bild auf der berührungsempfindlichen Anzeige an. Während des Anzeigens des stellvertretenden Bildes empfängt (978) die Vorrichtung eine Touch-Eingabe auf der berührungsempfindlichen Anzeige auf dem stellvertretenden Bild, wobei die Touch-Eingabe eine Eigenschaft beinhaltet, die sich mit der Zeit ändert. Zum Beispiel ändert sich eine Intensität der Touch-Eingabe mit der Zeit, oder es ändert sich eine Position eines Kontakts in der Touch-Eingabe mit der Zeit (z. B. aufgrund einer seitlichen Bewegung des Kontakts über die berührungsempfindliche Anzeige). Als Reaktion auf das Empfangen der Touch-Eingabe auf der berührungsempfindlichen Anzeige auf dem stellvertretenden Bild zeigt (980) die Vorrichtung (z. B. aufeinanderfolgend) Bilder in der ersten Folge von Bildern mit einer Geschwindigkeit an, die auf Grundlage der Änderung der Eigenschaft der Touch-Eingabe mit der Zeit bestimmt wird (wie zum Beispiel unter Bezugnahme auf die Drücken-und-Halten-Geste, 6A6FF, oder eine Navigations-Ziehgeste, 7A7CC beschrieben wurde).
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 9A9G beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 9A9G beschriebene Verfahren 900 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 900 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt. Außerdem sei angemerkt, dass die Einzelheiten von anderen in Anhang A beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 9A9G beschriebene Verfahren 900 anwendbar sind. Zum Beispiel weisen die vorstehend in Bezug auf das Verfahren 900 beschriebenen Erfassungs-, Gruppierungs- und Speicheroperationen eine oder mehrere der in Anhang A beschriebenen Eigenschaften der Einfang-, Kürzen-, Speicher- oder Abrufoperationen für erweiterte Fotos auf.
  • Die 10A10E veranschaulichen einen Ablaufplan eines Verfahrens 1000 zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 1000 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 1000 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Die Vorrichtung zeigt (1002) ein stellvertretendes Bild auf der Anzeige an (z. B. während sich die Vorrichtung in einem Bildpräsentationsmodus befindet, siehe 6A). Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet auch ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die Folge von Bildern aufgenommen hat, Teil der elektronischen Vorrichtung. In einigen Ausführungsformen wurde die Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der elektronischen Vorrichtung ist (z. B. wurde die Folge von Bildern an die elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • Während des Anzeigens des stellvertretenden Bildes auf der Anzeige erkennt (1004) die Vorrichtung einen ersten Teil einer ersten Eingabe (z. B. eine Eingabe auf der berührungsempfindlichen Oberfläche, siehe erster Teil 616-1 der ersten Eingabe 616, 6B6D). In einigen Ausführungsformen handelt es sich (1006) bei der ersten Eingabe um eine Drücken-und-Halten-Geste (z. B. eine Drücken-und-Halten-Fingergeste auf dem stellvertretenden Bild auf einer berührungsempfindlichen Anzeige oder eine Drücken-und-Halten-Fingergeste auf einem Trackpad, während sich ein Cursor oder ein anderer Fokusselektor über dem stellvertretenden Bild auf einer Anzeige befindet). In einigen Ausführungsformen handelt es sich bei der ersten Eingabe um eine Klicken-und-Halten-Eingabe mit einer Maus, während sich ein Cursor oder ein anderer Fokusselektor über dem stellvertretenden Bild auf einer Anzeige befindet. In einigen Ausführungsformen beinhaltet (1008) die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche, und die erste Eingabe beinhaltet einen Fingerkontakt, der erste Kontaktintensitätskriterien erfüllt (z. B. eine Fingergeste auf dem stellvertretenden Bild auf einer berührungsempfindlichen Anzeige oder eine Fingergeste auf einem Trackpad, während sich ein Cursor oder ein anderer Fokusselektor über dem stellvertretenden Bild auf einer Anzeige befindet, wobei ein Kontakt in der Fingergeste für zumindest einen Teil der Eingabe eine Leicht-Drücken-(oder Fest-Drücken-)Intensitätsschwelle übersteigt). Wie zum Beispiel in den 6B6D gezeigt ist, handelt es sich bei der ersten Eingabe 616 um eine Drücken-und-Halten-Eingabe, welche die Leicht-Drücken-Intensitätsschwelle ITL übersteigt.
  • Als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe ersetzt (1010) die Vorrichtung das Anzeigen des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach (wie z. B. in den 6B6D gezeigt ist). In einigen Ausführungsformen werden somit als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, aufeinanderfolgend angezeigt. In einigen Ausführungsformen werden das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe der Reihe nach mit einer Geschwindigkeit angezeigt (1012), die auf einer Intensität eines Kontakts im ersten Teil der ersten Eingabe basiert (z. B. nimmt die Anzeigegeschwindigkeit zu, wenn eine Intensität eines Kontakts im ersten Teil der ersten Eingabe zunimmt, und die Anzeigegeschwindigkeit nimmt ab, wenn eine Intensität eines Kontakts im ersten Teil der ersten Eingabe abnimmt). In einigen Ausführungsformen variiert die Geschwindigkeit, mit der Bilder ab dem stellvertretenden Bild bis zum letzten Bild aufeinanderfolgend (als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe) angezeigt werden, in Übereinstimmung mit der Intensität eines Kontakts im ersten Teil der ersten Eingabe. In einigen Ausführungsformen findet nach dieser anfänglichen Abhängigkeit der Anzeigegeschwindigkeit von der Kontaktintensität in der ersten Eingabe ein anschließendes Anzeigen der Folge von Bildern (als Reaktion auf das Erkennen von späteren Teilen der ersten Eingabe, wie in den 6E6M gezeigt ist) unabhängig von der Kontaktintensität in späteren Teilen der ersten Eingabe mit festen Geschwindigkeiten statt. In einigen Ausführungsformen werden als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach mit einer festen Geschwindigkeit angezeigt. In einigen Ausführungsformen beruht die Position des Fortschreitens durch die Folge von Bildern auf einer Intensität des Kontakts (z. B. werden bestimmte Intensitäten des Kontakts einem entsprechenden Fortschreiten durch die Folge von Bildern zugeordnet, wie in den 6P6V und 6W gezeigt ist). In einigen Ausführungsformen findet diese Zuordnung zwischen Intensität und Animationsfortschritt Anwendung, wenn die Intensität der Kontaktintensitäten zwischen ITL, und ITD liegen, und wenn die Intensität des Kontakts über ITD liegt, schreitet die Animation zwischen der Folge von Bildern mit einer vordefinierten Geschwindigkeit (z. B. 1x-Echtzeit) oder mit einer Geschwindigkeit fort, die auf Grundlage der Intensität des Kontakts bestimmt wird (z. B. schneller für einen Kontakt mit hoher Intensität und langsamer für einen Kontakt mit niedriger Intensität). In einigen Ausführungsformen beinhaltet das Ersetzen des Anzeigens des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, das Anzeigen einer Animation, die Bilder in der Folge von Bildern auf Grundlage Änderungen der Intensität des ersten Kontakts mit der Zeit dynamisch anzeigt.
  • In einigen Ausführungsformen beinhaltet das Ersetzen des Anzeigens des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, das Aktualisieren (z. B. Ersetzen) des angezeigten Bildes mehrere Male pro Sekunde (z. B. 10, 20, 30 oder 60 Mal pro Sekunde), optional ohne zu berücksichtigen, ob der erste Teil der ersten Eingabe eine oder mehrere vorher festgelegte Intensitätskriterien erfüllt. In einigen Ausführungsformen handelt es sich bei der Animation um eine flüssige Animation, die aktualisiert wird, wenn sich die Intensität des ersten Teils der ersten Eingabe ändert, um dem Benutzer eine Rückmeldung in Bezug auf den von der Vorrichtung erkannten Intensitätswert bereitzustellen (z. B. eine Rückmeldung in Bezug auf die von dem Benutzer ausgeübte Kraft). In einigen Ausführungsformen wird die Animation sanft und schnell aktualisiert, um für den Benutzer den Anschein zu erwecken, dass die Benutzerschnittstelle in Echtzeit auf Änderungen der auf die berührungsempfindliche Oberfläche ausgeübten Kraft reagiert (z. B. nimmt der Benutzer die Animation augenblicklich wahr, um dem Benutzer eine sofortige Rückmeldung bereitzustellen und es dem Benutzer zu ermöglichen, die Kraft besser anzupassen, die er auf die berührungsempfindliche Oberfläche ausübt, um effizient mit Benutzerschnittstellenobjekten zu interagieren, die auf Kontakte mit einer unterschiedlichen oder sich ändernden Intensität reagieren).
  • In einigen Ausführungsformen wird eine Animation, die das Ersetzen der Folge von Bildern der Reihe nach anzeigt, auf eine Weise angezeigt, die dynamisch auf kleine Änderungen der Intensität des ersten Kontakts reagiert (wie z. B. in 6W gezeigt ist).
  • In einigen Ausführungsformen erkennt (1014) die Vorrichtung nach dem Erkennen des ersten Teils der ersten Eingabe einen zweiten Teil der ersten Eingabe (z. B. erkennt sie weiterhin eine(n) ausreichend starke(n) Kontakt und/oder Intensität in einer Fingergeste). In einigen Ausführungsformen handelt es sich bei dem zweiten Teil um eine Weiterführung der ersten Eingabe, welche dieselben Eigenschaften wie der erste Teil der ersten Eingabe aufweist (z. B. gibt es keine zeitabhängige Änderung zwischen dem ersten Teil und dem zweiten Teil der ersten Eingabe). In einigen Ausführungsformen dauert der erste Teil der ersten Eingabe so lange, wie es dauert, die Operation 1010 durchzuführen, und alles danach ist der zweite Teil oder ein späterer Teil der ersten Eingabe, es sei denn, sie wird durch den Benutzer unterbrochen oder abgebrochen.
  • In einigen Ausführungsformen zeigt (1016) die Vorrichtung als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe der Reihe nach das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild und das eine oder die mehreren Bilder an, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (wie z. B. in den 6E6I gezeigt ist). Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe die gesamte Folge von Bildern angezeigt, vom Anfangsbild bis zum letzten Bild in der Folge.
  • In einigen Ausführungsformen reagiert die Vorrichtung auf das Erkennen des ersten Teils der ersten Eingabe mit dem Ersetzen des Anzeigens des stellvertretenden Bildes durch das Anzeigen des Anfangsbildes der Folge, gefolgt von der verbleibenden Folge der Reihe nach, anstelle des Reagierens auf das Erkennen des ersten Teils der ersten Eingabe mit dem Ersetzen des Anzeigens des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • In einigen Ausführungsformen wird die Folge von Bildern als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe der Reihe nach mit einer festen Geschwindigkeit angezeigt (1018). In einigen Ausführungsformen werden Bilder in der Folge von Bildern aufeinanderfolgend mit einer festen Geschwindigkeit angezeigt, unabhängig von der Intensität eines Kontakts in der ersten Eingabe (z. B. während des zweiten Teils der ersten Eingabe). Zum Beispiel wird die Folge von Bildern während des zweiten Teils der ersten Eingabe aufeinanderfolgend mit einer 1x-Video-Wiedergabegeschwindigkeit angezeigt (z. B. mit einer Geschwindigkeit, mit der die Bilder erhalten wurden). In einigen Ausführungsformen hängt die Geschwindigkeit, mit der Bilder in der Folge von Bildern während des zweiten Teils der ersten Eingabe aufeinanderfolgend angezeigt werden, von der Intensität eines Kontakts in der ersten Eingabe ab. Zum Beispiel nimmt die Geschwindigkeit zu, wenn die Intensität des Kontakts zunimmt. In einigen Ausführungsformen wird die Folge von Bildern als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe der Reihe nach mit einer Geschwindigkeit angezeigt, die auf einer Intensität eines Kontakts im ersten Teil der Eingabe basiert.
  • In einigen Ausführungsformen blendet (1020) die Vorrichtung vom Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, zum Anzeigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, über. In einigen Ausführungsformen wird eine überblendende Animation vom Ende der Folge von Bildern (wie z. B. in 6D gezeigt ist) zum Anfang der Folge von Bildern (wie z. B. in 6E gezeigt ist) angezeigt, wenn die Folge von Bildern wiederholt oder erneut angezeigt wird.
  • In einigen Ausführungsformen präsentiert (1022) die Vorrichtung als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe einen Ton, welcher der Folge von Bildern entspricht. In einigen Ausführungsformen wird als Reaktion auf das Erkennen des zweiten Teils 616-2 der ersten Eingabe 616 die gesamte Folge von Bildern 602 mit dem entsprechenden Ton 620 angezeigt, der aufgezeichnet wurde, als die Folge von Bildern 602 erfasst wurde. In einigen Ausführungsformen wird kein Ton als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe präsentiert. In einigen Ausführungsformen wird der Ton während des ersten vollständigen Wiedergebens der Folge von Bildern präsentiert (z. B. als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe). Wenn die erste Eingabe nach dem ersten vollständigen Wiedergeben der Folge von Bildern (z. B. als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe) beibehalten wird, wird in einigen Ausführungsformen der Ton nicht noch einmal während des anschließenden Wiedergebens der Folge als Reaktion auf ein kontinuierliches Erkennen der ersten Eingabe präsentiert. In einigen Ausführungsformen wird der Ton für eine gegebene Eingabe nur während des ersten vollständigen Wiedergebens der Folge von Bildern präsentiert. In einigen Ausführungsformen wird der Ton für eine gegebene Eingabe nur während des zweiten vollständigen Wiedergebens der Folge von Bildern präsentiert.
  • In einigen Ausführungsformen erkennt (1044) die Vorrichtung nach dem Erkennen des zweiten Teils der ersten Eingabe einen dritten Teil der ersten Eingabe (z. B. erkennt sie weiterhin eine(n) ausreichend starke(n) Kontakt und/oder Intensität in einer Fingergeste, wie in den 6J6M gezeigt ist). In einigen Ausführungsformen handelt es sich bei dem dritten Teil der ersten Eingabe um eine Weiterführung des zweiten Teils der ersten Eingabe, ohne eine Änderung einer Eigenschaft der ersten Eingabe. Als Reaktion auf das Erkennen des dritten Teils der ersten Eingabe zeigt (1026) die Vorrichtung der Reihe nach das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild und das eine oder die mehreren Bilder an, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. führt die Vorrichtung eine Schleife zurück aus und zeigt die Folge erneut an). In einigen Ausführungsformen wird die Folge von Bildern erneut angezeigt, wenn der Druck und/oder der Kontakt in der ersten Eingabe beibehalten werden. In einigen Ausführungsformen dauert das Wiederholen und Wiedergeben so lange an, wie die erste Eingabe beibehalten wird.
  • In einigen Ausführungsformen zeigt (1028) die Vorrichtung als Reaktion auf das Erkennen des dritten Teils der ersten Eingabe Metadaten an, die der Folge von Bildern entsprechen. In einigen Ausführungsformen wird die Folge von Bildern erneut mit dem gleichzeitigen Anzeigen von Metadaten für die Folge von Bildern wie zum Beispiel Zeit, Datum, Standort (z. B. über GPS), Wetter, Musik, die abgespielt wurde, als die Folge von Bildern erfasst wurde (z. B. Musik, die mit einer Musikidentifizierungssoftware in der Vorrichtung wie zum Beispiel Shazam, SoundHound oder Midomi identifiziert wurde), lokale Ereignisinformationen (wie zum Beispiel ein Sportspiel, das zu der Zeit und an dem Ort stattfand, wo die erste Folge von Bildern erfasst wurde), und/oder Informationen nach dem Ereignis (wie zum Beispiel ein Endstand) angezeigt, wenn der Druck und/oder der Kontakt in der ersten Eingabe beibehalten werden. Zum Beispiel veranschaulichen die 6J6M das gleichzeitige Anzeigen von Standort- und Zeitinformationen, die den Bildern in der Folge von Bildern entsprechen.
  • In einigen Ausführungsformen erkennt (1030) die Vorrichtung das Beenden der ersten Eingabe (z. B. erkennt sie das Abheben eines Kontakts in der ersten Eingabe oder erkennt, dass die Intensität eines Kontakts in der ersten Eingabe unter einen vorher festgelegten Intensitätsschwellwert wie zum Beispiel ITL fällt, wie in 6N gezeigt ist). Als Reaktion auf das Erkennen des Beendens der ersten Eingabe zeigt (1032) die Vorrichtung das stellvertretende Bild an (z. B. zeigt die Vorrichtung eine Animation an, die mit dem Anzeigen lediglich des stellvertretenden Bildes in der Folge von Bildern endet).
  • In einigen Ausführungsformen erkennt (1034) die Vorrichtung das Beenden der ersten Eingabe (z. B. erkennt sie das Abheben eines Kontakts in der ersten Eingabe oder erkennt, dass die Intensität eines Kontakts in der ersten Eingabe unter einen vorher festgelegten Intensitätsschwellwert wie zum Beispiel ITL fällt, wie in 6N gezeigt ist), während sie ein erstes Bild in der Folge von Bildern anzeigt (z. B. Bild 602-4, 6N). Als Reaktion (1036) auf das Erkennen des Beendens der ersten Eingabe während des Anzeigens des ersten Bildes in der Folge von Bildern: Infolge eines Feststellens, dass das erste Bild vor dem stellvertretenden Bild in der Folge von Bildern vorkommt (z. B. wurde das erste Bild vor dem stellvertretenden Bild aufgenommen), zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in chronologischer Reihenfolge an (z. B. zeigt die Vorrichtung die Folge von Bildern vorwärts an, bis sie bei dem stellvertretenden Bild ankommt). Infolge eines Feststellens, dass das erste Bild nach dem stellvertretenden Bild in der Folge von Bildern vorkommt (z. B. wurde das erste Bild nach dem stellvertretenden Bild aufgenommen), zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in umgekehrt chronologischer Reihenfolge an (z. B. zeigt die Vorrichtung die Folge von Bildern rückwärts an, bis sie bei dem stellvertretenden Bild ankommt). In einigen Ausführungsformen beinhaltet das Anzeigen von Bildern vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in chronologischer Reihenfolge ein allmähliches Verlangsamen der Geschwindigkeit, mit der die Bilder angezeigt werden, sodass die Wiedergabe der Folge von Bildern langsam beim stellvertretenden Bild anhält. In einigen Ausführungsformen beinhaltet das Anzeigen von Bildern vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in umgekehrt chronologischer Reihenfolge ein allmähliches Verlangsamen der Geschwindigkeit, mit der die Bilder angezeigt werden, sodass die umgekehrte Wiedergabe der Folge von Bildern langsam beim stellvertretenden Bild anhält.
  • In einigen Ausführungsformen ist die Folge von Bildern (1038) so konfiguriert, dass sie entweder in Vorwärtsrichtung oder in umgekehrter Richtung aufeinanderfolgend in einer Schleife angezeigt wird. Die Vorrichtung erkennt (1040) das Beenden der ersten Eingabe (z. B. erkennt die Vorrichtung das Abheben eines Kontakts in der ersten Eingabe oder erkennt, dass die Intensität eines Kontakts in der ersten Eingabe unter einen vorher festgelegten Intensitätsschwellwert fällt), während sie ein erstes Bild in der Folge von Bildern anzeigt. Als Reaktion (1042) auf das Erkennen des Beendens der ersten Eingabe während des Anzeigens des ersten Bildes in der Folge von Bildern: Infolge eines Feststellens, dass es weniger Bilder zwischen dem ersten Bild und dem stellvertretenden Bild gibt, wenn die Schleife in Vorwärtsrichtung durchlaufen wird, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in Vorwärtsrichtung an, und infolge eines Feststellens, dass es weniger Bilder zwischen dem ersten Bild und dem stellvertretenden Bild gibt, wenn die Schleife in der umgekehrten Richtung durchlaufen wird, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in der umgekehrten Richtung an.
  • In einigen Ausführungsformen werden das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in Übereinstimmung mit jeweiligen von der ersten Eingabe angewendeten Intensitätsstufen aufeinanderfolgend angezeigt (1044). Wie in den 6P6V und 6W gezeigt ist, werden zum Beispiel jeweilige Bilder zu jeweiligen Intensitäten zugeordnet, und der Benutzer kann vorwärts und rückwärts durch das eine oder die mehreren Bilder blättern, die nach dem stellvertretenden Bild erhalten wurden, indem er die von der ersten Eingabe ausgeübte Intensität ändert (z. B. initiiert das Bereitstellen einer Touch-Eingabe mit einer Intensität, die dem Intensitätsbereich 618-4 entspricht, das Anzeigen einer in 6R veranschaulichten Benutzerschnittstelle, und das anschließende Erhöhen der Intensität der Touch-Eingabe derart, dass die Intensität dem Intensitätsbereich 618-5 entspricht, initiiert das Ersetzen des Anzeigens der in 6R veranschaulichten Benutzerschnittstelle durch die in 6S veranschaulichte Benutzerschnittstelle).
  • In einigen Ausführungsformen beinhaltet (1046) der erste Teil der ersten Eingabe eine Änderung der Intensität eines auf der berührungsempfindlichen Oberfläche erkannten Kontakts (wie z. B. in den 6P6V gezeigt ist). Während das stellvertretende Bild angezeigt wird und der Kontakt eine erste Intensität aufweist, erkennt die Vorrichtung eine Erhöhung der Intensität des Kontakts um einen jeweiligen Wert auf eine zweite Intensität. Als Reaktion auf das Erkennen der Erhöhung der Intensität des Kontakts um den jeweiligen Wert ersetzt die Vorrichtung das Anzeigen des stellvertretenden Bildes durch das Anzeigen eines ersten nachfolgenden Bildes, das eine jeweilige Anzahl von Bildern hinter dem stellvertretenden Bild in der Folge von Bildern ist. Zum Beispiel nimmt in den 6Q6R die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-3 auf die Intensität innerhalb des Intensitätsbereichs 618-4 zu, und das Anzeigen von Bild 602-3 wird durch das Anzeigen von Bild 602-4 ersetzt. Während des Anzeigens des ersten nachfolgenden Bildes und wenn der Kontakt eine zweite Intensität aufweist, erkennt die Vorrichtung eine Erhöhung der Intensität des Kontakts um den jeweiligen Wert auf eine dritte Intensität. Als Reaktion auf das Erkennen der Erhöhung der Intensität des Kontakts um den jeweiligen Wert von der zweiten Intensität auf die dritte Intensität ersetzt die Vorrichtung das Anzeigen des ersten nachfolgenden Bildes durch das Anzeigen eines zweiten nachfolgenden Bildes, das sich die jeweilige Anzahl von Bildern hinter dem ersten nachfolgenden Bild in der Folge von Bildern befindet. Zum Beispiel nimmt in den 6R6S die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-4 auf die Intensität innerhalb des Intensitätsbereichs 618-5 zu, und das Anzeigen von Bild 602-4 wird durch das Anzeigen von Bild 602-5 ersetzt.
  • In einigen Ausführungsformen basiert (1048) die jeweilige Anzahl von Bildern auf der Größenordnung der Änderung der Intensität des Kontakts. Wenn zum Beispiel in den 6Q6S die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-3 auf die Intensität innerhalb des Intensitätsbereichs 618-4 zunimmt, ist die jeweilige Anzahl von Bildern eins, und wenn die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-3 auf die Intensität innerhalb des Intensitätsbereichs 618-5 zunimmt, ist die jeweilige Anzahl von Bildern zwei.
  • Wenn die Änderung der Intensität des Kontakts eine erste Größenordnung aufweist, befindet sich (1050) das erste aufeinanderfolgende Bild in einigen Ausführungsformen unmittelbar nach dem jeweiligen Bild in der Folge von Bildern, und das zweite aufeinanderfolgende Bild befindet sich unmittelbar nach dem ersten aufeinanderfolgenden Bild in der Folge von Bildern. Wenn die jeweilige Änderung der Intensität des Kontakts eine zweite Größenordnung aufweist, die größer ist als die erste Größenordnung, hat das erste aufeinanderfolgende Bild in einigen Ausführungsformen von dem jeweiligen Bild einen Abstand von einer jeweiligen Anzahl von Bildern in der Folge von Bildern, und das zweite aufeinanderfolgende Bild hat von dem ersten aufeinanderfolgenden Bild einen Abstand von der jeweiligen Anzahl von Bildern in der Folge von Bildern, wobei die jeweilige Anzahl von Bildern ein oder mehrere Bilder beträgt. Wenn zum Beispiel in den 6Q6S die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-3 auf die Intensität innerhalb des Intensitätsbereichs 618-4 zunimmt, wird das Anzeigen von Bild 602-3 durch das Anzeigen von Bild 602-4 ersetzt, und wenn die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-3 auf die Intensität innerhalb des Intensitätsbereichs 618-5 zunimmt, wird das Anzeigen von Bild 602-3 durch das Anzeigen von Bild 602-5 ersetzt.
  • In einigen Ausführungsformen beinhaltet (1052) der erste Teil der ersten Eingabe eine Änderung der Intensität eines auf der berührungsempfindlichen Oberfläche erkannten Kontakts (wie z. B. in den 6P6V gezeigt ist). Während das stellvertretende Bild angezeigt wird und der Kontakt eine erste Intensität aufweist, erkennt die Vorrichtung eine Erhöhung der Intensität des Kontakts um einen jeweiligen Wert auf eine zweite Intensität. Als Reaktion auf das Erkennen der Erhöhung der Intensität des Kontakts um den (gleichen) jeweiligen Wert ersetzt die Vorrichtung das Anzeigen des stellvertretenden Bildes durch das Anzeigen eines ersten nachfolgenden Bildes, das eine jeweilige Anzahl von Bildern hinter dem stellvertretenden Bild in der Folge von Bildern ist. Zum Beispiel nimmt in den 6Q6R die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-3 auf die Intensität innerhalb des Intensitätsbereichs 618-4 zu, und das Anzeigen von Bild 602-3 wird durch das Anzeigen von Bild 602-4 ersetzt. Während des Anzeigens des ersten nachfolgenden Bildes und wenn der Kontakt die zweite Intensität aufweist, erkennt die Vorrichtung eine Änderung der Intensität des Kontakts um den (gleichen) jeweiligen Wert. Als Reaktion auf das Erkennen der Änderung der Intensität des Kontakts um den (gleichen) jeweiligen Wert: Infolge eines Feststellens, dass die Änderung der Intensität des Kontakts um den (gleichen) jeweiligen Wert eine Erhöhung der Intensität des Kontakts von der zweiten Intensität auf eine dritte Intensität beinhaltet, ersetzt die Vorrichtung das Anzeigen des ersten nachfolgenden Bildes durch das Anzeigen eines zweiten nachfolgenden Bildes, das sich die jeweilige Anzahl von Bildern hinter dem ersten nachfolgenden Bild in der Folge von Bildern befindet; und infolge eines Feststellens, dass die Änderung der Intensität des Kontakts um den (gleichen) jeweiligen Wert eine Verringerung der Intensität des Kontakts von der zweiten Intensität auf die dritte Intensität beinhaltet, ersetzt die Vorrichtung das Anzeigen des ersten nachfolgenden Bildes durch das Anzeigen des stellvertretenden Bildes. Wenn zum Beispiel die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-4 auf die Intensität innerhalb des Intensitätsbereichs 618-5 zunimmt, wie in den 6R6S gezeigt ist, wird das Anzeigen von Bild 602-4 durch das Anzeigen von Bild 602-5 ersetzt, und wenn die Intensität des Kontakts 636 von der Intensität innerhalb des Intensitätsbereichs 618-4 auf die Intensität innerhalb des Intensitätsbereichs 618-3 abnimmt, wie in den 6T6U gezeigt ist, wird das Anzeigen von Bild 602-4 durch das Anzeigen von Bild 602-3 ersetzt.
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 10A10E beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 1014 und 1016 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 10000, 10050, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 10A10E beschriebene Verfahren 1000 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 1000 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 10000, 10050, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 10F10I veranschaulichen einen Ablaufplan eines Verfahrens 10000 zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 10000 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 10000 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Die Vorrichtung zeigt (10002) ein stellvertretendes Bild auf der Anzeige an. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Folge von Bildern analog zu der unter Bezugnahme auf die Operation 1002 des Verfahrens 1000 beschriebenen Folge von Bildern.
  • Während des Anzeigens des stellvertretenden Bildes auf der Anzeige erkennt (10004) die Vorrichtung einen ersten Teil einer ersten Eingabe. In einigen Ausführungsformen handelt es sich (10006) bei der ersten Eingabe um eine Drücken-und-Halten-Geste. In einigen Ausführungsformen ist die erste Eingabe analog zu der unter Bezugnahme auf die Operationen 10041008 des Verfahrens 1000 beschriebene erste Eingabe.
  • Als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe: geht (10008) die Vorrichtung vom Anzeigen des stellvertretenden Bildes zum Anzeigen eines jeweiligen vorhergehenden Bildes in der Folge von Bildern über, wobei das jeweilige vorhergehende Bild von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurde; und nach dem Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an, beginnend mit dem jeweiligen vorhergehenden Bild. In einigen Ausführungsformen zeigt die Vorrichtung nach dem Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an, beginnend mit dem jeweiligen vorhergehenden Bild.
  • In einigen Ausführungsformen beinhaltet das Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes das Anzeigen (10010) von zumindest einigen des einen oder der mehreren Bilder der Reihe nach, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und dann das Ersetzen des Anzeigens eines jeweiligen nachfolgenden Bildes, das nach dem Erfassen des stellvertretenden Bildes erfasst wurde, durch das jeweilige vorhergehende Bild (z. B. blendet die Vorrichtung über und/oder bildet unscharf ab, um vom Anzeigen des jeweiligen nachfolgenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes umzuschalten, wie unter Bezugnahme auf das Diagramm 650, 6X beschrieben ist).
  • In einigen Ausführungsformen beinhaltet das Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes das Ersetzen (10012) des Anzeigens des stellvertretenden Bildes durch das jeweilige vorhergehende Bild (z. B. blendet die Vorrichtung über und/oder bildet unscharf ab, um vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes umzuschalten, ohne ein oder mehrere Bilder anzuzeigen, die von der Kamera nach dem Erfassen des stellvertretenden Bildes vor dem Umschalten erfasst wurden, wie unter Bezugnahme auf das Diagramm 656, 6X beschrieben ist).
  • In einigen Ausführungsformen beinhaltet das Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes Folgendes: Infolge eines Feststellens, dass der erste Teil der ersten Eingabe erste Wiedergabekriterien erfüllt (z. B. Erkennen einer langsamen Erhöhung der Intensität eines Kontakts auf eine Wiedergabe-Intensitätsschwelle oder Erkennen einer Erhöhung der Intensität eines Kontakts auf eine Langsam-Wiedergabe-Intensitätsschwelle, die niedriger ist als eine Schnell-Wiedergabe-Intensitätsschwelle), Anzeigen (10014) von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach, und dann Ersetzen des Anzeigens eines jeweiligen nachfolgenden Bildes, das nach dem Erfassen des stellvertretenden Bildes erfasst wurde, durch das jeweilige vorhergehende Bild (z. B. Überblenden und/oder unscharf Abbilden, um vom Anzeigen des jeweiligen nachfolgenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes umzuschalten); und infolge eines Feststellens, dass der erste Teil der ersten Eingabe zweite Wiedergabekriterien erfüllt (z. B. Erkennen einer schnellen Erhöhung der Intensität eines Kontakts auf die Wiedergabe-Intensitätsschwelle oder Erkennen einer Erhöhung der Intensität eines Kontakts auf die Schnell-Wiedergabe-Intensitätsschwelle), die sich von den ersten Kriterien unterscheiden, Ersetzen des Anzeigens des stellvertretenden Bildes durch das jeweilige nachfolgende Bild (z. B. Überblenden und/oder unscharf Abbilden, um vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes umzuschalten, ohne ein oder mehrere Bilder anzuzeigen, die von der Kamera nach dem Erfassen des stellvertretenden Bildes vor dem Umschalten erfasst wurden).
  • In einigen Ausführungsformen beinhaltet (10016) die Vorrichtung eine oder mehrere Sensoreinheiten zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. Die erste Eingabe beinhaltet einen Kontakt auf der berührungsempfindlichen Oberfläche. Die ersten Wiedergabekriterien beinhalten ein Kriterium, das erfüllt wird, wenn der Kontakt eine charakteristische Intensität über einer ersten Intensitätsschwelle aufweist (z. B. die Leicht-Drücken-Schwelle ITL, 6X). Die zweiten Wiedergabekriterien beinhalten ein Kriterium, das erfüllt wird, wenn der Kontakt eine charakteristische Intensität über einer zweiten Intensitätsschwelle aufweist, die höher ist als die erste Intensitätsschwelle (z. B. die Fest-Drücken-Schwelle ITD, 6X).
  • In einigen Ausführungsformen werden das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden und das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach mit einer festen Geschwindigkeit angezeigt (10018), beginnend mit dem jeweiligen vorhergehenden Bild (z. B. auf entsprechende Weise wie das Anzeigen von Bildern mit einer festen Geschwindigkeit, wie unter Bezugnahme auf die Operation 1018, Verfahren 1000, beschrieben ist).
  • In einigen Ausführungsformen präsentiert (10020) die Vorrichtung einen Ton, welcher der Folge von Bildern entspricht (z. B. analog zu der unter Bezugnahme auf die Operation 1022, Verfahren 1000, beschriebenen Präsentation von Ton).
  • In einigen Ausführungsformen erkennt (10022) die Vorrichtung nach dem Erkennen des ersten Teils der ersten Eingabe einen zweiten Teil der ersten Eingabe. Als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an (z. B. auf entsprechende Weise wie die Operationen 1024-1028, Verfahren 1000). In einigen Ausführungsformen zeigt (10024) die Vorrichtung als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe Metadaten an, die der Folge von Bildern entsprechen.
  • In einigen Ausführungsformen erkennt (10026) die Vorrichtung das Beenden (z. B. Abheben) der ersten Eingabe. Als Reaktion auf das Erkennen des Beendens der ersten Eingabe zeigt die Vorrichtung das stellvertretende Bild an. (Z. B. auf entsprechende Weise wie die Operationen 10301032, Verfahren 1000).
  • In einigen Ausführungsformen erkennt (10028) die Vorrichtung das Beenden (z. B. Abheben) der ersten Eingabe, während sie ein erstes Bild in der Folge von Bildern anzeigt. Als Reaktion auf das Erkennen des Beendens der ersten Eingabe während des Anzeigens des ersten Bildes in der Folge von Bildern: Infolge eines Feststellens, dass das erste Bild vor dem stellvertretenden Bild in der Folge von Bildern vorkommt, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in chronologischer Reihenfolge an, und infolge eines Feststellens, dass das erste Bild nach dem stellvertretenden Bild in der Folge von Bildern vorkommt, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in umgekehrt chronologischer Reihenfolge an (z. B. auf entsprechende Weise wie die Operationen 10341036, Verfahren 1000).
  • In einigen Ausführungsformen ist (10030) die Folge von Bildern so konfiguriert, dass sie entweder in Vorwärtsrichtung oder in umgekehrter Richtung aufeinanderfolgend in einer Schleife angezeigt wird. Die Vorrichtung erkennt das Beenden (z. B. Abheben) der ersten Eingabe, während sie ein erstes Bild in der Folge von Bildern anzeigt. Als Reaktion auf das Erkennen des Beendens der ersten Eingabe während des Anzeigens des ersten Bildes in der Folge von Bildern: Infolge eines Feststellens, dass es weniger Bilder zwischen dem ersten Bild und dem stellvertretenden Bild gibt, wenn die Schleife in Vorwärtsrichtung durchlaufen wird, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in Vorwärtsrichtung an, und infolge eines Feststellens, dass es weniger Bilder zwischen dem ersten Bild und dem stellvertretenden Bild gibt, wenn die Schleife in der umgekehrten Richtung durchlaufen wird, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in der umgekehrten Richtung an (z. B. auf entsprechende Weise wie die Operationen 10381042, Verfahren 1000).
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 10F10I beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 10014 und 10016 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10050, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 10F10I beschriebene Verfahren 10000 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 10000 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10050, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 10J10M veranschaulichen einen Ablaufplan eines Verfahrens 10050 zum Anzeigen (oder Wiedergeben) einer Folge von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 10050 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 10050 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • An einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche: zeigt (10052) die Vorrichtung ein stellvertretendes Bild auf der Anzeige an (z. B. das stellvertretende Bild 602-1, 6Y).
  • Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen handelt es sich bei dem stellvertretenden Bild um ein Anfangsbild in der Folge von Bildern. In einigen Ausführungsformen beinhaltet (10054) die Folge von Bildern ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. ist die Folge von Bildern analog zu der unter Bezugnahme auf die Operation 1002 des Verfahrens 1000 beschriebenen Folge von Bildern).
  • Während des Anzeigens des stellvertretenden Bildes auf der Anzeige erkennt (10056) die Vorrichtung eine erste Eingabe, was das Erkennen einer Erhöhung einer charakteristischen Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche auf eine erste Intensität beinhaltet, die größer ist als eine erste Intensitätsschwelle (z. B. die Leicht-Drücken-Schwelle ITL, 6Y6AA).
  • In einigen Ausführungsformen handelt es sich (10058) bei der ersten Eingabe um eine Drücken-und-Halten-Geste. In einigen Ausführungsformen ist die erste Eingabe analog zu der unter Bezugnahme auf die Operationen 10041008 des Verfahrens 1000 beschriebene erste Eingabe.
  • Als Reaktion auf das Erkennen des Erhöhens der charakteristischen Intensität des Kontakts schaltet (10060) die Vorrichtung mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der ersten Intensität bestimmt wird, (z. B. in chronologischer Reihenfolge) in einer ersten Richtung durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (wie z. B. unter Bezugnahme auf die 6Y6AA beschrieben ist).
  • Nach dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, mit der Geschwindigkeit, die auf Grundlage der ersten Intensität bestimmt wird, erkennt (10062) die Vorrichtung eine Verringerung der Intensität des Kontakts auf eine zweite Intensität, die geringer ist als die erste Intensität.
  • Als Reaktion auf das Erkennen der Erhöhung der charakteristischen Intensität des Kontakts auf die zweite Intensität: Infolge eines Feststellens, dass die zweite Intensität über der ersten Intensitätsschwelle liegt, fährt (10064) die Vorrichtung mit dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in der ersten Richtung mit einer zweiten Geschwindigkeit, wobei: die zweite Geschwindigkeit zumindest teilweise auf Grundlage der zweiten Intensität bestimmt wird und die zweite Geschwindigkeit langsamer als die erste Geschwindigkeit ist; und infolge eines Feststellens, dass die zweite Intensität unter der ersten Intensitätsschwelle liegt, läuft die Vorrichtung in einer zweiten Richtung, die entgegengesetzt zur ersten Richtung ist (z. B. in umgekehrt chronologischer Reihenfolge), mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der zweiten Intensität bestimmt wird, durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (z. B. läuft die Vorrichtung 100 rückwärts durch die Folge von Bildern 602 von 6AA bis 6BB, da die Eingabe 644 eine Kontaktintensität unterhalb der Leicht-Drücken-Schwelle ITL aufweist).
  • In einigen Ausführungsformen werden (10066) Bilder der Reihe nach mit einer Geschwindigkeit angezeigt, die zunimmt, wenn die charakteristische Intensität des Kontakts zunimmt (z. B. sind die erste Geschwindigkeit und/oder die zweite Geschwindigkeit proportional zu der charakteristischen Intensität des Kontakts). In einigen Ausführungsformen wird infolge eines Feststellens, dass die charakteristische Intensität des Kontakts über einer ersten Intensitätsschwelle liegt, das Anzeigen des stellvertretenden Bildes durch das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach mit einer Geschwindigkeit ersetzt, die zunimmt, wenn die charakteristische Intensität des Kontakts zunimmt.
  • In einigen Ausführungsformen werden infolge eines Feststellens, dass die charakteristische Intensität des Kontakts unter der ersten Intensitätsschwelle liegt, Bilder in der Folge in umgekehrt chronologischer Reihenfolge mit einer Rückwärtsgeschwindigkeit angezeigt, die zunimmt, wenn die charakteristische Intensität des Kontakts abnimmt (wie z. B. in den Geschwindigkeitsdiagrammen 646, 6Y6AA, und den in den 6CC6DD gezeigten Schaubildern gezeigt ist).
  • In einigen Ausführungsformen wird die Vorwärts- oder Rückwärtsgeschwindigkeit in Echtzeit oder Nahe-Echtzeit bestimmt, sodass der Benutzer das Fortschreiten durch die Bilder (entweder in Vorwärts- oder in Rückwärtsrichtung) durch Ändern der charakteristischen Intensität des Kontakts beschleunigen oder verlangsamen kann.
  • In einigen Ausführungsformen werden (10068) die Bilder der Reihe nach mit einer Geschwindigkeit angezeigt, die proportional zu einer Differenz zwischen der charakteristischen Intensität des Kontakts und der ersten Intensitätsschwelle ist (z. B. sind die erste Geschwindigkeit und/oder die zweite Geschwindigkeit proportional zur Differenz zwischen der charakteristischen Intensität des Kontakts und der ersten Intensitätsschwelle). In einigen Ausführungsformen wird infolge eines Feststellens, dass die charakteristische Intensität des Kontakts über einer ersten Intensitätsschwelle liegt, das Anzeigen des stellvertretenden Bildes durch das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach mit einer Geschwindigkeit ersetzt, die proportional zu einer Differenz zwischen der charakteristischen Intensität des Kontakts und der ersten Intensitätsschwelle ist.
  • In einigen Ausführungsformen werden infolge eines Feststellens, dass die charakteristische Intensität des Kontakts unter der ersten Intensitätsschwelle liegt, Bilder in der Folge in umgekehrt chronologischer Reihenfolge mit einer Rückwärtsgeschwindigkeit angezeigt, die proportional zur Differenz zwischen der charakteristischen Intensität des Kontakts und der ersten Intensitätsschwelle ist.
  • In einigen Ausführungsformen wird die Vorwärts- oder Rückwärtsgeschwindigkeit in Echtzeit oder Nahe-Echtzeit bestimmt, sodass der Benutzer das Fortschreiten durch die Bilder (entweder in Vorwärts- oder in Rückwärtsrichtung) durch Ändern der charakteristischen Intensität des Kontakts beschleunigen oder verlangsamen kann.
  • In einigen Ausführungsformen verringert (10070) die Vorrichtung eine Geschwindigkeit, mit der Bilder in der Folge von Bildern angezeigt werden, wenn der Endpunkt der Folge von Bildern erreicht wird z. B. unabhängig von der charakteristischen Intensität des Kontakts).
  • Zum Beispiel wird (10072) die erste Geschwindigkeit in einigen Ausführungsformen teilweise auf Grundlage einer Nähe des aktuelle angezeigten Bildes zu einem Ende der Folge von Bildern bestimmt (z. B. wird die Geschwindigkeit des Durchlaufens langsamer, wenn sich die Wiedergabe dem Ende der Folge nähert, sodass die Wiedergabe der Folge von Bildern am Ende der Folge von Bildern langsam anhält). Somit „bremst” die Vorrichtung leicht, wenn sie das Ende der Folge von Bildern erreicht.
  • Als anderes Beispiel wird (10074) die zweite Geschwindigkeit in einigen Ausführungsformen teilweise auf Grundlage einer Nähe des aktuelle angezeigten Bildes zu einem Anfang der Folge von Bildern bestimmt (z. B. wird die Geschwindigkeit des Rückwärtsdurchlaufens langsamer, wenn sich die umgekehrte Wiedergabe dem Anfang der Folge nähert, sodass die umgekehrte Wiedergabe der Folge von Bildern am Anfang der Folge von Bildern langsam anhält). Somit „bremst” die Vorrichtung leicht, wenn sie beim Durchlaufen in umgekehrt chronologischer Reihenfolge den Anfang der Folge von Bildern erreicht.
  • In einigen Ausführungsformen wird (10076) die Geschwindigkeit des Weiterschaltens durch die Folge von Bildern durch eine Höchstgeschwindigkeit beschränkt, während der Kontakt auf der berührungsempfindlichen Oberfläche erkannt wird (z. B. eine Höchstgeschwindigkeit von 2x, wobei x die Standardwiedergabegeschwindigkeit für den Inhalt ist, z. B. die Geschwindigkeit, mit der das Wiedergeben von 1 Sekunde einer verstrichenen Zeit von 1 Sekunde während des Erfassens der Bilder in der Folge entspricht).
  • In einigen Ausführungsformen werden (10078) Intensitätswerte der charakteristischen Intensität des Kontakts nahe der ersten Intensitätsschwelle mit Geschwindigkeitswerten verknüpft, die mindestens einen vorher festgelegten Wert weg von einer Geschwindigkeit von null Bildern pro Sekunde sind (z. B. 0,2x für Werte über der ersten Intensitätsschwelle und –0,2x für Werte unter der ersten Intensitätsschwelle). Durch das Sicherstellen, dass die Wiedergabegeschwindigkeit der Folge von Bildern nicht nahe null wird, wird verhindert, dass die Bilder so langsam wiedergegeben werden, dass Inkonsistenzen zwischen den Bildern ohne Weiteres ersichtlich werden, wodurch vermieden wird, dass mit der Illusion einer sanften Wiedergabe der Folge von Bildern gebrochen wird.
  • In einigen Ausführungsformen wird (10080) die Durchlaufgeschwindigkeit der Folge von Bildern durch eine Rückwärtshöchstgeschwindigkeit beschränkt, während der Kontakt auf der berührungsempfindlichen Oberfläche erkannt wird (z. B. eine Rückwärtshöchstgeschwindigkeit von –2x).
  • In einigen Ausführungsformen wird (10082) das stellvertretende Bild als Hintergrundbild auf einem Sperrbildschirm einer Vorrichtung angezeigt, und ein oder mehrere Elemente im Vordergrund (z. B. ein Datum, eine Zeit, eine oder mehrere Benachrichtigungen, Netzwerkstatusinformationen, Batteriestatusinformationen, Vorrichtungsentsperrungsanweisungen und/oder andere Statusinformationen) werden nicht geändert, während die Vorrichtung durch das eine oder die mehreren nach dem jeweiligen Bild erfassten Bilder weiterschaltet.
  • In einigen Ausführungsformen zeigt (10084) die Vorrichtung Metadaten an, die der Folge von Bildern entsprechen. Zum Beispiel zeigt die Vorrichtung Metadaten wie zum Beispiel Zeit, Datum, Standort (z. B. über GPS), Wetter, Musik, die abgespielt wurde, als die Folge von Bildern erfasst wurde (z. B. Musik, die mit einer Musikidentifizierungssoftware in der Vorrichtung wie zum Beispiel Shazam, SoundHound oder Midomi identifiziert wurde), lokale Ereignisinformationen (wie zum Beispiel ein Sportspiel, das zu der Zeit und an dem Ort stattfand, wo die erste Folge von Bildern erfasst wurde), und/oder Informationen nach dem Ereignis (wie zum Beispiel ein Endstand).
  • In einigen Ausführungsformen erkennt (10086) die Vorrichtung das Abhebendes Kontakts von der berührungsempfindlichen Oberfläche. Als Reaktion auf das Erkennen des Abhebens des Kontakts schaltet die Vorrichtung durch die Bilder in der zweiten Richtung mit einer Geschwindigkeit weiter, die größer ist als die Rückwärtshöchstgeschwindigkeit (z. B. mit einer Geschwindigkeit von –4x).
  • In einigen Ausführungsformen erkennt (10088) die Vorrichtung das Beenden (z. B. Abheben) der ersten Eingabe. Als Reaktion auf das Erkennen des Beendens der ersten Eingabe zeigt die Vorrichtung das stellvertretende Bild an (z. B. auf entsprechende Weise wie die Operationen 10301032, Verfahren 1000).
  • In einigen Ausführungsformen erkennt (10090) die Vorrichtung das Beenden (z. B. Abheben) der ersten Eingabe, während sie ein erstes Bild in der Folge von Bildern anzeigt. Als Reaktion auf das Erkennen des Beendens der ersten Eingabe während des Anzeigens des ersten Bildes in der Folge von Bildern: Infolge eines Feststellens, dass das erste Bild vor dem stellvertretenden Bild in der Folge von Bildern vorkommt, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in chronologischer Reihenfolge an, und infolge eines Feststellens, dass das erste Bild nach dem stellvertretenden Bild in der Folge von Bildern vorkommt, zeigt die Vorrichtung Bilder vom ersten Bild bis zum stellvertretenden Bild aufeinanderfolgend in umgekehrt chronologischer Reihenfolge an (z. B. auf entsprechende Weise wie die Operationen 10341036, Verfahren 1000).
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 10J10M beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 10064 und 10066 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 10J10M beschriebene Verfahren 10050 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 10050 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 1100, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 11A11E veranschaulichen einen Ablaufplan eines Verfahrens 1100 zum Navigieren durch Folgen von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 1100 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 1100 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Die Vorrichtung speichert (1102) mehrere Folgen von Bildern (z. B. in nichtflüchtigem Speicher und/oder Programmspeicher). Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die jeweilige Folge von Bildern aufgenommen hat, Teil der elektronischen Vorrichtung. In einigen Ausführungsformen wurde die jeweilige Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der elektronischen Vorrichtung ist (z. B. wurde die jeweilige Folge von Bildern an die elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die jeweilige Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das jeweilige stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen weist das jeweilige stellvertretende Bild eine höhere Auflösung als andere Bilder in der jeweiligen Folge von Bildern auf. In einigen Ausführungsformen weist das jeweilige stellvertretende Bild dieselbe Auflösung wie andere Bilder in der jeweiligen Folge von Bildern auf.
  • Die Vorrichtung zeigt (1104) ein erstes stellvertretendes Bild für eine erste Folge von Bildern in einem beweglichen ersten Bereich auf der Anzeige an (z. B. während sich die Vorrichtung in einem Bildpräsentationsmodus befindet, wie in 7A gezeigt ist). In einigen Ausführungsformen handelt es sich bei dem beweglichen ersten Bereich um einen Bereich, der Bilder in der ersten Folge von Bildern anzeigt, ohne Bilder aus anderen Folgen von Bildern als der ersten Folge von Bildern anzuzeigen.
  • In einigen Ausführungsformen handelt es sich (1106) bei der ersten Folge von Bildern um eine Nachrichtenkonversation, die in einem scrollbaren Bereich einer Messaging-Anwendung angezeigt wird, und die erste Folge von Bildern wird angezeigt, wenn der scrollbare Bereich der Messaging-Anwendung gescrollt wird (z. B. wenn die Nachricht über die Anzeige bewegt wird).
  • Die Vorrichtung erkennt (1108) eine Ziehgeste auf der berührungsempfindlichen Oberfläche (z. B. die Ziehgeste 736, 7B7D). In einigen Ausführungsformen beginnt die Ziehgeste in dem beweglichen ersten Bereich auf der Anzeige. In einigen Ausführungsformen endet die Ziehgeste in dem beweglichen ersten Bereich auf der Anzeige. In einigen Ausführungsformen beginnt und endet die Ziehgeste in dem beweglichen ersten Bereich auf der Anzeige (z. B. da die Ziehgeste den beweglichen ersten Bereich mitzieht).
  • Infolge eines Feststellens (1112), dass die Ziehgeste in einer ersten Richtung auf der berührungsempfindlichen Oberfläche verläuft (z. B. nach links oder nach oben): ersetzt (1114) die Vorrichtung das Anzeigen des ersten stellvertretenden Bildes für die erste Folge von Bildern in dem beweglichen ersten Bereich durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes für die erste Folge von Bildern erfasst wurden, in chronologischer Reihenfolge. Die Vorrichtung bewegt (1116) auch den ersten Bereich in die erste Richtung (zieht z. B. den ersten Bereich mit der Ziehgeste mit). Zum Beispiel zieht die Vorrichtung als Reaktion auf das Erkennen einer Ziehgeste nach links, wie in den 7B7D gezeigt ist, den ersten Bereich 734 nach links.
  • In einigen Ausführungsformen entspricht die Bewegung des ersten Bereichs in die erste Richtung auf der Anzeige der Bewegung eines Kontakts in der Ziehgeste in die erste Richtung auf der berührungsempfindlichen Oberfläche (z. B. scheint die Bewegung des Kontakts die Bewegung des ersten Bereichs direkt zu manipulieren). Allgemeiner ausgedrückt, entspricht die Bewegung eines jeweiligen Bereichs, der Bilder in einer jeweiligen Folge von Bildern anzeigt, der Bewegung eines Kontakts in einer Ziehgeste auf der berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem ersten Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt. Wenn die Bewegung des Kontakts in die erste Richtung schneller wird, wird somit das Anzeigen des chronologischen Fortschreitens von Bildern in dem ersten Bereich schneller. Wenn die Bewegung des Kontakts in die erste Richtung langsamer wird, wird das Anzeigen des chronologischen Fortschreitens von Bildern in dem ersten Bereich langsamer. Wenn die Bewegung des Kontakts in die erste Richtung pausiert wird, wird das Anzeigen des chronologischen Fortschreitens von Bildern in dem ersten Bereich pausiert. Und, wenn die Bewegung des Kontakts die Richtung umkehrt (z. B. von einer Ziehgeste nach links zu einer Ziehgeste nach rechts), wird das Anzeigen des chronologischen Fortschreitens von Bildern in der ersten Folge von Bildern in dem ersten Bereich umgekehrt, und die Bilder werden in Übereinstimmung mit der Bewegung des Kontakts in der umgekehrten Richtung in umgekehrter chronologischer Reihenfolge gezeigt. Allgemeiner ausgedrückt, findet für eine jeweilige Folge von Bildern das Anzeigen eines Fortschreitens von Bildern in der jeweiligen Folge von Bildern in einigen Ausführungsformen in einem jeweiligen Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt.
  • In einigen Ausführungsformen beinhaltet (1118) das Bewegen des ersten Bereichs in die erste Richtung das Bewegen von zumindest einem Teil des ersten Bereichs in die erste Richtung herunter von der Anzeige (z. B. nach links oder nach oben). In einigen Ausführungsformen wird als Ergebnis des Bewegens des ersten Bereichs in die erste Richtung lediglich ein Teil des ersten Bereichs auf der Anzeige angezeigt. Wie in den 7B7D gezeigt ist, wird zum Beispiel ein Teil des ersten Bereichs 734 von der Anzeige herunter gezogen.
  • In einigen Ausführungsformen geschieht infolge des Feststellens, dass die Ziehgeste in der ersten Richtung auf der berührungsempfindlichen Oberfläche verläuft (z. B. nach links oder nach oben) Folgendes: Die Vorrichtung bewegt (1120) einen beweglichen zweiten Bereich in die erste Richtung. In einigen Ausführungsformen handelt es sich bei dem beweglichen zweiten Bereich um einen Bereich, der Bilder in der zweiten Folge von Bildern anzeigt, ohne Bilder aus anderen Folgen von Bildern als der zweiten Folge von Bildern anzuzeigen (z. B. den beweglichen zweiten Bereich 738, 7B7D). In einigen Ausführungsformen befindet sich der bewegliche zweite Bereich neben dem beweglichen ersten Bereich (z. B. rechts des beweglichen ersten Bereichs). In einigen Ausführungsformen handelt es sich bei dem zweiten beweglichen Bereich um einen Bereich für eine nächste Folge von Bildern. Während des Bewegens des zweiten Bereichs in die erste Richtung zeigt (1122) die Vorrichtung in chronologischer Reihenfolge in dem zweiten Bereich auch zumindest einige von einem oder mehreren Bildern für eine zweite Folge von Bildern an (z. B. die nächste Folge von Bildern), die von der Kamera vor dem Erfassen eines zweiten stellvertretenden Bildes für die zweite Folge von Bildern erfasst wurden.
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die zweite Folge von Bildern, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt (z. B. auf entsprechende Weise wie vorstehend unter Bezugnahme auf die erste Folge von Bildern beschrieben). Zum Beispiel werden sowohl die Bilder in dem ersten Bereich als auch die Bilder in dem zweiten Bereich während der Ziehgeste mit derselben Geschwindigkeit weitergeschaltet, wobei die Geschwindigkeit auf der Bewegung des Kontakts basiert.
  • In einigen Ausführungsformen zeigt der zweite Bereich während des Bewegens des zweiten Bereichs in die erste Richtung lediglich das zweite stellvertretende Bild für die zweite Folge von Bildern an, ohne andere Bilder in der zweiten Folge von Bildern anzuzeigen.
  • Anstelle des Bewegens des zweiten Bereichs in die erste Richtung befindet sich in einigen Ausführungsformen der zweite Bereich unterhalb des ersten Bereichs in einer Z-Ordnung (von vorne nach hinten), und der zweite Bereich wird gezeigt, wenn der erste Bereich herunter von dem Touchscreen in die erste Richtung bewegt wird.
  • In einigen Ausführungsformen führt das Erkennen der Aktivierung eines Weiter-Symbols oder einer Weiter-Schaltfläche (z. B. des Weiter-Symbols 750-1, 7A) wie das Erkennen einer Ziehgeste in die erste Richtung auch zu dem animierten Anzeigen von Bildern aus der ersten Folge von Bildern in dem ersten Bereich und dem animierten Anzeigen von Bildern aus der zweiten Folge von Bildern in dem zweiten Bereich. In einigen Ausführungsformen führt das Erkennen der Aktivierung eines Weiter-Symbols oder einer Weiter-Schaltfläche zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes durch das Anzeigen des zweiten stellvertretenden Bildes, ohne das animierte Anzeigen von Bildern aus der ersten Folge von Bildern in dem ersten Bereich und ohne das animierte Anzeigen von Bildern aus der zweiten Folge von Bildern in dem zweiten Bereich. In einigen Ausführungsformen führt das Erkennen der Aktivierung eines Weiter-Symbols oder einer Weiter-Schaltfläche zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes durch das Anzeigen des zweiten stellvertretenden Bildes, ohne das Anzeigen von anderen Bildern in der ersten Folge oder der zweiten Folge. In einigen Ausführungsformen ist die Reaktion auf verschiedene Typen von Eingaben (z. B. eine Ziehgeste nach links im Gegensatz zu einer Aktivierung eines Weiter-Symbols oder einer Weiter-Schaltfläche) zum Beispiel über eine Einstellungen-Schnittstelle durch einen Benutzer konfigurierbar.
  • In einigen Ausführungsformen beinhaltet (1124) das Bewegen des zweiten Bereichs in die erste Richtung das Bewegen von zumindest einem Teil des zweiten Bereichs in die erste Richtung herunter von der Anzeige (z. B. nach links oder nach oben). In einigen Ausführungsformen wird als Ergebnis des Bewegens des zweiten Bereichs in die erste Richtung lediglich ein Teil des zweiten Bereichs auf der Anzeige angezeigt, wobei vom zweiten Bereich mehr gezeigt wird, wenn der zweite Bereich in die erste Richtung gezogen wird. Wie in den 7B7D gezeigt ist, wird zum Beispiel ein Teil des zweiten Bereichs 738 auf die Anzeige hinauf gezogen.
  • In einigen Ausführungsformen geschieht infolge des Feststellens, dass die Ziehgeste in der ersten Richtung auf der berührungsempfindlichen Oberfläche verläuft (z. B. nach links oder nach oben) Folgendes: Nach dem Bewegen des zweiten Bereichs in die erste Richtung zeigt (1126) die Vorrichtung das zweite stellvertretende Bild für die zweite Folge von Bildern in dem zweiten Bereich an. Zum Beispiel veranschaulicht 7F, dass als Ergebnis der Ziehgeste 736 (7B7D) das zweite stellvertretende Bild 724-3 angezeigt wird (wenn auch optionale Zwischenoperationen durchgeführt werden, wie nachfolgend beschrieben ist).
  • In einigen Ausführungsformen erkennt (1128) die Vorrichtung während des Anzeigens des zweiten stellvertretenden Bildes für die zweite Folge von Bildern in dem zweiten Bereich eine Änderung der Intensität einer Eingabe, die dem zweiten stellvertretenden Bild entspricht. Als Reaktion auf das Erkennen der Änderung der Intensität der Eingabe schaltet (1130) die Vorrichtung durch die zweite Folge von Bildern in dem zweiten Bereich weiter, ohne den zweiten Bereich auf der Anzeige zu bewegen (z. B. beginnend mit Bildern, die sich chronologisch nach dem zweiten stellvertretenden Bild befinden, und eine Schleife zurück zu Bildern ausführend, die sich chronologisch vor dem zweiten stellvertretenden Bild befinden). Zum Beispiel kann der Benutzer in einigen Ausführungsformen die Ziehgeste pausieren, wodurch die Ziehgeste in eine Drücken-und-Halten-Geste umgewandelt wird, welche die Wiedergabe der zweiten Folge von Bildern auslöst, wie ausführlicher unter Bezugnahme auf die Verfahren 1000/10000/10050, 10A10M beschrieben ist).
  • In einigen Ausführungsformen erkennt (1132) die Vorrichtung das Beenden (z. B. Abheben) der Ziehgeste, während sie den ersten Bereich und den zweiten Bereich bewegt. Als Reaktion auf das Erkennen des Beendens (1134) der Ziehgeste während des Bewegens des ersten Bereichs und des zweiten Bereichs geschieht Folgendes: Infolge eines Feststellens, dass die Ziehgeste Kriterien für das Navigieren zur nächsten Folge erfüllt (z. B. wurde mehr als die Hälfte des ersten Bereichs von der Anzeige herunter bewegt (wie in 7E gezeigt ist), oder mehr als ein vordefinierter Teil des ersten Bereichs wurde von der Anzeige herunter bewegt (wie zum Beispiel 0,2, 0,3 oder 0,4), oder bei der Ziehgeste handelt es sich um eine Flick-Geste mit einer Abhebgeschwindigkeit über einer vordefinierten Schwellgeschwindigkeit), geschieht Folgendes: Die Vorrichtung bewegt (1136) den ersten Bereich in die erste Richtung vollständig von der Anzeige herunter; bewegt den zweiten Bereich vollständig auf die Anzeige hinauf; und zeigt das zweite stellvertretende Bild für die zweite Folge von Bildern in dem zweiten Bereich an. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem ersten Bereich fortgesetzt, wenn der erste Bereich von der Anzeige herunter bewegt wird (z. B. selbst nachdem die Eingabe beendet wurde). In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die zweite Folge von Bildern, die von der Kamera vor dem Erfassen eines zweiten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich fortgesetzt, wenn der zweite Bereich auf die Anzeige hinauf bewegt wird, bis das zweite stellvertretende Bild angezeigt wird.
  • In einigen Ausführungsformen geschieht als Reaktion auf das Erkennen des Beendens der Ziehgeste während des Bewegens des ersten Bereichs und des zweiten Bereichs Folgendes: Infolge eines Feststellens, dass die Ziehgeste die Kriterien für das Navigieren zur nächsten Folge nicht erfüllt, bewegt (1138) die Vorrichtung den zweiten Bereich in eine zweite Richtung, die entgegengesetzt zur ersten Richtung ist, vollständig von der Anzeige herunter; bewegt den ersten Bereich vollständig auf die Anzeige hinauf; und zeigt das erste stellvertretende Bild für die erste Folge von Bildern in dem ersten Bereich an. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem ersten Bereich umgekehrt, wenn der erste Bereich vollständig auf die Anzeige hinauf bewegt wird, bis das erste stellvertretende Bild angezeigt wird. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die zweite Folge von Bildern, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich umgekehrt, wenn der zweite Bereich vollständig von der Anzeige herunter bewegt wird.
  • In einigen Ausführungsformen geschieht infolge eines Feststellens (1140), dass die Ziehgeste in einer zweiten Richtung auf der berührungsempfindlichen Oberfläche verläuft (z. B. nach rechts oder nach unten) Folgendes: Die Vorrichtung ersetzt (1142) das Anzeigen des ersten stellvertretenden Bildes für die erste Folge von Bildern in dem beweglichen ersten Bereich durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern, die von der Kamera vor dem Erfassen des ersten stellvertretenden Bildes für die erste Folge von Bildern erfasst wurden, in umgekehrt chronologischer Reihenfolge. Die Vorrichtung bewegt (1144) auch den ersten Bereich in die zweite Richtung (z. B. nach rechts oder nach unten).
  • In einigen Ausführungsformen entspricht die Bewegung des ersten Bereichs in die zweite Richtung auf der Anzeige der Bewegung eines Kontakts in der Ziehgeste in die zweite Richtung auf der berührungsempfindlichen Oberfläche (z. B. scheint die Bewegung des Kontakts die Bewegung des ersten Bereichs direkt zu manipulieren). Allgemeiner ausgedrückt, entspricht die Bewegung eines jeweiligen Bereichs, der Bilder in einer jeweiligen Folge von Bildern anzeigt, der Bewegung eines Kontakts in einer Ziehgeste auf der berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern, die von der Kamera vor dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in umgekehrt chronologischer Reihenfolge in dem ersten Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt. Wenn die Bewegung des Kontakts in die zweite Richtung schneller wird, wird somit das Anzeigen des umgekehrt chronologischen Fortschreitens von Bildern in dem ersten Bereich schneller. Wenn die Bewegung des Kontakts in die zweite Richtung langsamer wird, wird das Anzeigen des umgekehrt chronologischen Fortschreitens von Bildern in dem ersten Bereich langsamer. Wenn die Bewegung des Kontakts in die zweite Richtung pausiert wird, wird das Anzeigen des umgekehrt chronologischen Fortschreitens von Bildern in dem ersten Bereich pausiert. Und, wenn die Bewegung des Kontakts die Richtung umkehrt (z. B. von einer Ziehgeste nach rechts zu einer Ziehgeste nach links), wird das Anzeigen des chronologischen Fortschreitens von Bildern in der ersten Folge von Bildern in dem ersten Bereich umgekehrt, und die Bilder werden in Übereinstimmung mit der Bewegung des Kontakts in der umgekehrten Richtung in chronologischer Reihenfolge gezeigt. Allgemeiner ausgedrückt, findet für eine jeweilige Folge von Bildern das Anzeigen eines Fortschreitens von Bildern in der jeweiligen Folge von Bildern in einigen Ausführungsformen in einem jeweiligen Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt.
  • In einigen Ausführungsformen beinhaltet (1146) das Bewegen des ersten Bereichs in die zweite Richtung das Bewegen von zumindest einem Teil des ersten Bereichs in die zweite Richtung herunter von der Anzeige (z. B. nach rechts oder nach unten). Als Reaktion auf das Erkennen der Ziehgeste 744 nach rechts, 7G7I, bewegt die Vorrichtung den ersten Bereich 734 herunter von der Anzeige nach rechts, während sie die erste Folge von Bildern 702 in umgekehrt chronologischer Reihenfolge anzeigt.
  • In einigen Ausführungsformen geschieht infolge des Feststellens, dass die Ziehgeste in der zweiten Richtung auf der berührungsempfindlichen Oberfläche verläuft (z. B. nach rechts oder nach unten) Folgendes: Die Vorrichtung bewegt (1148) einen dritten Bereich in die zweite Richtung. In einigen Ausführungsformen handelt es sich bei dem beweglichen dritten Bereich um einen Bereich, der Bilder in der dritten Folge von Bildern anzeigt, ohne Bilder aus anderen Folgen von Bildern als der dritten Folge von Bildern anzuzeigen. In einigen Ausführungsformen befindet sich der bewegliche dritte Bereich neben dem beweglichen dritten Bereich (z. B. links des beweglichen ersten Bereichs). Während des Bewegens des dritten Bereichs in die zweite Richtung zeigt (1150) die Vorrichtung in umgekehrt chronologischer Reihenfolge in dem dritten Bereich auch zumindest einige von einem oder mehreren Bildern für eine dritte Folge von Bildern an, die von der Kamera nach dem Erfassen eines dritten stellvertretenden Bildes für die dritte Folge von Bildern erfasst wurden.
  • In einigen Ausführungsformen findet das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die dritte Folge von Bildern, die von der Kamera nach dem Erfassen des dritten stellvertretenden Bildes erfasst wurden, in umgekehrt chronologischer Reihenfolge in dem dritten Bereich in Übereinstimmung mit der Bewegung eines Kontakts in der Ziehgeste statt (z. B. auf entsprechende Weise wie vorstehend unter Bezugnahme auf die erste Folge von Bildern beschrieben). Zum Beispiel bewegen sich sowohl die Bilder in dem ersten Bereich als auch die Bilder in dem dritten Bereich während der Ziehgeste mit derselben Geschwindigkeit rückwärts, wobei die Geschwindigkeit auf der Bewegung des Kontakts basiert.
  • In einigen Ausführungsformen zeigt der dritte Bereich während des Bewegens des dritten Bereichs in die zweite Richtung lediglich das dritte stellvertretende Bild für die dritte Folge von Bildern an, ohne andere Bilder in der dritten Folge von Bildern anzuzeigen.
  • Anstelle des Bewegens des ersten Bereichs in die zweite Richtung befindet sich in einigen Ausführungsformen der erste Bereich unterhalb des dritten Bereichs in einer Z-Ordnung (von vorne nach hinten), und der erste Bereich wird verdeckt, wenn der dritte Bereich auf den Touchscreen hinauf in die zweite Richtung bewegt wird.
  • In einigen Ausführungsformen führt das Erkennen der Aktivierung eines Zurück-Symbols oder einer Zurück-Schaltfläche (z. B. des Zurück-Symbols 750-2, 7A) wie das Erkennen einer Ziehgeste in die zweite Richtung auch zu dem animierten Anzeigen von Bildern aus der ersten Folge von Bildern in dem ersten Bereich und dem animierten Anzeigen von Bildern aus der dritten Folge von Bildern in dem dritten Bereich. In einigen Ausführungsformen führt das Erkennen der Aktivierung eines Zurück-Symbols oder einer Zurück-Schaltfläche zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes durch das Anzeigen des dritten stellvertretenden Bildes, ohne das animierte Anzeigen von Bildern aus der ersten Folge von Bildern in dem ersten Bereich und ohne das animierte Anzeigen von Bildern aus der dritten Folge von Bildern in dem dritten Bereich. In einigen Ausführungsformen führt das Erkennen der Aktivierung eines Zurück-Symbols oder einer Zurück-Schaltfläche zu einem Ersetzen des Anzeigens des ersten stellvertretenden Bildes durch das Anzeigen des dritten stellvertretenden Bildes, ohne das Anzeigen von anderen Bildern in der ersten Folge oder der dritten Folge. In einigen Ausführungsformen ist die Reaktion auf verschiedene Typen von Eingaben (z. B. eine Ziehgeste nach rechts im Gegensatz zu einer Aktivierung eines Zurück-Symbols oder einer Zurück-Schaltfläche) zum Beispiel über eine Einstellungen-Schnittstelle durch einen Benutzer konfigurierbar.
  • In einigen Ausführungsformen beinhaltet (1152) das Bewegen des dritten Bereichs in die zweite Richtung das Bewegen von zumindest einem Teil des dritten Bereichs in die zweite Richtung auf die Anzeige hinauf (z. B. nach rechts oder nach unten). Als Reaktion auf das Erkennen der Ziehgeste 744 nach rechts, 7G7I, bewegt die Vorrichtung den dritten Bereich 746 von rechts auf die Anzeige hinauf, während sie die dritte Folge von Bildern 726 in umgekehrt chronologischer Reihenfolge anzeigt.
  • In einigen Ausführungsformen wurde die erste Folge von Bildern von der Kamera vor der zweiten Folge von Bildern erfasst, und die erste Folge von Bildern wurde von der Kamera nach der dritten Folge von Bildern erfasst (1154). Zum Beispiel befinden sich die Folgen von Bildern in chronologischer Reihenfolge von links nach rechts.
  • In einigen Ausführungsformen geschieht infolge des Feststellens, dass die Ziehgeste in der zweiten Richtung auf der berührungsempfindlichen Oberfläche verläuft (z. B. nach rechts oder nach unten) Folgendes: Nach dem Bewegen des dritten Bereichs in die zweite Richtung zeigt (1156) die Vorrichtung das dritte stellvertretende Bild für die dritte Folge von Bildern in dem dritten Bereich an (wie z. B. in 7K gezeigt ist).
  • In einigen Ausführungsformen erkennt (1158) die Vorrichtung das Beenden (z. B. Abheben) der Ziehgeste, während sie den ersten Bereich und den dritten Bereich bewegt (wie z. B. in 7J gezeigt ist). Als Reaktion auf das Erkennen (1160) des Beendens der Ziehgeste während des Bewegens des ersten Bereichs und des dritten Bereichs geschieht Folgendes: Infolge eines Feststellens, dass die Ziehgeste Kriterien für das Navigieren zur vorherigen Folge erfüllt (1162) (z. B. befindet sich der erste Bereich nur noch zur Hälfte auf der Anzeige (wie in 7J gezeigt ist), oder mehr als ein vordefinierter Teil des ersten Bereichs wurde von der Anzeige herunter bewegt (wie zum Beispiel 0,2, 0,3 oder 0,4), oder bei der Ziehgeste handelt es sich um eine Flick-Geste mit einer Abhebgeschwindigkeit über einer vordefinierten Schwellgeschwindigkeit), geschieht Folgendes: Die Vorrichtung bewegt den ersten Bereich in die zweite Richtung (z. B. nach rechts oder nach unten) vollständig von der Anzeige herunter; bewegt den dritten Bereich vollständig auf die Anzeige hinauf; und zeigt das dritte stellvertretende Bild für die dritte Folge von Bildern in dem dritten Bereich an. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern, die von der Kamera vor dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in umgekehrt chronologischer Reihenfolge fortgesetzt, wenn der erste Bereich von der Anzeige herunter bewegt wird. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die dritte Folge von Bildern, die von der Kamera nach dem Erfassen eines dritten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem dritten Bereich fortgesetzt, wenn der dritte Bereich auf die Anzeige hinauf bewegt wird, bis das dritte stellvertretende Bild angezeigt wird.
  • In einigen Ausführungsformen geschieht infolge eines Feststellens, dass die Ziehgeste die Kriterien für das Navigieren zur vorherigen Folge nicht (1164) erfüllt, Folgendes: Die Vorrichtung bewegt den dritten Bereich in die erste Richtung (z. B. nach links oder nach oben) vollständig von der Anzeige herunter; bewegt den ersten Bereich vollständig auf die Anzeige hinauf; und zeigt das erste stellvertretende Bild für die erste Folge von Bildern in dem ersten Bereich an. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die erste Folge von Bildern, die von der Kamera vor dem Erfassen des ersten stellvertretenden Bildes erfasst wurden, in umgekehrt chronologischer Reihenfolge in dem ersten Bereich umgekehrt, wenn der erste Bereich vollständig auf die Anzeige hinauf bewegt wird, bis das erste stellvertretende Bild angezeigt wird. In einigen Ausführungsformen wird das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für die dritte Folge von Bildern, die von der Kamera nach dem Erfassen des dritten stellvertretenden Bildes erfasst wurden, in umgekehrt chronologischer Reihenfolge in dem dritten Bereich umgekehrt, wenn der dritte Bereich vollständig von der Anzeige herunter bewegt wird.
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 11A11E beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 11A11E beschriebene Verfahren 1100 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 1100 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 11000, 1200, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 11A11I veranschaulichen einen Ablaufplan eines Verfahrens 11000 zum Navigieren durch Folgen von verwandten Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 11000 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 11000 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Die Vorrichtung speichert (11002) mehrere Folgen von Bildern. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die jeweilige Folge von Bildern aufgenommen hat, Teil der elektronischen Vorrichtung. In einigen Ausführungsformen beinhaltet (11004) eine jeweilige Folge von Bildern ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden.
  • In einigen Ausführungsformen wurde die jeweilige Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der elektronischen Vorrichtung ist (z. B. wurde die jeweilige Folge von Bildern an die elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die jeweilige Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 9A9G (Verfahren 900) und/oder die 26A26D (Verfahren 2600) beschrieben ist. In einigen Ausführungsformen entspricht das jeweilige stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 9A9G (Verfahren 900) und/oder die 26A26D (Verfahren 2600) beschrieben ist. In einigen Ausführungsformen weist das jeweilige stellvertretende Bild eine höhere Auflösung als andere Bilder in der jeweiligen Folge von Bildern auf. In einigen Ausführungsformen weist das jeweilige stellvertretende Bild eine gleiche Auflösung wie andere Bilder in der jeweiligen Folge von Bildern auf.
  • Die Vorrichtung zeigt (11006) ein erstes stellvertretendes Bild für eine erste Folge von Bildern in einem beweglichen ersten Bereich auf der Anzeige an (z. B. während sich die Vorrichtung in einem Bildpräsentationsmodus befindet). In einigen Ausführungsformen handelt es sich bei dem beweglichen ersten Bereich um einen Bereich, der Bilder in der ersten Folge von Bildern anzeigt, ohne Bilder aus anderen Folgen von Bildern als der ersten Folge von Bildern anzuzeigen (z. B. das stellvertretende Bild 702-3, 7Q).
  • In einigen Ausführungsformen handelt es sich (11008) bei der ersten Folge von Bildern um eine Nachrichtenkonversation, die in einem scrollbaren Bereich einer Messaging-Anwendung angezeigt wird, und die erste Folge von Bildern wird angezeigt, wenn der scrollbare Bereich der Messaging-Anwendung gescrollt wird (wie z. B. unter Bezugnahme auf die Operation 1106, Verfahren 1100 beschrieben ist).
  • Die Vorrichtung erkennt (11010) eine Geste auf der berührungsempfindlichen Oberfläche, wobei die Geste eine Bewegung durch einen Kontakt beinhaltet, die der Bewegung in einer ersten Richtung auf der Anzeige entspricht (z. B. die Flick/Wischen-Geste 740, 7Q7S und/oder die Ziehgeste 764, 7Y7AA).
  • Als Reaktion auf das Erkennen der Geste auf der berührungsempfindlichen Oberfläche bewegt (11012) die Vorrichtung (z. B. mit dem ersten stellvertretenden Bild) den ersten Bereich in die erste Richtung auf der Anzeige; bewegt einen beweglichen zweiten Bereich in die erste Richtung auf der Anzeige; und zeigt infolge eines Feststellens, dass Folge-Anzeigen-Kriterien erfüllt werden, während der zweite Bereich in die erste Richtung bewegt wird, zumindest einige von einem oder mehreren Bilder für eine zweite Folge von Bildern, die von der Kamera vor dem Erfassen eines zweiten stellvertretenden Bildes für die zweite Folge von Bildern erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich an (z. B. Anzeigen der Folge von Bildern 724, 7R7T). In einigen Ausführungsformen entspricht die Bewegung des ersten Bereichs in die erste Richtung auf der Anzeige der Bewegung des Kontakts in der Geste in die erste Richtung auf der berührungsempfindlichen Oberfläche (z. B. scheint die Bewegung des Kontakts die Bewegung des ersten Bereichs direkt zu manipulieren). In einigen Ausführungsformen handelt es sich bei dem beweglichen zweiten Bereich um einen Bereich, der Bilder in einer zweiten Folge von Bildern anzeigt, ohne Bilder aus anderen Folgen von Bildern als der zweiten Folge von Bildern anzuzeigen. In einigen Ausführungsformen befindet sich der bewegliche zweite Bereich neben dem beweglichen ersten Bereich (z. B. rechts des beweglichen ersten Bereichs).
  • In einigen Ausführungsformen geschieht als Reaktion auf das Erkennen der Geste auf der berührungsempfindlichen Oberfläche Folgendes: Infolge eines Feststellens, dass die Folge-Anzeigen-Kriterien nicht erfüllt werden, während der zweite Bereich in die erste Richtung bewegt wird, zeigt (11014) die Vorrichtung das zweite stellvertretende Bild für die zweite Folge von Bildern in dem beweglichen zweiten Bereich auf der Anzeige an (ohne andere Bilder in der zweiten Folge von Bildern in dem beweglichen zweiten Bereich anzuzeigen). In einigen Ausführungsformen zeigt die Vorrichtung infolge eines Feststellens, dass die Folge-Anzeigen-Kriterien nicht erfüllt werden, während der zweite Bereich in die erste Richtung bewegt wird, ein Anfangsbild (anstelle des zweiten stellvertretenden Bildes) für die zweite Folge von Bildern in dem beweglichen zweiten Bereich auf der Anzeige an, oder ein anderes Bild, das vor dem zweiten stellvertretenden Bild für die zweite Folge von Bildern erfasst wurde.
  • In einigen Ausführungsformen beinhalten (11016) die Folge-Anzeigen-Kriterien ein Kriterium, dass der Kontakt vor dem Anzeigen von zumindest einigen von einem oder mehreren Bildern für die zweite Folge von Bildern, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich abhebt. In einigen Ausführungsformen wird, wenn der Kontakt weiterhin erkannt wird, während sich der zweite Bereich in die erste Richtung bewegt, lediglich das stellvertretende Bild (oder lediglich das Anfangsbild) für die zweite Folge von Bildern angezeigt, während sich der zweite Bereich in die erste Richtung bewegt. Zum Beispiel ist der Kontakt Teil einer Ziehgeste nach links (oder nach rechts), die sich langsam über die berührungsempfindliche Oberfläche bewegt und den zweiten Bereich langsam nach links (oder nach rechts) zieht. Umgekehrt wird, wenn der Kontakt nicht mehr erkannt wird, während der zweite Bereich in die erste Richtung bewegt wird, in dem zweiten Bereich eine animierte Folge von Bildern angezeigt, die vor dem zweiten stellvertretenden Bild aufgenommen wurden, während sich der zweite Bereich weiterhin in die erste Richtung bewegt. Zum Beispiel ist der Kontakt Teil einer Flick-Geste nach links (oder nach rechts), die sich schnell über die berührungsempfindliche Oberfläche bewegt und dann abhebt, während sich der zweite Bereich noch immer nach links (oder nach rechts) bewegt. Zum Beispiel ist der Kontakt Teil einer Ziehgeste nach links (oder nach rechts), die sich über die berührungsempfindlichen Oberfläche bewegt (während lediglich das zweite stellvertretende Bild oder das Anfangsbild für die zweite Folge von Bildern in dem zweiten Bereich angezeigt wird) und dann abhebt, nachdem sich mindestens ein vorher festgelegter Anteil (z. B. 25%, 30%, 40% oder 50%) des zweiten Bereichs auf die Anzeige hinauf bewegt hat. Nach dem Abheben bewegt sich der restliche zweite Bereich auf die Anzeige hinauf, und es werden zumindest einige der Bilder für die zweite Folge von Bildern, die von der Kamera vor dem Erfassen des zweiten stellvertretenden Bildes erfasst wurden, in dem zweiten Bereich angezeigt.
  • In einigen Ausführungsformen beinhaltet (11018) das Bewegen des beweglichen zweiten Bereichs in die erste Richtung auf der Anzeige das Anzeigen eines jeweiligen vorhergehenden Bildes, das vor dem Erfassen des zweiten stellvertretenden Bildes erfasst wurde, in dem zweiten Bereich (z. B. zeigt die Vorrichtung anfangs das Anfangsbild in der Folge von Bildern anstatt des stellvertretenden Bildes an).
  • In einigen Ausführungsformen beinhalten (11020) die Folge-Anzeigen-Kriterien das Erkennen eines Abhebens des Kontakts (wie z. B. unter Bezugnahme auf die 7Y7AA beschrieben ist). Als Reaktion auf das Erkennen eines Abhebens des Kontakts fährt die Vorrichtung damit fort, den beweglichen zweiten Bereich in die erste Richtung zu bewegen, und fährt damit fort, den beweglichen ersten Bereich in die erste Richtung zu bewegen. Die Bilder aus der zweiten Folge von Bildern werden mit einer derartigen Geschwindigkeit angezeigt, dass das zweite stellvertretende Bild in dem beweglichen zweiten Bereich angezeigt wird, wenn der bewegliche zweite Bereich mit dem Bewegen in die erste Richtung aufhört (z. B. wird die Bewegungsgeschwindigkeit des beweglichen zweiten Bereichs so ausgewählt, dass sie mit der Durchlaufgeschwindigkeit der Folge von Bildern übereinstimmt, oder die Durchlaufgeschwindigkeit der Folge von Bildern wird so ausgewählt, dass sie mit der Bewegungsgeschwindigkeit des beweglichen zweiten Bereichs übereinstimmt, oder irgendeine Kombination aus diesen beiden). In einigen Ausführungsformen schaltet die Vorrichtung durch eine Folge von Bildern, die dem beweglichen ersten Bereich entspricht, während sich der erste Bereich bewegt. In einigen Ausführungsformen schaltet die Vorrichtung nicht durch eine Folge von Bildern, die dem beweglichen ersten Bereich entspricht, während sich der erste Bereich bewegt.
  • In einigen Ausführungsformen zeigt (11022) die Vorrichtung während des Bewegens des beweglichen ersten Bereichs einen simulierten Parallaxen-Effekt für ein Bild innerhalb des beweglichen ersten Bereichs so an, dass das Bild innerhalb des beweglichen ersten Bereichs in Bezug auf ein Einzelbild des beweglichen ersten Bereichs verschoben wird (z. B. als ob das Einzelbild des beweglichen ersten Bereichs in einer simulierten Z-Richtung von dem Bild innerhalb des beweglichen ersten Bereichs getrennt wäre).
  • In einigen Ausführungsformen zeigt (11024) die Vorrichtung während des Bewegens des beweglichen zweiten Bereichs, während der Kontakt auf der berührungsempfindlichen Oberfläche erkannt wird (z. B. vor dem Anzeigen der Bilder aus der zweiten Folge von Bildern) einen simulierten Parallaxen-Effekt für ein Bild innerhalb des beweglichen zweiten Bereichs so an, dass das Bild innerhalb des beweglichen zweiten Bereichs in Bezug auf ein Einzelbild des beweglichen zweiten Bereichs verschoben wird (z. B. als ob das Einzelbild des beweglichen zweiten Bereichs in einer simulierten Z-Richtung von dem Bild innerhalb des beweglichen zweiten Bereichs getrennt wäre).
  • In einigen Ausführungsformen beinhaltet (11026) das Bewegen des ersten Bereichs in die erste Richtung das Bewegen von zumindest einem Teil des ersten Bereichs in die erste Richtung herunter von der Anzeige (z. B. Verschieben des ersten Bereichs von der Anzeige herunter, 7A7CC).
  • In einigen Ausführungsformen beinhaltet (11028) das Bewegen des zweiten Bereichs in die erste Richtung das Bewegen von zumindest einem Teil des zweiten Bereichs in die erste Richtung auf die Anzeige hinauf (z. B. Verschieben des zweiten Bereichs auf die Anzeige hinauf in Verbindung mit dem Verschieben des ersten Bereichs von der Anzeige herunter, 7A7CC).
  • In einigen Ausführungsformen zeigt (11030) die Vorrichtung nach dem Bewegen des zweiten Bereichs in die erste Richtung das zweite stellvertretende Bild für die zweite Folge von Bildern in dem zweiten Bereich an, (wie z. B. unter anderem in 7CC gezeigt ist).
  • In einigen Ausführungsformen erkennt (11032) die Vorrichtung während des Anzeigens des zweiten stellvertretenden Bildes für die zweite Folge von Bildern in dem zweiten Bereich eine Änderung der Intensität einer Eingabe, die dem zweiten stellvertretenden Bild entspricht. Als Reaktion auf das Erkennen der Änderung der Intensität der Eingabe schaltet die Vorrichtung durch die zweite Folge von Bildern in dem zweiten Bereich weiter, ohne den zweiten Bereich auf der Anzeige zu bewegen (z. B. führt die Vorrichtung eine beliebige der in den 6A6FF gezeigte Operationen durch).
  • In einigen Ausführungsformen erkennt (11034) die Vorrichtung das Beenden der Ziehgeste, während sie den ersten Bereich und den zweiten Bereich bewegt. Als Reaktion auf das Erkennen des Beendens der Ziehgeste während des Bewegens des ersten Bereichs und des zweiten Bereichs geschieht Folgendes: Infolge eines Feststellens, dass die Ziehgeste Kriterien für das Navigieren zur nächsten Folge erfüllt, bewegt die Vorrichtung ersten zweiten Bereich in die erste Richtung von der Anzeige herunter; bewegt den zweiten Bereich vollständig auf die Anzeige hinauf; und zeigt das zweite stellvertretende Bild für die zweite Folge von Bildern in dem zweiten Bereich an (wie z. B. unter Bezugnahme auf die Operation 1136, Verfahren 1100, beschrieben ist).
  • In einigen Ausführungsformen geschieht als Reaktion auf das Erkennen des Beendens der Ziehgeste während des Bewegens des ersten Bereichs und des zweiten Bereichs Folgendes: Infolge eines Feststellens, dass die Ziehgeste die Kriterien für das Navigieren zur nächsten Folge nicht erfüllt, bewegt (11036) die Vorrichtung den zweiten Bereich in eine zweite Richtung, die entgegengesetzt zur ersten Richtung ist, vollständig von der Anzeige herunter; bewegt den ersten Bereich vollständig auf die Anzeige hinauf; und zeigt das erste stellvertretende Bild für die erste Folge von Bildern in dem ersten Bereich an (wie z. B. unter Bezugnahme auf die Operation 1138, Verfahren 1100, beschrieben ist).
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 11F11I beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 1200, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 11F11I beschriebene Verfahren 11000 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 11000 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 1200, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 12A12B veranschaulichen einen Ablaufplan eines Verfahrens 1200 zum Durchführen von unterschiedlichen Operationen für Folgen von verwandten Bildern im Gegensatz zu Einzelbildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 1200 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 1200 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Die Vorrichtung speichert (1202) mehrere Folgen von Bildern. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die jeweilige Folge von Bildern aufgenommen hat, Teil der elektronischen Vorrichtung. In einigen Ausführungsformen wurde die jeweilige Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der elektronischen Vorrichtung ist (z. B. wurde die jeweilige Folge von Bildern an die elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die jeweilige Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen wurde die jeweilige Folge von Bildern in einem Serienbildmodus erhalten. In einigen Ausführungsformen entspricht das jeweilige stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen weist das jeweilige stellvertretende Bild eine höhere Auflösung als andere Bilder in der jeweiligen Folge von Bildern auf. In einigen Ausführungsformen weist das jeweilige stellvertretende Bild eine gleiche Auflösung wie andere Bilder in der jeweiligen Folge von Bildern auf.
  • Die Vorrichtung speichert (1204) mehrere Bilder, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden. Ein jeweiliges Bild von den mehreren Bildern ist nicht Teil einer Folge von Bildern in den mehreren Folgen von Bildern.
  • Die Vorrichtung zeigt (1206) ein erstes Bild auf der Anzeige an (wie z. B. in 8A gezeigt ist). Während des Anzeigens des ersten Bildes auf der Anzeige erkennt (1208) die Vorrichtung eine erste Eingabe (z. B. die Drücken-und-Halten-Eingabe 816, 8B). Als Reaktion auf (1210) das Erkennen der ersten Eingabe: Infolge eines Feststellens, dass das erste Bild ein Bild in einer ersten Folge von Bildern ist (z. B. ist das erste Bild ein stellvertretendes Bild für eine erste Folge von Bildern), führt (1212) die Vorrichtung eine erste Operation durch, die das Anzeigen von zumindest einigen der Bilder in der ersten Folge von Bildern neben dem ersten Bild beinhaltet (z. B. das aufeinander folgende Anzeigen der zumindest einigen der Bilder in der ersten Folge von Bildern neben dem ersten Bild) (wie z. B. in den 8C8F gezeigt ist). Infolge eines Feststellens, dass das erste Bild ein Bild von den mehreren Bildern ist, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden, führt (1214) die Vorrichtung eine zweite Operation durch, die sich von der ersten Operation unterscheidet und das erste Bild einbezieht (wie z. B. in den 8K8L gezeigt ist). Das heißt, in einigen Ausführungsformen reagiert die Vorrichtung unterschiedlich auf denselben Typ von Eingabe (z. B. eine Eingabe, die eine oder mehrere gemeinsame Pfad- oder Intensitätseigenschaften teilt), je nachdem, ob das Bild Teil eines erweiterten Fotos oder ein Standbild ist. In Übereinstimmung mit verschiedenen Ausführungsformen handelt es sich bei der ersten Operation um eine beliebige der Operationen, die hierin in Bezug auf die Folge von Bildern beschrieben sind. Konkrete Beispiele werden nachfolgend bereitgestellt.
  • In einigen Ausführungsformen handelt es sich (1216) bei der ersten Eingabe um eine Drücken-und-Halten-Geste, die erste Operation zeigt zumindest einen Teil der ersten Folge von Bildern an (wie z. B. hierin in Bezug auf die 10A10M und die Verfahren 1000/10000/10050 beschrieben ist), und die zweite Operation zeigt mit dem ersten Bild Informationen über das erste Bild an (z. B. werden Zeit, Datum, Standort (z. B. über GPS) und/oder andere Metadaten über das erste Bild auf einem Teil des ersten Bilds eingeblendet, wie in den 8K8L gezeigt ist). In einigen Ausführungsformen handelt es sich bei der Drücken-und-Halten-Geste um eine Drücken-und-Halten-Fingergeste auf dem ersten Bild auf einer berührungsempfindlichen Anzeige oder eine Drücken-und-Halten-Fingergeste auf einem Trackpad, während sich ein Cursor oder ein anderer Fokusselektor über dem ersten Bild auf einer Anzeige befindet). In einigen Ausführungsformen handelt es sich bei der ersten Eingabe um eine Klicken-und-Halten-Eingabe mit einer Maus, während sich ein Cursor oder ein anderer Fokusselektor über dem ersten Bild auf einer Anzeige befindet.
  • In einigen Ausführungsformen handelt es sich (1218) bei der ersten Eingabe um eine Drücken-und-Halten-Geste, die erste Operation zeigt zumindest einen Teil der ersten Folge von Bildern an (wie z. B. hierin in Bezug auf die 10A10M und die Verfahren 1000/10000/10050 beschrieben ist), und die zweite Operation zeigt eine Animation an, die verschiedene Teile des ersten Bildes zeigt. In einigen Ausführungsformen handelt es sich bei der Drücken-und-Halten-Geste um eine Drücken-und-Halten-Fingergeste auf dem ersten Bild auf einer berührungsempfindlichen Anzeige oder eine Drücken-und-Halten-Fingergeste auf einem Trackpad, während sich ein Cursor oder ein anderer Fokusselektor über dem ersten Bild auf einer Anzeige befindet. In einigen Ausführungsformen handelt es sich bei der ersten Eingabe um eine Klicken-und-Halten-Eingabe mit einer Maus, während sich ein Cursor oder ein anderer Fokusselektor über dem ersten Bild auf einer Anzeige befindet). Zum Beispiel handelt es sich bei der zweiten Operation um eine Animation, die in dem ersten Bild herumzoomt und/oder herumschwenkt (wie zum Beispiel ein Ken-Burns-Effekt), und/oder um eine Animation, die auf das erste Bild einen Filter anwendet. In einigen Ausführungsformen beinhaltet die zweite Operation das Herauszoomen aus dem Bild, um den Eindruck zu erwecken, dass das erste Bild zurück in die Anzeige gedrückt wird.
  • In einigen Ausführungsformen beinhaltet (1220) die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche, und die erste Eingabe beinhaltet einen Fingerkontakt, der erste Kontaktintensitätskriterien erfüllt (z. B. eine Fingergeste auf dem ersten Bild auf einer berührungsempfindlichen Anzeige oder eine Fingergeste auf einem Trackpad, während sich ein Cursor oder ein anderer Fokusselektor über dem ersten Bild auf einer Anzeige befindet, wobei ein Kontakt in der Fingergeste für zumindest einen Teil der Eingabe eine Leicht-Drücken-(oder Fest-Drücken-)Intensitätsschwelle übersteigt), die erste Operation zeigt zumindest einen Teil der ersten Folge von Bildern an (wie z. B. hierin in Bezug auf die 10A10M und die Verfahren 1000/10000/10050 beschrieben ist), und die zweite Operation zeigt mit dem ersten Bild Informationen über das erste Bild an (z. B. werden Zeit, Datum, Standort (z. B. über GPS) und/oder andere Metadaten über das erste Bild auf einem Teil des ersten Bilds eingeblendet).
  • In einigen Ausführungsformen beinhaltet (1222) die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche, und die erste Eingabe beinhaltet einen Fingerkontakt, der erste Kontaktintensitätskriterien erfüllt (z. B. eine Fingergeste auf dem ersten Bild auf einer berührungsempfindlichen Anzeige oder eine Fingergeste auf einem Trackpad, während sich ein Cursor oder ein anderer Fokusselektor über dem ersten Bild auf einer Anzeige befindet, wobei ein Kontakt in der Fingergeste für zumindest einen Teil der Eingabe eine Fest-Drücken-Intensitätsschwelle übersteigt), die erste Operation zeigt zumindest einen Teil der ersten Folge von Bildern an (wie z. B. hierin in Bezug auf die 10A10M und die Verfahren 1000/10000/10050 beschrieben ist), und die zweite Operation zeigt eine Animation an, die verschiedene Teile des ersten Bildes zeigt. Zum Beispiel handelt es sich bei der zweiten Operation um eine Animation, die in dem ersten Bild herumzoomt und/oder herumschwenkt (wie zum Beispiel ein Ken-Burns-Effekt), und/oder um eine Animation, die auf das erste Bild einen Filter anwendet. In einigen Ausführungsformen beinhaltet die zweite Operation das Herauszoomen aus dem Bild, um den Eindruck zu erwecken, dass das erste Bild zurück in die Anzeige gedrückt wird.
  • In einigen Ausführungsformen handelt es sich (1224) bei der ersten Eingabe um eine Ziehgeste, die erste Operation zeigt zumindest einige der Bilder in der ersten Folge von Bildern an, während sie vom Anzeigen des ersten Bildes auf das Anzeigen eines zweiten Bildes übergeht (wobei das zweite Bild kein Bild in der ersten Folge von Bildern ist) (wie z. B. hierin in Bezug auf die 10A10M und die Verfahren 1000/10000/10050 beschrieben ist), und die zweite Operation geht vom Anzeigen des ersten Bildes auf das Anzeigen eines dritten Bildes über (wobei das dritte Bild kein Bild in der ersten Folge von Bildern ist).
  • In einigen Ausführungsformen beinhaltet das Verfahren darüber hinaus, wenn das erste Bild ein Bild in einer ersten Folge von Bildern ist, das Erkennen einer Navigationseingabe und das Navigieren zu einem zweiten Bild, das ein Bild von den mehreren Bildern ist, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden. Das Verfahren beinhaltet darüber hinaus das Erkennen einer zweiten Eingabe, die eine oder mehrere Eigenschaften mit der ersten Eingabe teilt (z. B. Intensität und/oder Pfadeingaben). In einigen Ausführungsformen müssen die erste Eingabe und die zweite Eingabe keine Position teilen. Das Verfahren beinhaltet darüber hinaus als Reaktion auf das Erkennen der zweiten Eingabe das Durchführen der zweiten Operation, die das zweite Bild einbezieht.
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 12A12B beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 2400, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 12A12B beschriebene Verfahren 1200 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 1200 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 2400, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 13 ein Funktionsblockschaubild einer elektronischen Vorrichtung 1300, die in Übereinstimmung mit den Grundgedanken der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung sind optional durch Hardware, Software oder eine Kombination aus Hardware und Software zum Ausführen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen umgesetzt. Fachleute werden verstehen, dass die in der 13 beschriebenen Funktionsblöcke zum Umsetzen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen optional kombiniert oder in Teilblöcke geteilt werden. Deshalb unterstützt die Beschreibung hierin optional jede beliebige mögliche Kombination oder Teilung oder weitere Definition der hierin beschriebenen Funktionsblöcke.
  • Wie in 13 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1300 eine Kameraeinheit 1304, die so konfiguriert ist, dass sie Bilder erfasst eine Anzeigeeinheit 1302, die so konfiguriert ist, dass sie eine Live-Vorschau (z. B. von von der Kameraeinheit erhaltenen Bildern) anzeigt, eine oder mehrere optionale Sensoreinheiten 1306, die so konfiguriert sind, dass sie eine Aktivierung eines Auslöseknopfes erkennen; und eine Verarbeitungseinheit 1308, die mit der Anzeigeeinheit 1302, der Kameraeinheit 1304 und der einen oder den mehreren optionalen Sensoreinheiten 1306 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1308 eine Anzeigeermöglichungseinheit 1310, eine Gruppierungseinheit 1312, eine Zuordnungseinheit 1314 und eine Animiereinheit 1316.
  • Die Verarbeitungseinheit 1308 ist so konfiguriert, dass sie: während sich die Kameraeinheit 1304 in einem ersten Medienerfassungsmodus befindet, (z. B. unter Verwendung der Anzeigeermöglichungseinheit 1310) die Live-Vorschau (z. B. von von der Kameraeinheit 1304 erhaltenen Bildern) auf der Anzeigeeinheit 1302 anzeigt, und während des Anzeigens der Live-Vorschau die Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erkennt (z. B. unter Verwendung der Sensoreinheiten 1306). Als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt ist die Verarbeitungseinheit 1308 zu konfiguriert, dass sie (z. B. mit der Gruppierungseinheit 1312) mehrere von der Kameraeinheit 1304 in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasste Bilder in eine erste Folge von Bildern gruppiert. Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kameraeinheit 1304 vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kameraeinheit 1304 nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kameraeinheit 1304 nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • Wie in 14 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1400 eine Anzeigeeinheit 1402, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit 1404, die so konfiguriert ist, dass sie Benutzereingaben erkennt, eine oder mehrere optionale Sensoreinheiten 1406, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 1404 erkennen, und eine Verarbeitungseinheit 1408, die mit der Anzeigeeinheit 1402, der berührungsempfindlichen Oberflächeneinheit 1404 und der einen oder den mehreren optionalen Sensoreinheiten 1406 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1408 eine Anzeigeermöglichungseinheit 1410, eine Erkennungseinheit 1412 und eine Audiopräsentationseinheit 1414.
  • Die Verarbeitungseinheit 1408 ist so konfiguriert, dass sie ein stellvertretendes Bild auf der Anzeigeeinheit 1402 anzeigt (z. B. mit der Anzeigeermöglichungseinheit 1410). Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 1408 ist darüber hinaus so konfiguriert, dass sie während des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit 1402 einen ersten Teil einer ersten Eingabe erkennt (z. B. mit der Erkennungseinheit 1412, die optional Eingaben auf der berührungsempfindlichen Oberflächeneinheit 1404 erkennt). Die Verarbeitungseinheit 1408 ist so konfiguriert, dass sie als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe das Anzeigen (z. B. mit der Anzeigeermöglichungseinheit 1410) des stellvertretenden Bildes durch das Anzeigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach auf der Anzeigeeinheit 1402 ersetzt. Die Verarbeitungseinheit 1408 ist so konfiguriert, dass sie nach dem Erkennen des ersten Teils der ersten Eingabe einen zweiten Teil der ersten Eingabe erkennt (z. B. mit der Erkennungseinheit 1412). Die Verarbeitungseinheit 1408 ist so konfiguriert, dass sie als Reaktion auf das Erkennen des zweiten Teils der ersten Eingabe das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild und das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach auf der Anzeigeeinheit 1402 anzeigt.
  • Wie in 15 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1500 eine Anzeigeeinheit 1502, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit 1504, die so konfiguriert ist, dass sie Benutzereingaben erkennt, eine oder mehrere optionale Sensoreinheiten 1506, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 1504 erkennen, eine Speichereinheit 1516, die so konfiguriert ist, dass sie Bilder speichert; und eine Verarbeitungseinheit 1508, die mit der Anzeigeeinheit 1502, der berührungsempfindlichen Oberflächeneinheit 1504, der Speichereinheit 1516 und der einen oder den mehreren optionalen Sensoreinheiten 1506 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1508 eine Anzeigeermöglichungseinheit 1510, eine Erkennungseinheit 1512 und eine Kriterienfeststellungseinheit 1514.
  • Die Verarbeitungseinheit 1508 ist so konfiguriert, dass sie in der Speichereinheit 1516 mehrere Folgen von Bildern speichert. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 1508 ist darüber hinaus so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1510) in einem beweglichen ersten Bereich auf der Anzeigeeinheit 1502 ein erstes stellvertretendes Bild für eine erste Folge von Bildern auf der Anzeigeeinheit 1502 anzeigt. Die Verarbeitungseinheit 1508 ist darüber hinaus so konfiguriert, dass sie (z. B. mit der Erkennungseinheit 1512) eine Ziehgeste auf der berührungsempfindlichen Oberflächeneinheit 1504 erkennt. Infolge eines Feststellens, dass die Ziehgeste in einer ersten Richtung auf der berührungsempfindlichen Oberflächeneinheit 1504 verläuft: Die Verarbeitungseinheit 1508 ist so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1510) das Anzeigen des ersten stellvertretenden Bildes für die erste Folge von Bildern in dem beweglichen ersten Bereich auf der Anzeigeeinheit 1502 durch das Anzeigen von zumindest einigen von einem oder mehreren Bildern für die erste Folge von Bildern, die von der Kamera nach dem Erfassen des ersten stellvertretenden Bildes für die erste Folge von Bildern erfasst wurden, in chronologischer Reihenfolge auf der Anzeigeeinheit ersetzt. Die Verarbeitungseinheit 1508 ist darüber hinaus so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1510) den ersten Bereich in die erste Richtung auf der Anzeigeeinheit 1502 bewegt.
  • Wie in 16 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1600 eine Anzeigeeinheit 1602, die so konfiguriert ist, dass sie Bilder anzeigt, eine berührungsempfindliche Oberflächeneinheit 1604, die so konfiguriert ist, dass sie Benutzereingaben erkennt, eine oder mehrere optionale Sensoreinheiten 1606, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 1604 erkennen, eine Speichereinheit 1616, die so konfiguriert ist, dass sie Bilder speichert; und eine Verarbeitungseinheit 1608, die mit der Anzeigeeinheit 1602, der berührungsempfindlichen Oberflächeneinheit 1604, der Speichereinheit 1616 und der einen oder den mehreren optionalen Sensoreinheiten 1606 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1608 eine Anzeigeermöglichungseinheit 1610, eine Erkennungseinheit 1612 und eine Feststellungseinheit 1614.
  • Die Verarbeitungseinheit 1608 ist so konfiguriert, dass sie in der Speichereinheit 1616 mehrere Folgen von Bildern speichert. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 1608 ist darüber hinaus so konfiguriert, dass sie in der Speichereinheit 1616 mehrere Bilder speichert, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden. Ein jeweiliges Bild von den mehreren Bildern ist nicht Teil einer Folge von Bildern in den mehreren Folgen von Bildern. Die Verarbeitungseinheit 1608 ist darüber hinaus so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1610) ein erstes Bild auf der Anzeigeeinheit 1602 anzeigt. Die Verarbeitungseinheit 1608 ist darüber hinaus so konfiguriert, dass sie während des Anzeigens des ersten Bildes auf der Anzeigeeinheit 1602 (z. B. mit der Erkennungseinheit 1612) eine erste Eingabe erkennt. Die Verarbeitungseinheit 1608 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der ersten Eingabe: infolge eines Feststellens (z. B. mit der Feststellungseinheit 1614), dass das erste Bild ein Bild in einer ersten Folge von Bildern ist, eine erste Operation durchführt, die das Anzeigen (z. B. mit der Anzeigeermöglichungseinheit 1610) von zumindest einigen der Bilder in der ersten Folge von Bildern neben dem ersten Bild auf der Anzeigeeinheit 1602 beinhaltet; und infolge eines Feststellens (z. B. mit der Feststellungseinheit 1614), dass das erste Bild ein Bild von den mehreren Bildern ist, die sich von den Bildern in den mehreren Folgen von Bildern unterscheiden, eine zweite Operation durchführt, die sich von der ersten Operation unterscheidet und das erste Bild einbezieht.
  • Wie in 17 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1700 eine Anzeigeeinheit 1702, die so konfiguriert ist, dass sie Bilder anzeigt; eine berührungsempfindliche Oberflächeneinheit 1704, die so konfiguriert ist, dass sie Benutzereingaben erkennt; eine oder mehrere optionale Sensoreinheiten 1706, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 1704 erkennen; und eine Verarbeitungseinheit 1708, die mit der Anzeigeeinheit 1702, der berührungsempfindlichen Oberflächeneinheit 1704 und der einen oder den mehreren optionalen Sensoreinheiten 1706 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1708 eine Anzeigeermöglichungseinheit 1710, eine Erkennungseinheit 1712, Eine Übergangseinheit 1714 und eine Präsentationseinheit 1716.
  • Die Verarbeitungseinheit 1708 ist so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1710) das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit 1702 ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 1708 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit 1702 (z. B. mit der Erkennungseinheit 1712) einen ersten Teil einer ersten Eingabe erkennt. Die Verarbeitungseinheit 1708 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe (z. B. mit der Übergangseinheit 1714) vom Anzeigen des stellvertretenden Bildes zum Anzeigen eines jeweiligen vorhergehenden Bildes in der Folge von Bildern übergeht. Das jeweilige vorherige Bild wurde von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst. Die Verarbeitungseinheit 1708 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des ersten Teils der ersten Eingabe nach dem Übergehen vom Anzeigen des stellvertretenden Bildes zum Anzeigen des jeweiligen vorhergehenden Bildes (z. B. mit der Anzeigeermöglichungseinheit 1710) das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach, beginnend mit dem jeweiligen vorhergehenden Bild, ermöglicht.
  • Wie in 18 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1800 eine Anzeigeeinheit 1802, die so konfiguriert ist, dass sie Bilder anzeigt; eine berührungsempfindliche Oberflächeneinheit 1804, die so konfiguriert ist, dass sie Benutzereingaben erkennt; eine oder mehrere Sensoreinheiten 1806, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 1804 erkennen; und eine Verarbeitungseinheit 1808, die mit der Anzeigeeinheit 1802, der berührungsempfindlichen Oberflächeneinheit 1804 und der einen oder den mehreren Sensoreinheiten 1806 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1808 eine Anzeigeermöglichungseinheit 1810, eine Erkennungseinheit 1812 und eine Bewegungseinheit 1814.
  • Die Verarbeitungseinheit 1808 ist so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1810) das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit 1802 ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 1808 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit 1802 (z. B. mit der Erkennungseinheit 1812) eine erste Eingabe erkennt, was das Erkennen (z. B. mit den Sensoreinheiten 1804) einer Erhöhung einer charakteristischen Intensität eines Kontakts auf der berührungsempfindlichen Oberflächeneinheit 1804 auf eine erste Intensität beinhaltet, die größer ist als eine erste Intensitätsschwelle. Die Verarbeitungseinheit 1808 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des Erhöhens der charakteristischen Intensität des Kontakts (z. B. mit der Bewegungseinheit 1814) durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in einer ersten Richtung mit einer Geschwindigkeit weiterschaltet, die zumindest teilweise auf Grundlage der ersten Intensität bestimmt wird. Die Verarbeitungseinheit 1808 ist darüber hinaus so konfiguriert, dass sie nach dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, mit der Geschwindigkeit, die auf Grundlage der ersten Intensität bestimmt wird, (z. B. mit der Erkennungseinheit 1812) ein Verringern der Intensität des Kontakts auf eine zweite Intensität erkennt, die geringer ist als die erste Intensität. Die Verarbeitungseinheit 1808 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des Verringerns der charakteristischen Intensität des Kontakts auf die zweite Intensität: infolge eines Feststellens, dass die zweite Intensität über der ersten Intensitätsschwelle liegt, (z. B. mit der Bewegungseinheit 1814) mit dem Weiterschalten durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in der ersten Richtung mit einer zweiten Geschwindigkeit fortfährt. Die zweite Geschwindigkeit wird zumindest teilweise auf Grundlage der zweiten Intensität bestimmt, und die zweite Geschwindigkeit ist langsamer als die erste Geschwindigkeit. Die Verarbeitungseinheit 1808 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen des Verringerns der charakteristischen Intensität des Kontakts auf die zweite Intensität infolge eines Feststellens, dass die zweite Intensität unter der ersten Intensitätsschwelle liegt, (z. B. mit der Bewegungseinheit 1814) durch das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, in einer zweiten Richtung läuft, die entgegengesetzt zur ersten Richtung ist, mit einer Geschwindigkeit, die zumindest teilweise auf Grundlage der zweiten Intensität bestimmt wird.
  • Wie in 19 gezeigt ist, beinhaltet eine elektronische Vorrichtung 1900 eine Anzeigeeinheit 1902, die so konfiguriert ist, dass sie Bilder anzeigt; eine berührungsempfindliche Oberflächeneinheit 1904, die so konfiguriert ist, dass sie Benutzereingaben erkennt; eine oder mehrere optionale Sensoreinheiten 1906, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 1904 erkennen; und eine Verarbeitungseinheit 1908, die mit der Anzeigeeinheit 1902, der berührungsempfindlichen Oberflächeneinheit 1904 und der einen oder den mehreren optionalen Sensoreinheiten 1906 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1908 eine Anzeigeermöglichungseinheit 1910, eine Erkennungseinheit 1912, eine Speichereinheit 1914, eine Bewegungseinheit 1916 und eine Weiterschaltungseinheit 1918.
  • Die Verarbeitungseinheit 1908 ist so konfiguriert, dass sie (z. B. mit der Speichereinheit 1914) mehrere Folgen von Bildern speichert. Eine jeweilige Folge von Bildern beinhaltet: ein jeweiliges stellvertretendes Bild, das von einer Kamera aufgenommen wurde, und ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des jeweiligen stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 1908 ist darüber hinaus so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 1910) das Anzeigen eines ersten stellvertretenden Bildes für eine erste Folge von Bildern in einem beweglichen ersten Bereich auf der Anzeigeeinheit 1902 ermöglicht. Die Verarbeitungseinheit 1908 ist darüber hinaus so konfiguriert, dass sie (z. B. mit der Erkennungseinheit 1912) eine Geste auf der berührungsempfindlichen Oberflächeneinheit 1904 erkennt, wobei die Geste eine Bewegung durch einen Kontakt beinhaltet, die der Bewegung in einer ersten Richtung auf der Anzeigeeinheit 1902 entspricht. Die Verarbeitungseinheit 1908 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der Geste auf der berührungsempfindlichen Oberfläche 1904: den ersten Bereich (z. B. mit der Bewegungseinheit 1916) in die erste Richtung auf der Anzeigeeinheit 1902 bewegt; (z. B. mit der Bewegungseinheit 1916) einen beweglichen zweiten Bereich in die erste Richtung auf der Anzeigeeinheit 1902 bewegt; und infolge eines Feststellens, dass Folge-Anzeigen-Kriterien erfüllt werden, während der zweite Bereich in die erste Richtung bewegt wird, (z. B. mit der Anzeigeermöglichungseinheit 1910) das Anzeigen von zumindest einigen des einen oder der mehreren Bilder für eine zweite Folge von Bildern, die von der Kamera vor dem Erfassen eines zweiten stellvertretenden Bildes für die zweite Folge von Bildern erfasst wurden, in chronologischer Reihenfolge in dem zweiten Bereich ermöglicht.
  • Die 20A20L veranschaulichen beispielhafte Benutzerschnittstellen zum Abändern von Bildern in einer Folge von Bildern in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • 20A veranschaulicht eine Folge von Bildern 2002, die zeigen, wie ein Zug einen Bahnsteig erreicht. Die Folge von Bildern beinhaltet das stellvertretende Bild 2002-3, Bilder 2002-1 und 2002-2, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden; und Bilder 2002-4 und 2002-5, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden. Die chronologische Reihenfolge der Folge der Bilder 2002 lautet: Bild 2002-1; Bild 2002-2; stellvertretendes Bild 2002-3; Bild 2002-4; und Bild 2002-5.
  • 20B veranschaulicht die Vorrichtung 100, die das stellvertretende Bild 2002-3 auf der Anzeige anzeigt, während sich die Vorrichtung 100 in einer Fotobearbeitungs-Benutzerschnittstelle befindet. Die Fotobearbeitungs-Benutzerschnittstelle beinhaltet Aufforderungen 2004 zum Bearbeiten des stellvertretenden Bildes 2002-3 (z. B. eine Beschneiden-Aufforderung 2004-1; eine Filter-Aufforderung 2004-2, eine Beleuchtungsaufforderung 2004-3). In diesem Beispiel wird davon ausgegangen, dass der Benutzer bereits die Beleuchtungsaufforderung 2004-3 ausgewählt und den Kontrast des stellvertretenden Bildes 2002-3 abgeändert hat (der Kontrast des in 20B gezeigten stellvertretenden Bildes 2002-3 wurde im Vergleich zu dem in 20A gezeigten stellvertretenden Bild 2002-3 erhöht).
  • Die Fotobearbeitungs-Benutzerschnittstelle beinhaltet eine Aufforderung 2006 (z. B. eine Umschalttaste) zum Umschalten zwischen einem ersten Bearbeitungsmodus (z. B. einem Auf-alle-Anwenden-Bearbeitungsmodus) und einem zweiten Bearbeitungsmodus (z. B. einem Einzelbild-Bearbeitungsmodus). In 20B ist die Umschalttaste 2006 auf den zweiten Bearbeitungsmodus eingestellt, sodass, wenn die Vorrichtung 100 eine Benutzereingabe 2008 (z. B. eine Eingabe zum Abändern des stellvertretenden Bildes) erkennt, die Vorrichtung 100 das stellvertretende Bild 2002-3 abändert, ohne das eine oder die mehreren Bilder abzuändern, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. die Bilder 2002-4 und 2002-5), und ohne das eine oder die mehreren Bilder abzuändern, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. die Bilder 2002-1 und 2002-2).
  • Im Gegensatz dazu ist die Umschalttaste 2006 in 20I auf den ersten Bearbeitungsmodus eingestellt (z. B. auf den Auf-alle-anwenden-Modus), sodass, wenn die Vorrichtung 100 die Benutzereingabe 2008 erkennt, welche die Abänderungen des Benutzers anwendet, die Vorrichtung 100 das stellvertretende Bild 2002-3, das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. die Bilder 2002-4 und 2002-5), und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. die Bilder 2002-1 und 2002-2), abändert.
  • Zurück zu dem Beispiel, in dem lediglich das stellvertretende Bild 2002-3 abgeändert wird (z. B. aus 20B folgend), veranschaulichen die 20C20H verschiedene Ausführungsformen zum Wiedergeben einer Folge von Bildern, in der lediglich das stellvertretende Bild abgeändert wurde.
  • Insbesondere empfängt, wie in den 20C20D gezeigt ist, die Vorrichtung 100 in einigen Ausführungsformen nach dem Abändern lediglich des stellvertretenden Bildes 2002-3 während des Anzeigens des stellvertretenden Bildes 2002-3 eine Benutzereingabe 2010, bei der es sich um eine Anforderung zum Wiedergeben der Folge von Bildern 2002 handelt. Wie in 20C gezeigt ist, ersetzt die Vorrichtung 100 als Reaktion auf einen ersten Teil der Benutzereingabe 2010 zum Wiedergeben der Folge von Bildern 2002 das Anzeigen des stellvertretenden Bildes 2002-3 durch zumindest einige der nach dem stellvertretenden Bild 2002-3 erfassten Bilder (z. B. Bild 2002-4 und Bild 2002-5). Wie in 20D gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf einen zweiten Teil der Benutzereingabe 2010 zum Wiedergeben der Folge von Bildern 2002 zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-1 und Bild 2002-2), das abgeänderte stellvertretende Bild 2002-3 und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-4 und Bild 2002-5), der Reihe nach an. Das heißt, in einigen Ausführungsformen ist das stellvertretende Bild 2002-3 in seiner abgeänderten Form in der Wiedergabe beinhaltet.
  • Die 20E20F veranschaulichen ein anderes Beispiel, in dem die Vorrichtung 100 nach dem Abändern lediglich des stellvertretenden Bildes 2002-3 während des Anzeigens des abgeänderten stellvertretenden Bildes 2002-3 eine Benutzereingabe 2012 empfängt, bei der es sich um eine Anforderung zum Wiedergeben der Folge von Bildern 2002 handelt. Wie in 20E gezeigt ist, ersetzt die Vorrichtung 100 als Reaktion auf einen ersten Teil der Benutzereingabe 2012 zum Wiedergeben der Folge von Bildern 2002 das Anzeigen des stellvertretenden Bildes 2002-3 durch zumindest einige der nach dem stellvertretenden Bild 2002-3 erfassten Bilder (z. B. Bild 2002-4 und Bild 2002-5). Wie in 20F gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf einen zweiten Teil der Benutzereingabe 2012 zum Wiedergeben der Folge von Bildern 2002 zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-1 und Bild 2002-2), das stellvertretende Bild 2002-3 ohne Abänderung und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-4 und Bild 2002-5), der Reihe nach an. Das heißt, in einigen Ausführungsformen wird zum Zwecke der Wiedergabe auf die unveränderte Form des stellvertretenden Bildes 2002-3 zugegriffen.
  • Die 20G20H veranschaulichen ein anderes Beispiel, in dem die Vorrichtung 100 nach dem Abändern lediglich des stellvertretenden Bildes 2002-3 während des Anzeigens des abgeänderten stellvertretenden Bildes 2002-3 eine Benutzereingabe 2014 empfängt, bei der es sich um eine Anforderung zum Wiedergeben der Folge von Bildern 2002 handelt. Wie in 20G gezeigt ist, ersetzt die Vorrichtung 100 als Reaktion auf einen ersten Teil der Benutzereingabe 2014 zum Wiedergeben der Folge von Bildern 2002 das Anzeigen des stellvertretenden Bildes 2002-3 durch zumindest einige der nach dem stellvertretenden Bild 2002-3 erfassten Bilder (z. B. Bild 2002-4 und Bild 2002-5). Wie in 20H gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf einen zweiten Teil der Benutzereingabe 2014 zum Wiedergeben der Folge von Bildern 2002 zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-1 und Bild 2002-2), und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-4 und Bild 2002-5) der Reihe nach an. Das heißt, in einigen Ausführungsformen wird das stellvertretende Bild 2002-3, sobald es abgeändert wurde, bei der Wiedergabe gänzlich ausgelassen.
  • Wie vorstehend angemerkt, ist die Umschalttaste 2006 in 20I auf den ersten Bearbeitungsmodus eingestellt (z. B. auf den Auf-alle-anwenden-Modus), sodass, wenn die Vorrichtung 100 die Benutzereingabe 2008 erkennt, welche die Abänderungen des Benutzers anwendet, die Vorrichtung 100 das stellvertretende Bild 2002-3, das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. die Bilder 2002-4 und 2002-5), und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. die Bilder 2002-1 und 2002-2), abändert.
  • Die 20J20K veranschaulichen das Wiedergeben einer Folge von Bildern, in der alle der Bilder in der Folge von Bildern abgeändert wurden, in Übereinstimmung mit einigen Ausführungsformen. Während des Anzeigens des abgeänderten stellvertretenden Bildes 2002-3, empfängt die Vorrichtung 100 nach dem Abändern des stellvertretenden Bildes 2002-3, des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-4 und Bild 2002-5), und des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-1 und Bild 2002-2), eine Benutzereingabe 2016, bei der es sich um eine Anforderung zum Wiedergeben der Folge von Bildern 2002 handelt. Wie in 20J gezeigt ist, ersetzt die Vorrichtung 100 als Reaktion auf einen ersten Teil der Benutzereingabe 2016 zum Wiedergeben der Folge von Bildern 2002 das Anzeigen des stellvertretenden Bildes 2002-3 durch zumindest einige der nach dem stellvertretenden Bild 2002-3 erfassten abgeänderten Bilder (z. B. Bild 2002-4 und Bild 2002-5). Wie in 20K gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf einen zweiten Teil der Benutzereingabe 2016 zum Wiedergeben der Folge von Bildern 2002 zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-1 und Bild 2002-2), und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden (z. B. Bild 2002-4 und Bild 2002-5), der Reihe nach an. Das heißt, die Vorrichtung 100 gibt in einigen Ausführungsformen, wenn alle der Bilder in einer Folge von Bildern abgeändert werden, die Folge von Bildern mit allen abgeänderten Bildern wieder.
  • In einigen Ausführungsformen ersetzt die Vorrichtung 100, anstelle des Ersetzens des Anzeigens des stellvertretenden Bildes 2002-3 durch zumindest einige der nach dem stellvertretenden Bild 2002-3 erfassten Bilder (z. B. Bild 2002-4 und Bild 2002-5) in einem beliebigen der obigen Beispiele, das Anzeigen des stellvertretenden Bildes 2002-3 durch das Anzeigen eines jeweiligen vor dem stellvertretenden Bild 2002-3 erfassten Bildes (lässt z. B. die in 20C, 20E, 20G und 20J gezeigte Wiedergabe aus). Allgemeiner ausgedrückt, wenn lediglich das stellvertretende Bild in einer Folge von Bildern abgeändert wird, wird optional jede beliebige der Ausführungsformen zum Wiedergeben einer Folge von Bildern, die an anderer Stelle in diesem Dokument beschrieben sind (z. B. 6A6FF, 7A7CC, 8A8L, Verfahren 600, Verfahren 700 und/oder Verfahren 800) durchgeführt, wobei das abgeänderte Bild ausgelassen, auf seine unveränderte Form zurückgesetzt oder abgeändert in der Wiedergabe eingeschlossen wird. Gleichermaßen wird, wenn alle der Bilder in einer Folge von Bildern abgeändert werden, optional jede beliebige der Ausführungsformen zum Wiedergeben einer Folge von Bildern, die an anderer Stelle in diesem Dokument beschrieben sind (z. B. 6A6FF, 7A7CC, 8A8L, Verfahren 600, Verfahren 700 und/oder Verfahren 800) mit der abgeänderten Folge von Bildern durchgeführt.
  • In bestimmten Fällen würde das Abändern des stellvertretenden Bildes ohne Abänderung der zusätzlichen Bilder zu einer Unterbrechung führen, wenn das erweiterte Foto wiedergegeben wird. Zum Beispiel erkennt die Vorrichtung 100, wie in 20L gezeigt ist, in einigen Ausführungsformen, während die Umschalttaste 2006 auf „ausgeschaltet” eingestellt ist, eine Benutzereingabe 2022 zum Beschneiden (z. B. oder zum Drehen) des stellvertretenden Bildes 2002-3. Wenn das stellvertretende Bild 2002-3 jedoch beschnitten/gedreht wird, würde das Wiedergeben des erweiterten Fotos, wie vorstehend unter Bezugnahme auf die 20C20H beschrieben, zu einem „Sprung” führen, wenn das stellvertretende Bild 2002-3 angezeigt wird. Somit schaltet die Vorrichtung 100 in einigen Ausführungsformen, wenn an dem stellvertretenden Bild 2002-3 bestimmte Abänderungen durchgeführt werden (z. B. Beschneiden und/oder Drehen), ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes 2002-3 erfasst wurden, abzuändern, die Wiedergabe der zusätzlichen Bilder automatisch ab, löscht die zusätzlichen Bilder oder veranlasst, dass das abgeänderte stellvertretende Bild in einer neuen Datei als Standbild gespeichert wird. In einigen Ausführungsformen stellt die Vorrichtung 100 dem Benutzer eine Warnung 2018 bereit. In einigen Ausführungsformen stellt die Vorrichtung 100 dem Benutzer Optionen 2020 bereit. Zum Beispiel stellt die Vorrichtung 100 dem Benutzer eine Option 2020-1 zum Speichern des bearbeiteten Bildes als neues Standbild bereit; eine Option 2020-2 zum Löschen der zusätzlichen Bilder in der Folge von Bildern (z. B. in dem erweiterten Foto); und eine Option 2020-3 zum Eintreten in den Auf-alle-Anwenden-Modus, und eine Option 2020-4 zum Abbrechen.
  • Die 21A21J veranschaulichen beispielhafte Benutzerschnittstellen zum Senden von Bildern aus einer Folge von Bildern an eine zweite elektronische Vorrichtung in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung 100 in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • Die 21A21J veranschaulichen zwei beispielhafte Szenarien, in denen die Vorrichtung 100 während des Anzeigens eines stellvertretenden Bildes aus einer Folge von Bildern auf der Anzeige eine Eingabe erkennt, die einer Anforderung zum Senden eines stellvertretenden Bildes aus einer Folge von Bildern oder einer Anforderung zum Auswählen eines stellvertretenden Bildes aus einer Folge von Bildern zum Senden entspricht. Wenn die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann (z. B. ist die zweite elektronische Vorrichtung so konfiguriert, dass sie die in den 6A6FF, den 7A7CC und/oder der 8A8L beschriebenen Interaktionen durchführen kann), zeigt die Vorrichtung 100 einen ersten Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung an (wie z. B. in 21C gezeigt ist). Umgekehrt zeigt, wenn die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, die Vorrichtung 100 einen zweiten Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung an (wie z. B. in 21D gezeigt ist).
  • Die 21A21D veranschaulichen ein Szenario, in dem Optionen zum Senden eines stellvertretenden Bildes aus einer Folge von Bildern als Reaktion auf eine Benutzeranforderung zum Auswählen des Sendens des stellvertretenden Bildes bereitgestellt werden. 21A veranschaulicht eine Konversation auf der Vorrichtung 100 (z. B. eine Konversation in einer Messaging-Anwendung/Messaging-Benutzerschnittstelle 2102). Die Konversation findet mit einer Benutzerin (Stephanie) einer zweiten elektronischen Vorrichtung statt. In einigen Ausführungsformen ist, wenn der Benutzer der Vorrichtung 100 das Auswählen des Sendens des stellvertretenden Bildes anfordert, der Vorrichtung 100 das Ziel des stellvertretenden Bildes (z. B. die zweite elektronische Vorrichtung) bekannt, da der Prozess des Anforderns des Sendens des stellvertretenden Bildes von innerhalb einer Konversation mit der zweiten Vorrichtung ausgeht.
  • Zu diesem Zweck erkennt die Vorrichtung 100, wie in 21A gezeigt ist, eine Benutzereingabe 2104 (z. B. eine Tippgeste), die eine Aufforderung 2106 zum Hinzufügen von Medien (z. B. Hinzufügen eines Standfotos, eines erweiterten Fotos, eines Videos oder eines beliebigen anderen Medientyps) zu der Konversation auswählt.
  • 21B veranschaulicht, dass die Vorrichtung als Reaktion auf die Benutzereingabe 2104 (21A) eine Benutzerschnittstelle 2108 bereitstellt, die dem Benutzer Optionen zum Auswählen eines an den Benutzer der zweiten elektronischen Vorrichtung zu sendenden Fotos bereitstellt. Die Benutzerschnittstelle 2108 beinhaltet einen Bereich mit auswählbaren Bildern 2110 (z. B. Bild 2110-a bis Bild 2110-c). In einigen Ausführungsformen sind die auswählbaren Bilder 2110 Darstellungen von aktuellen Fotos (z. B. die neuesten drei oder fünf Fotos). Die Benutzerschnittstelle 2108 beinhaltet eine Option 2112 zum Auswählen eines Fotos aus der Fotobibliothek des Benutzers, eine Option 2114 zum Aufnehmen eines Fotos oder Videos (z. B. mit einer in der Vorrichtung 100 integrierten Kamera) und eine Option 2116 zum Abbrechen des Hinzufügens von Medien.
  • In diesem Beispiel erkennt die Vorrichtung 100 eine Benutzereingabe 2116, bei der es sich um eine Anforderung zum Auswählen von Bild 2110-b zum Senden an den Benutzer der zweiten Vorrichtung handelt. Zum Zwecke der Erläuterung handelt es sich in diesem Beispiel bei Bild 2110-b um ein stellvertretendes Bild aus einer Folge von Bildern (z. B. ein stellvertretendes Bild aus einem erweiterten Fotos), das Bilder beinhaltet, die vor dem stellvertretenden Bild 2110-b erfasst wurden, und/oder Bilder beinhaltet, die nach dem stellvertretenden Bild 2110-b erfasst wurden.
  • Wie in 21C gezeigt ist, zeigt die Vorrichtung 100, da die Vorrichtung von Stephanie (die zweite elektronische Vorrichtung) so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, einen ersten Satz von Optionen 2118 zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung an. In einigen Ausführungsformen beinhaltet der erste Satz von Optionen 2118: eine Option 2118-a zum Senden der gesamten Folge von Bildern (z. B. Senden des erweiterten Fotos); eine Option 2118-b zum Senden des stellvertretenden Bildes ohne Senden der vor dem stellvertretenden Bild 2110-b erfassten Bilder und ohne Senden der nach dem stellvertretenden Bild 2110-b erfassten Bilder (z. B. Senden lediglich des stellvertretenden Bildes 2110-b als Standbild); eine Option 2118-c zum Umwandeln zumindest des Teils der Folge von Bildern in ein animiertes Bildformat (z. B. ein GIF-Format); eine Option 2118-d zum Umwandeln zumindest des Teils der Folge von Bildern in ein Videoformat (z. B. ein MPEG-Format); und eine Option 2118-e zum Abbrechen. Die Vorrichtung 100 zeigt auch einen Hinweis 2120 an, dass das Bild 2110-b zum Senden an die zweite elektronische Vorrichtung ausgewählt wurde.
  • Im Gegensatz dazu veranschaulicht 21D einen zweiten Satz von Optionen 2122 zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung. Der zweite Satz von Optionen 2122 wird angezeigt, da die zweite elektronische Vorrichtung (z. B. die Vorrichtung von Robert) in diesem Beispiel nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann. Der Prozess des Erreichens des zweiten Satzes von Optionen 2122 ist analog zum Prozess des Erreichens des ersten Satzes von Optionen 2118, der unter Bezugnahme auf die 21A21C beschrieben ist. Das heißt, in einigen Ausführungsformen wird der zweite Satz von Optionen 2122 angezeigt, nachdem der Benutzer der Vorrichtung 100, während er sich in einer Konversation mit Robert befindet, eine Aufforderung zum Hinzufügen von Medien zu der Konversation ausgewählt hat (z. B. Aufforderung 2106, 21A), und dann ein stellvertretendes Bild aus einer Folge von Bildern zum Senden an die Vorrichtung von Robert auswählt (z. B. wählt er mit einer Benutzereingabe, die analog zur Eingabe 2116 ist, Bild 2110-b aus).
  • Der zweite Satz von Optionen 2122: eine Option 2122-a zum Senden des stellvertretenden Bildes ohne Senden der vor dem stellvertretenden Bild 2110-b erfassten Bilder und ohne Senden der nach dem stellvertretenden Bild 2110-b erfassten Bilder (z. B. Senden lediglich des stellvertretenden Bildes 2110-b als Standbild); eine Option 2122-b zum Umwandeln zumindest des Teils der Folge von Bildern in ein animiertes Bildformat (z. B. ein GIF-Format); eine Option 2122-c zum Umwandeln zumindest des Teils der Folge von Bildern in ein Videoformat (z. B. ein MPEG-Format); und eine Option 2122-d zum Abbrechen. Die Vorrichtung 100 zeigt auch einen Hinweis 2120 an, dass das Bild 2110-b zum Senden an die zweite elektronische Vorrichtung ausgewählt wurde. In einigen Ausführungsformen beinhaltet der zweite Satz von Optionen 2122 keine Option zum Senden der gesamten Folge von Bildern (z. B. Senden des erweiterten Fotos), da die Vorrichtung von Robert nicht so konfiguriert ist, dass sie mit der gesamten Folge von Bildern als Gruppe interagieren kann.
  • Die 21E21J veranschaulichen ein Szenario, in dem Optionen zum Senden eines stellvertretenden Bildes aus einer Folge von Bildern als Reaktion auf eine Benutzeranforderung zum Senden des stellvertretenden Bildes bereitgestellt werden. 21E veranschaulicht eine Kamerarollen-Benutzerschnittstelle 2124 auf der Vorrichtung 100. Die Kamerarollen-Benutzerschnittstelle 2124 zeigt ein Bild 2126 und andere Bilder 2129 (z. B. Bild 2129-1 bis Bild 2129-8) an, bei denen es sich optional um Darstellungen von Fotos, erweiterten Fotos oder Filmen handelt. In diesem Beispiel wird davon ausgegangen, dass der Benutzer der Vorrichtung 100 nicht von innerhalb einer Konversation zu der Kamerarollen-Benutzerschnittstelle 2124 navigiert hat (z. B. hat er von einem Startbildschirm aus zu der Benutzerschnittstelle 2124 navigiert). Somit ist in dem in den 21E21J gezeigten Beispiel, wenn der Benutzer das Bild 2126 (z. B. über eine Benutzereingabe 2128, 21E) anfordert oder ein Teilen des Bildes 2126 anfordert (z. B. über eine Benutzereingabe 2132, 21F), das Ziel des stellvertretenden Bildes (z. B. die zweite elektronische Vorrichtung) der Vorrichtung 100 noch nicht bekannt. Somit kann die Vorrichtung 100 noch nicht abhängig davon, ob die empfangende zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, unterschiedliche erste Optionen oder zweite Optionen anzeigen. Stattdessen werden, wie nachfolgend beschrieben ist, die ersten Optionen oder die zweiten Optionen angezeigt, wenn der Benutzer das Senden des Bildes anfordert, sobald das Ziel bekannt ist.
  • Zu diesem Zweck veranschaulicht 21E eine Benutzereingabe 2128, die das Bild 2126 von innerhalb der Kamerarollen-Benutzerschnittstelle 2124 auswählt. In diesem Beispiel wird davon ausgegangen, dass das Bild 2126 ein stellvertretendes Bild aus einer Folge von Bildern ist.
  • Wie in 21F gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf die Benutzereingabe 2128 das Bild 2126 in einer Bildbetrachtungs-Benutzerschnittstelle 2130 an. 21F veranschaulicht auch eine Benutzereingabe 2132, die das Teilen des Bildes 2126 anfordert (z. B. durch Auswählen einer Teilen-Aufforderung 2134).
  • Wie in 21G gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf die Benutzereingabe 2132 eine Teilen-Benutzerschnittstelle 2138 an. Da die Teilen-Benutzerschnittstelle 2138 als Reaktion auf die Anforderung zum Teilen von Bild 2126 angezeigt wurde, wird Bild 2126 in einem Bereich 2140 der Teilen-Benutzerschnittstelle 2138 vorab ausgewählt, die ein paar Bilder (z. B. drei Bilder, fünf Bilder usw.) zeigt, die in zeitlicher Nähe zum Bild 2126 erfasst wurden. Die Teilen-Benutzerschnittstelle beinhaltet auch protokollbasierte Teilenoptionen zum Auswählen eines Protokolls, durch welches das Bild 2126 geteilt wird, einschließlich einer Nachrichtenprotokoll-Teilenoption 2142-a, einer Mailprotokoll-Teilenoption 2142-b und einer soziale Medienprotokoll-Teilenoption 2142-c. In 21G wählt der Benutzer die Nachrichtenprotokoll-Teilenoption 2142-a (über die Benutzereingabe 2143) aus, woraufhin eine Konversations-Benutzerschnittstelle 2144 angezeigt wird, die in 21H gezeigt ist.
  • In diesem Beispiel ist, wenn die Konversations-Benutzerschnittstelle 2144 (21H) erstmals angezeigt wird, das Zielfeld 2146 leer, da der Benutzer der Vorrichtung 100 noch nicht das Ziel des Bildes 2126 angegeben hat (z. B. zeigt die Vorrichtung 100 eine Nachricht mit einem leeren Zielfeld 2146 und dem Bild 2126 automatisch in den Hauptteil 2148 der Nachricht eingefügt an). Somit wird in diesem Beispiel davon ausgegangen, dass der Benutzer der Vorrichtung 100 manuell „Stephanie Levin” als Ziel in der Konversations-Benutzerschnittstelle 2144 in 21H eingegeben hat. Der Benutzer hat auch eine Kurznachricht 2150, „Sieh Dir diesen Zug an.”, eingetippt.
  • Wie auch in 21H gezeigt ist, wählt der Benutzer (über die Benutzereingabe 2152) die Senden-Schaltfläche 2154 aus, wodurch er das Senden von Bild 2126 sowie des Rests der Nachricht anfordert.
  • Wie in 21I gezeigt ist, zeigt die Vorrichtung 100 als Reaktion auf die Benutzereingabe 2152, da die Vorrichtung von Stephanie Levin (die zweite elektronische Vorrichtung) so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, einen ersten Satz von Optionen 2118 zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung an (wie vorstehend unter Bezugnahme auf 21C beschrieben ist).
  • Im Gegensatz dazu veranschaulicht 21J den zweiten Satz von Optionen 2122 zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung. Der zweite Satz von Optionen 2122 wird angezeigt, da die zweite elektronische Vorrichtung (z. B. die Vorrichtung von Robert Yu) in diesem Beispiel nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann. Der Prozess des Erreichens des zweiten Satzes von Optionen 2122 ist analog zum Prozess des Erreichens des ersten Satzes von Optionen 2118, der unter Bezugnahme auf die 21E21H beschrieben ist. Das heißt, in einigen Ausführungsformen wird der zweite Satz von Optionen 2122 angezeigt, wenn der Benutzer der Vorrichtung 100 anstelle von Stephanie Levin in 21H Robert Yu als Ziel 2146 eingibt und dann Senden drückt.
  • Die 22A22D veranschaulichen beispielhafte Benutzerschnittstellen zum Erfassen von Fotos (z. B. erweiterten Fotos oder Standfotos) unter Verwendung einer Szenenerkennung in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung 100 in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • Einige Szenen sind zweckmäßiger als andere, als Folge von Bildern erfasst zu werden (z. B. als ein erweitertes Foto). Zum Beispiel verwenden Menschen häufig dieselbe tragbare Multifunktionsvorrichtung zum Einfangen von wichtigen Momenten (z. B. eines Bildes ihrer Kinder, die am Strand lächeln) und zum Einfangen von banaleren Bildern wie zum Beispiel das Aufnehmen eines Bildes einer Quittung aus Dokumentationsgründen. In Übereinstimmung mit einigen Ausführungsformen veranschaulichen die 22A22D Benutzerschnittstellen für Vorrichtungen, die über eine Szenenerkennung automatisch bestimmen, ob eine Folge von Bildern (z. B. im Fall von lächelnden Kindern) oder ein Standbild (im Fall einer Quittung) einzufangen ist. Zum Beispiel behält die Vorrichtung, wenn die Szene Kriterien zum Einfangen einer Aktion erfüllt (z. B. Kriterien, die eine Aktivität in einer Szene betreffen), als Reaktion auf die Aktivierung eines Auslöseknopfes eine Folge von Bildern, darunter Bilder, die vor Aktivierung des Auslöseknopfes erfasst wurden, und Bilder, die nach Aktivierung des Auslöseknopfes erfasst wurden. Umgekehrt, behält die Vorrichtung, wenn die Szene die Kriterien zum Einfangen einer Aktion nicht erfüllt, ein Einzelbild (z. B. analog zu einem Einzelbild, das als Reaktion auf die Aktivierung eines Verschlusses in einer herkömmlichen Kamera erfasst wird).
  • In 22A befindet sich die Vorrichtung 100 in einem Medienerfassungsmodus (z. B. einem Fotoerfassungsmodus oder einem automatischen Stand-/erweiterten Fotoerfassungsmodus). Während sich die Vorrichtung 100 in dem Medienerfassungsmodus befindet, zeigt die Vorrichtung 100 eine Bildeinfang-Benutzerschnittstelle 2202 an, die eine Live-Vorschau 2210 einer durch eine Kamera erkannten Szene beinhaltet (z. B. ist die Kamera in die Vorrichtung 100 integriert). Die Bildeinfang-Benutzerschnittstelle 2202 beinhaltet auch eine Aufforderung 2204 zum Navigieren zu einer Kamerarolle (z. B. zeigt die Aufforderung 2204 eine Miniaturdarstellung des letzten von der Kamera erfassten Fotos/Videos an); einen virtuellen Auslöseknopf 2206; und eine Aufforderung 2208 zum Anwenden von Filtern auf die Live-Vorschau der Szene (z. B. einen Sepia-Filter).
  • Während sich die Vorrichtung 100 in dem Medienerfassungsmodus befindet, führt die Vorrichtung 100 für die Szene eine Szenenerkennung durch. Zum Beispiel beinhaltet die Szenenerkennung in einigen Ausführungsformen das Erkennen von Text, das Erkennen von Bewegungen, das Erkennen von menschlichen Gesichtern und/oder das Erkennen von Bewegungen der Vorrichtung 100 (z. B. wenn der Benutzer plant, einem Ziel zu folgen). In 22A erkennt die Vorrichtung 100 unter Verwendung der Szenenerkennung, dass es sich bei der Szene hauptsächlich um Text handelt (z. B. handelt die Szene von einer Quittung). In einigen Ausführungsformen erkennt die Vorrichtung 100, dass es sich bei der Szene hauptsächlich um Text handelt, indem sie erkennt, dass die Szene mehr als einen Schwellenbetrag von Text beinhaltet. In einigen Ausführungsformen werden, wenn die Vorrichtung 100 erkennt, dass es sich bei der Szene hauptsächlich um Text handelt, die Kriterien zum Einfangen einer Aktion nicht erfüllt. Da es zum Beispiel unwahrscheinlich ist, dass der Benutzer die Momente um das Herumliegen einer Quittung auf einem Tisch herum einfangen möchte, behält die Vorrichtung 100 als Reaktion auf die Aktivierung des Auslöseknopfes 2206 ein Einzelbild 2214 (das in 22B in einem Bildbetrachtungsmodus gezeigt ist).
  • Im Gegensatz dazu stellt 22C eine Szene eines Zuges dar, der einen Bahnsteig erreicht, die in dem Medienerfassungsmodus in der Live-Vorschau 2210 gezeigt wird. Insbesondere stellt 22C die Live-Vorschau 2210 der Szene zu fünf verschiedenen Zeitpunkten dar (in chronologischer Reihenfolge: Zeitpunkt 2210-1; Zeitpunkt 2210-2; Zeitpunkt 2210-3; Zeitpunkt 2210-4; und Zeitpunkt 2210-5).
  • Die Vorrichtung 100 führt eine Szenenerkennung durch, während die Live-Vorschau 2210 auf der Anzeige angezeigt wird. In diesem Beispiel werden die Kriterien zum Einfangen einer Aktion erfüllt, wenn die Vorrichtung einen Schwellenbetrag von Bewegung erkennt. Da sich der Zug in der Live-Vorschau 2210 bewegt, behält die Vorrichtung 100 also als Reaktion auf die Aktivierung des Auslöseknopfes 2206 zum Zeitpunkt 2210-3 eine Folge von Bildern 2218 (z. B. ein erweitertes Foto), wie in 22D gezeigt ist.
  • Wie in 22D gezeigt ist, beinhaltet die Folge von Bildern 2218: mehrere Bilder, die vor Aktivierung des Auslöseknopfes 2206 erfasst wurden (z. B. die Bilder 2218-1 und 2218-2); ein stellvertretendes Bild 2218-3, das in einigen Ausführungsformen in zeitlicher Nähe zur Aktivierung des Auslöseknopfes 2206 erfasst wurde, (z. B. ist Bild 2218-3 analog zu einem Einzelbild, das als Reaktion auf die Aktivierung eines Verschlusses in einer herkömmlichen Kamera erfasst wurde); und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes 2218-3 erfasst wurden (z. B. die Bilder 2218-4 und 2218-5). Das heißt, da der sich bewegende Zug den Schwellenbetrag von Bewegung überstiegen hat, hat die Vorrichtung 100 ein erweitertes Foto eingefangen. Das erweiterte Foto kann dann zum Beispiel in Übereinstimmung mit den unter Bezugnahme auf die 6A6FF, 7A7CC und/oder 8A8L beschriebenen Ausführungsformen wiedergegeben werden.
  • Die 23A23E veranschaulichen beispielhafte Benutzerschnittstellen zum Kürzen einer Folge von Bildern (z. B. eines erweiterten Fotos) in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden zum Veranschaulichen der nachfolgend beschriebenen Prozesse verwendet, darunter die Prozesse in den 9A9G, 10A10M, 11A11I, 12A12B, 24A24E, 25A25C, 26A26D und 27A27E. Obwohl die folgenden Beispiele unter Bezugnahme auf Eingaben auf einer Touchscreen-Anzeige angeführt werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung 100 in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche 451, die getrennt von der Anzeige 450 ist, wie in 4B gezeigt ist.
  • 23A veranschaulicht die Vorrichtung 100, die das stellvertretende Bild 2302 auf der Anzeige anzeigt, während sich die Vorrichtung 100 in einer Fotobearbeitungs-Benutzerschnittstelle befindet. Das stellvertretende Bild 2302 stellt eine Folge von Bildern dar (stellt z. B. ein erweitertes Foto dar). In einigen Ausführungsformen zeigt die Vorrichtung 100 ein aktuell ausgewähltes Bild aus der Folge von Bildern an, bei dem es sich nicht unbedingt um das stellvertretende Bild handelt. Die Fotobearbeitungs-Benutzerschnittstelle beinhaltet die Aufforderungen 2004 zum Bearbeiten des stellvertretenden Bildes 2302 (z. B. eine Beschneiden-Aufforderung 2004-1; eine Filter-Aufforderung 2004-2, eine Beleuchtungsaufforderung 2004-3). Die Fotobearbeitungs-Benutzerschnittstelle beinhaltet auch ein auswählbares Symbol 2304. In einigen Ausführungsformen wird, wenn es sich bei dem angezeigten Bild in der Fotobearbeitungs-Benutzerschnittstelle um ein stellvertretendes Bild aus einer Folge von Bildern handelt, das auswählbare Symbol 2304 animiert, farbig angezeigt und/oder ausgefüllt. In einigen Ausführungsformen wird, wenn es sich bei dem angezeigten Bild in der Fotobearbeitungs-Benutzerschnittstelle um ein Standbild handelt, das auswählbare Symbol 2304 in schwarzweiß angezeigt, nicht animiert und/oder nicht ausgefüllt. Somit zeigt das auswählbare Symbol 2304 dem Benutzer/der Benutzerin in einigen Ausführungsformen an, ob er oder sie ein erweitertes Foto bearbeitet. In einigen Ausführungsformen ist das auswählbare Symbol 2304 nur dann auswählbar, wenn ein stellvertretendes Bild aus einer Folge von Bildern in der Fotobearbeitungs-Benutzerschnittstelle angezeigt wird.
  • Die Fotobearbeitungs-Benutzerschnittstelle beinhaltet eine „Fertig”-Aufforderung 2301, welche die Abänderungen des Benutzers auf das Foto anwendet.
  • In 23A empfängt die Vorrichtung 100 eine Benutzereingabe 2306, die das auswählbare Symbol 2304 auswählt.
  • In 23B zeigt die Vorrichtung 100 als Reaktion auf die Benutzereingabe 2306 eine Aufforderungsleiste 2308 an. Die Aufforderungsleiste 2308 beinhaltet: eine Aufforderung 2310-1 zum Einschalten der animierten Wiedergabe der Folge von Bildern; eine Aufforderung 2310-2 zum Abschalten der animierten Wiedergabe der Folge von Bildern, während die Folge von Bildern behalten wird; eine Aufforderung 2310-3 zum Kürzen der Folge von Bildern; und eine Aufforderung 2310-4 zum Löschen der anderen Bilder in der Folge von Bildern außer dem stellvertretenden Bild 2302. In einigen Ausführungsformen ist jederzeit lediglich entweder die Aufforderung 2310-1 oder die Aufforderung 2310-2 auswählbar, abhängig davon, ob die animierte Wiedergabe aktuell eingeschaltet oder abgeschaltet ist (z. B. ist die „Ein”-Aufforderung 2310-1 „grau dargestellt”, wenn die Wiedergabe aktuell eingeschaltet ist). Die Fotobearbeitungs-Benutzerschnittstelle beinhaltet eine Aufforderung 2006 (z. B. eine Umschalttaste) zum Umschalten zwischen einem ersten Bearbeitungsmodus (z. B. einem Auf-alle-Anwenden-Bearbeitungsmodus) und einem zweiten Bearbeitungsmodus (z. B. einem Einzelbild-Bearbeitungsmodus), wie unter Bezugnahme auf die 20A20L beschrieben ist.
  • In 23B empfängt die Vorrichtung 100 eine Benutzereingabe 2312, welche die Aufforderung 2310-3 zum Kürzen der Folge von Bildern auswählt.
  • In 23C zeigt die Vorrichtung 100 als Reaktion auf die Benutzereingabe 2312 eine Benutzerschnittstelle 2314 zum Kürzen der Folge von Bildern auf eine Teilmenge der Folge von Bildern (z. B. auf eine Teilmenge, die geringer ist als alle der Bilder in der Folge von Bildern). Die Benutzerschnittstelle 2314 beinhaltet einen Bereich 2316 (z. B. einen Streifen), der Darstellungen 2318 von Bildern in der Folge von Bildern enthält (der visuellen Klarheit halber ist in der Figur lediglich eine Darstellung 2318 beschriftet). In einigen Ausführungsformen handelt es sich bei den Darstellungen 2318 um Miniaturansichten von Bildern in der Folge von Bildern. In einigen Ausführungsformen sind die Darstellungen von Bildern in chronologischer Reihenfolge angeordnet, sodass diejenigen Darstellungen 2318, die sich links in dem Bereich 2316 befinden, Bilder darstellen, die früher erfasst wurden als diejenigen Darstellungen 2318, die sich rechts in dem Bereich 2316 befinden.
  • Die Benutzerschnittstelle 2314 beinhaltet einen zweiten Bereich 2322, der gleichzeitig mit dem Bereich 2316 angezeigt wird. Das stellvertretende Bild oder ein aktuell ausgewähltes Bild wird in dem zweiten Bereich 2322 angezeigt.
  • Der Bereich 2316 beinhaltet einen Start-Identifikator 2320-a, der ein Startbild der Teilmenge der Folge von Bildern abgrenzt. Der Bereich 2316 beinhaltet auch einen Ende-Identifikator 2320-b, der ein Endbild der Teilmenge der Folge von Bildern abgrenzt. Der Start-Identifikator 2320-a und der Ende-Identifikator 2320-b befinden sich an Positionen in dem Bereich 2316, die automatisch durch die Vorrichtung ausgewählt werden (z. B. unter Verwendung einer Szenenerkennung). Zum Beispiel verwendet die Vorrichtung 100 eine Szenenerkennung zum Ermitteln einer Zeitspanne, während der die beste Aktion geschieht (z. B. durch Feststellen, wenn ein Gesicht in Richtung der Kamera gedreht wird, oder Feststellen, wenn die Bilder am wenigsten verschwommen sind). Die Vorrichtung 100 setzt den Start-Identifikator 2320-a auf eine Position in dem Bereich 2316, der den Anfang der Zeitspanne darstellt, während der die beste Aktion geschieht, und setzt den Ende-Identifikator 2320-b auf eine Position in dem Bereich 2316, der das Ende der Zeitspanne darstellt, während der die beste Aktion geschieht.
  • 23C veranschaulicht auch, dass sich die Darstellungen 2318 von Bildern zwischen dem Start-Identifikator 2320-a und dem Ende-Identifikator 2320-b von den anderen Darstellungen 2318 in dem Bereich 2316 visuell unterscheiden (z. B. indem die anderen Darstellungen leicht grau hinterlegt werden).
  • Die Benutzerschnittstelle 2314 beinhaltet auch eine Zurücksetzen-Aufforderung 2324. In 23C empfängt die Vorrichtung 100 eine Benutzereingabe 2326, welche die Zurücksetzen-Aufforderung 2324 auswählt.
  • In 23D bewegt die Vorrichtung 100 als Reaktion auf das Auswählen der Zurücksetzen-Aufforderung 2324 durch die Benutzereingabe 2326 den Start-Identifikator 2320-a an eine Position, die einem Anfangsbild in der ungekürzten Folge von Bildern entspricht, und bewegt den Ende-Identifikator 2320-b auf ein letztes Bild in der ungekürzten Folge von Bildern. Das heißt, die Zurücksetzen-Aufforderung 2324 setzt die Kürzungs-Identifikatoren so zurück, dass sie der Folge von Bildern entsprechen, bevor der Benutzer die Kürzen-Benutzerschnittstelle 2314 aufgerufen hat.
  • Wie in 23D gezeigt ist, zeigt die Benutzerschnittstelle 2314 in einigen Ausführungsformen Darstellungen 2328 von Bildern, die nicht in der ursprünglichen Folge von Bildern beinhaltet sind und vor dem Anfangsbild in der ursprünglichen (z. B. ungekürzten) Folge von Bildern erfasst wurden, und/oder Darstellungen 2330 von Bildern, die nicht in der ursprünglichen Folge von Bildern beinhaltet sind und nach dem letzten Bild in der ursprünglichen (z. B. ungekürzten) Folge von Bildern erfasst wurden.
  • Wie auch in 23D gezeigt ist, zeigt die Benutzerschnittstelle 2314 in einigen Ausführungsformen, wenn der Benutzer die Zurücksetzen-Aufforderung 2324 auswählt, (z. B. anstelle der Zurücksetzen-Aufforderung 2324) eine Auto-Aufforderung 2332, die es dem Benutzer ermöglicht, zurück auf die für den Start-Identifikator 2320-a und den Ende-Identifikator 2320-b automatisch ausgewählten Positionen zu schalten, die auf einer Szenenerkennung beruhen.
  • Wie auch in den 23D23E gezeigt ist, kann der Benutzer die Positionen des Start-Identifikators 2320-a und des Ende-Identifikators 2320-b manuell einstellen. In 23D empfängt die Vorrichtung 100 eine Benutzereingabe 2334 (z. B. eine Ziehgeste über dem Start-Identifikator 2320-a). 23E veranschaulicht, dass sich die Position des Start-Identifikators 2320-a in dem Bereich 2316 entsprechend der Ziehgeste 2334 bewegt hat.
  • Wenn der Benutzer die „Fertig”-Aufforderung 2301 auswählt, während er sich in der Kürzen-Benutzerschnittstelle 2314 befindet, welche die Kürzung des Benutzers auf die Folge von Bildern anwendet, löscht die Vorrichtung 100 in einigen Ausführungsformen entweder die Bilder, die nicht in der Teilmenge von Bildern beinhaltet sind, (z. B. deren Darstellungen sich nicht zwischen dem Start-Identifikator 2320-a und dem Ende-Identifikator 2320-b befinden) (oder markiert diese zum Löschen), oder deaktiviert die Wiedergabe der Bilder, die nicht in der Teilmenge von Bildern beinhaltet sind. Wenn zum Beispiel die gekürzte Folge von Bildern in Übereinstimmung mit den unter Bezugnahme auf die 6A6FF, 7A7CC und/oder 8A8L beschriebenen Ausführungsformen wiedergegeben wird, werden die Bilder, die nicht in der Teilmenge von Bildern beinhaltet sind, nicht wiedergegeben. Wenn die Vorrichtung 100 die Wiedergabe der Bilder, die nicht in der Teilmenge von Bildern beinhaltet sind, deaktiviert, behält die Vorrichtung 100 in einigen Ausführungsformen die Bilder, die nicht in der Teilmenge von Bildern beinhaltet sind, sodass der Benutzer die gesamte Folge von Bildern oder einen beliebigen Teil der gesamten Folge von Bildern zu einem späteren Zeitpunkt wiederherstellen kann (z. B. in der Kürzen-Benutzerschnittstelle 2314).
  • Die 24A24E veranschaulichen einen Ablaufplan eines Verfahrens 2400 zum Abändern von Bildern in einer Folge von Bildern in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 2400 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 2400 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • Das Verfahren 2400 stellt eine intuitive Weise zum Abändern eines erweiterten Fotos bereit. Insbesondere ermöglicht es das Verfahren 2400 einem Benutzer, wenn der Benutzer ein stellvertretendes Bild für das erweiterte Foto abändert (z. B. beschneidet, schwarz-weiß macht, die Farbbalance und/oder den Kontrast ändert), festzulegen (z. B. mit einer Umschalttaste), ob die Abänderungen lediglich auf das stellvertretende Bild oder auf alle der Bilder in dem erweiterten Foto angewendet werden sollen. Wenn die Abänderungen lediglich auf das stellvertretende Bild angewendet werden, stellt das Verfahren 2400 in Übereinstimmung mit einer Vielfalt von Ausführungsformen Wiedergaberezepte bereit. Zum Beispiel wird in verschiedenen Ausführungsformen ein erweitertes Foto, das eine Folge von Bildern mit einem abgeänderten stellvertretenden Bild beinhaltet, mit dem stellvertretenden Bild abgeändert, unverändert oder weggelassen wiedergegeben. Wenn die Abänderungen auf die gesamte Folge von Bildern angewendet werden, gibt das erweiterte Foto die abgeänderte Folge von Bildern wieder.
  • Die Vorrichtung zeigt (2402) ein stellvertretendes Bild auf der Anzeige an (z. B. während sich die Vorrichtung in einem Bildpräsentationsmodus befindet). Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die Folge von Bildern aufgenommen hat, Teil der elektronischen Vorrichtung. In einigen Ausführungsformen wurde die Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der elektronischen Vorrichtung ist (z. B. wurde die Folge von Bildern an die elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • Während des Anzeigens des stellvertretenden Bildes auf der Anzeige erkennt (2404) die Vorrichtung eine Eingabe zum Abändern des stellvertretenden Bildes (z. B. eine Eingabe zum Beschneiden, Filtern, Einstellen der Belichtung, Einstellen der Farbe, Umwandeln in schwarz-weiß oder dergleichen). Zum Beispiel handelt es sich bei der Eingabe 2008, 20B, um eine Eingabe zum Abändern des stellvertretenden Bildes 2002-3.
  • Als Reaktion auf das Erkennen der Eingabe zum Abändern des stellvertretenden Bildes: Infolge eines Feststellens, dass sich die Vorrichtung in einem ersten Bearbeitungsmodus befindet (z. B. ist eine Aufforderung wie zum Beispiel die Umschalttaste 2006, 20I, so eingestellt, dass sie Bearbeitungen auf alle Bilder in einer jeweiligen Folge von Bildern anwendet), ändert (2406) die Vorrichtung das stellvertretende Bild, das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, ab; und infolge eines Feststellens, dass sich die Vorrichtung in einem zweiten Bearbeitungsmodus befindet (z. B. ist eine Aufforderung wie zum Beispiel die Umschalttaste 2006, 20B, so eingestellt, dass sie Bearbeitungen lediglich auf das stellvertretende Bild in einer jeweiligen Folge von Bildern anwendet), der sich von dem ersten Bearbeitungsmodus unterscheidet, ändert die Vorrichtung das stellvertretende Bild ab, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern.
  • In einigen Ausführungsformen stellt die Vorrichtung die Aufforderung zum Umschalten zwischen dem ersten Bearbeitungsmodus und dem zweiten Bearbeitungsmodus in einer Fotobearbeitungs-Benutzerschnittstelle bereit (z. B. ist die Umschalttaste 2006, 20B und 20I eine Komponente einer Fotobearbeitungs-Benutzerschnittstelle). In einigen Ausführungsformen beinhaltet die Fotobearbeitungs-Benutzerschnittstelle Aufforderungen zum Ein-/Abschalten der Wiedergabe des erweiterten Fotos, zum Löschen der zusätzlichen Bilder in dem erweiterten Foto und/oder zum Kürzen des Satzes von zusätzlichen Fotos (z. B. Abändern der Auswahl der Standbilder, die in dem erweiterten Foto beinhaltet sein sollen), wie unter Bezugnahme auf die 23A23E und das Verfahren 2700 beschrieben ist.
  • In einigen Ausführungsformen präsentiert die Vorrichtung als Reaktion auf das Erkennen der Eingabe zum Abändern des stellvertretenden Bildes dem Benutzer die Option, die Abänderung lediglich auf das stellvertretende Bild oder auf das stellvertretende Bild sowie auf das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, anzuwenden.
  • In bestimmten Fällen würde das Abändern des stellvertretenden Bildes ohne Abänderung der zusätzlichen Bilder zu einer Unterbrechung führen, wenn das erweiterte Foto wiedergegeben wird. Wenn das stellvertretende Bild zum Beispiel beschnitten oder relativ zu dem zusätzlichen Bild gedreht wird, würde das Wiedergeben des erweiterten Fotos zu einem „Sprung” führen, wenn das stellvertretende Bild angezeigt wird. Somit schaltet die Vorrichtung in einigen Ausführungsformen, wenn an dem stellvertretenden Bild bestimmte Abänderungen durchgeführt werden (z. B. Beschneiden und/oder Drehen), ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, die Wiedergabe der zusätzlichen Bilder automatisch ab, löscht die zusätzlichen Bilder oder veranlasst, dass das abgeänderte stellvertretende Bild in einer neuen Datei als Standbild gespeichert wird. In einigen Ausführungsformen warnt die Vorrichtung den Benutzer, dass die Abänderung dazu führen wird, dass das abgeänderte stellvertretende Bild ein Standbild wird, und stellt dem Benutzer die Option bereit, die Abänderung fortzusetzen oder die Abänderung abzubrechen (z. B. Warnung 2018, 20L).
  • Nach dem Abändern des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern: zeigt (2408) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung einen ersten Teil einer zweiten Eingabe. Als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe ersetzt die Vorrichtung das Anzeigen des abgeänderten stellvertretenden Bildes durch das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach. In einigen Ausführungsformen werden somit als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe das eine oder die mehreren (unveränderten) Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, aufeinanderfolgend angezeigt (wie z. B. in 20E gezeigt ist). In einigen Ausführungsformen zeigt die Vorrichtung eine überblendende Animation zwischen dem abgeänderten stellvertretenden Bild und dem einen oder den mehreren (unveränderten) Bildern an, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • Nach dem Erkennen des ersten Teils der zweiten Eingabe erkennt die Vorrichtung einen zweiten Teil der zweiten Eingabe (z. B. erkennt sie weiterhin eine(n) Kontakt und/oder Intensität in einer Fingergeste). Als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild ohne Abänderung und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an (wie z. B. in 20F gezeigt ist).
  • Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe die gesamte Folge von (unveränderten) Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge. Zum Beispiel wird das stellvertretende Bild abgeändert, indem es in ein Schwarzweißbild umgewandelt wird, während die anderen Bilder in der Folge Farbbilder bleiben. Während das schwarz-weiße stellvertretende Bild angezeigt wird, wird ein erster Teil einer Eingabe (z. B. eine Drücken-und-Halten-Geste oder eine Fest-Drücken-Geste) erkannt. Als Reaktion darauf wird das Anzeigen des schwarz-weißen stellvertretenden Bildes durch das Anzeigen von einem oder mehreren (unveränderten) Farbbildern in der Folge von Bildern, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach ersetzt. Als Reaktion auf das Erkennen eines zweiten Teils der zweiten Eingabe wird die gesamte Folge von Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge, wobei alle Bilder in Farbe angezeigt werden.
  • Nach dem Abändern des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern: zeigt (2410) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung eine zweite Eingabe. Als Reaktion auf das Erkennen der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das stellvertretende Bild ohne Abänderung und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an.
  • Somit gibt die Vorrichtung in einigen Ausführungsformen als Reaktion auf das Erkennen der zweiten Eingabe das erweiterte Foto mit keinem der Bilder abgeändert wieder, wobei mit einem Bild angefangen wird, das vor dem Erfassen des stellvertretenden Bildes erfasst wurde (z. B. angefangen mit dem Anfangsbild in der Folge von Bildern), anstatt die Wiedergabe durch Anzeigen von Bildern, die von der Kamera nach dem stellvertretenden Bild erfasst wurden, zu beginnen.
  • Nach dem Abändern des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern: zeigt (2412) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung einen ersten Teil einer zweiten Eingabe. Als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe ersetzt die Vorrichtung das Anzeigen des abgeänderten stellvertretenden Bildes durch das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach. In einigen Ausführungsformen werden somit als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe das eine oder die mehreren (unveränderten) Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, aufeinanderfolgend angezeigt. In einigen Ausführungsformen zeigt die Vorrichtung eine überblendende Animation zwischen dem abgeänderten stellvertretenden Bild und dem einen oder den mehreren (unveränderten) Bildern an, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (wie z. B. in 20C gezeigt ist).
  • Nach dem Erkennen des ersten Teils der zweiten Eingabe erkennt die Vorrichtung einen zweiten Teil der zweiten Eingabe (z. B. erkennt sie weiterhin eine(n) Kontakt und/oder Intensität in einer Fingergeste). Als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das abgeänderte stellvertretende Bild und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an (wie z. B. in 20D gezeigt ist).
  • Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe die gesamte Folge von Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge, wobei lediglich das stellvertretende Bild abgeändert ist. Zum Beispiel wird das stellvertretende Bild abgeändert, indem es in ein Schwarzweißbild umgewandelt wird, während die anderen Bilder in der Folge Farbbilder bleiben. Während das schwarz-weiße stellvertretende Bild angezeigt wird, wird ein erster Teil einer Eingabe (z. B. eine Drücken-und-Halten-Geste oder eine Fest-Drücken-Geste) erkannt. Als Reaktion darauf wird das Anzeigen des schwarz-weißen stellvertretenden Bildes durch das Anzeigen von einem oder mehreren (unveränderten) Farbbildern in der Folge von Bildern, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach ersetzt. Als Reaktion auf das Erkennen eines zweiten Teils der zweiten Eingabe wird die gesamte Folge von Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge, wobei alle Bilder in Farbe angezeigt werden, mit Ausnahme des stellvertretenden Bildes, das in schwarz-weiß angezeigt wird.
  • Nach dem Abändern des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern: zeigt (2414) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung eine zweite Eingabe. Als Reaktion auf das Erkennen der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das abgeänderte stellvertretende Bild und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an.
  • Somit gibt die Vorrichtung in einigen Ausführungsformen als Reaktion auf das Erkennen der zweiten Eingabe das erweiterte Foto mit lediglich dem stellvertretenden Bild abgeändert wieder, wobei mit einem Bild angefangen wird, das vor dem Erfassen des stellvertretenden Bildes erfasst wurde (z. B. angefangen mit dem Anfangsbild in der Folge von Bildern), anstatt die Wiedergabe durch Anzeigen von Bildern, die von der Kamera nach dem stellvertretenden Bild erfasst wurden, zu beginnen.
  • Nach dem Abändern des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern: zeigt (2416) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung einen ersten Teil einer zweiten Eingabe. Als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe ersetzt die Vorrichtung das Anzeigen des abgeänderten stellvertretenden Bildes durch das Anzeigen von zumindest einigen des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach. In einigen Ausführungsformen werden somit als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe das eine oder die mehreren (unveränderten) Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, aufeinanderfolgend angezeigt. In einigen Ausführungsformen zeigt die Vorrichtung eine überblendende Animation zwischen dem abgeänderten stellvertretenden Bild und dem einen oder den mehreren (unveränderten) Bildern an, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden (wie z. B. in 20G gezeigt ist).
  • Nach dem Erkennen des ersten Teils der zweiten Eingabe erkennt die Vorrichtung einen zweiten Teil der zweiten Eingabe (z. B. erkennt sie weiterhin eine(n) Kontakt und/oder Intensität in einer Fingergeste). Als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an (wie z. B. in 20H gezeigt ist).
  • Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe die gesamte Folge von Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge, außer, dass das stellvertretende Bild nicht angezeigt wird (z. B. wird das abgeänderte stellvertretende Bild bei der ersten vollständigen Wiedergabe des erweiterten Fotos weggelassen). In einigen Ausführungsformen fährt die Vorrichtung mit dem Wiederholen der Folge von Bildern so lange fort, wie die Eingabe aufrechterhalten bleibt (z. B. eine Drücken-und-Halten-Geste und/oder ein festes Drücken mit einer Intensität über einer vordefinierten Schwelle).
  • Nach dem Abändern des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, abzuändern: zeigt (2418) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung eine zweite Eingabe. Als Reaktion auf das Erkennen der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und zumindest einige des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an.
  • Somit gibt die Vorrichtung in einigen Ausführungsformen als Reaktion auf das Erkennen der zweiten Eingabe das erweiterte Foto mit dem stellvertretenden Bild ausgelassen und den restlichen Bildern unverändert wieder, wobei mit einem Bild angefangen wird, das vor dem Erfassen des stellvertretenden Bildes erfasst wurde (z. B. angefangen mit dem Anfangsbild in der Folge von Bildern), anstatt die Wiedergabe durch Anzeigen von Bildern, die von der Kamera nach dem stellvertretenden Bild erfasst wurden, zu beginnen.
  • Nach dem Abändern des stellvertretenden Bildes, des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden: zeigt (2420) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung einen ersten Teil einer zweiten Eingabe. Als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe ersetzt die Vorrichtung das Anzeigen des abgeänderten stellvertretenden Bildes durch das Anzeigen von zumindest einigen des einen oder der mehreren abgeänderten Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach. In einigen Ausführungsformen werden somit als Reaktion auf das Erkennen des ersten Teils der zweiten Eingabe das eine oder die mehreren abgeänderten Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, aufeinanderfolgend angezeigt (wie z. B. in 20J gezeigt ist).
  • Nach dem Erkennen des ersten Teils der zweiten Eingabe erkennt die Vorrichtung einen zweiten Teil der zweiten Eingabe (z. B. erkennt sie weiterhin eine(n) Kontakt und/oder Intensität in einer Fingergeste). Als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren abgeänderten Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das abgeänderte stellvertretende Bild und zumindest einige des einen oder der mehreren abgeänderten Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an (wie z. B. in 20K gezeigt ist).
  • Somit wird in einigen Ausführungsformen als Reaktion auf das Erkennen des zweiten Teils der zweiten Eingabe die gesamte Folge von abgeänderten Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge. Zum Beispiel werden die Bilder in der Folge abgeändert, indem sie von Farb- in Schwarzweißbilder umgewandelt werden. Während das schwarz-weiße stellvertretende Bild angezeigt wird, wird ein erster Teil einer Eingabe (z. B. eine Drücken-und-Halten-Geste oder eine Fest-Drücken-Geste) erkannt. Als Reaktion darauf wird das Anzeigen des schwarz-weißen stellvertretenden Bildes durch das Anzeigen von einem oder mehreren Schwarzweißbildern in der Folge von Bildern, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach ersetzt. Als Reaktion auf das Erkennen eines zweiten Teils der zweiten Eingabe wird die gesamte Folge von Bildern wiedergegeben, vom Anfangsbild bis zum letzten Bild in der Folge, wobei alle Bilder in schwarz-weiß angezeigt werden.
  • Nach dem Abändern des stellvertretenden Bildes, des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden: zeigt (2422) die Vorrichtung in einigen Ausführungsformen das abgeänderte stellvertretende Bild auf der Anzeige an. Während des Anzeigens des abgeänderten stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung eine zweite Eingabe. Als Reaktion auf das Erkennen der zweiten Eingabe zeigt die Vorrichtung zumindest einige des einen oder der mehreren abgeänderten Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, das abgeänderte stellvertretende Bild und zumindest einige des einen oder der mehreren abgeänderten Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, der Reihe nach an.
  • Somit gibt die Vorrichtung in einigen Ausführungsformen als Reaktion auf das Erkennen der zweiten Eingabe das erweiterte Foto mit allen der Bilder abgeändert wieder, wobei mit einem Bild angefangen wird, das vor dem Erfassen des stellvertretenden Bildes erfasst wurde (z. B. angefangen mit dem Anfangsbild in der Folge von Bildern), anstatt die Wiedergabe durch Anzeigen von Bildern, die von der Kamera nach dem stellvertretenden Bild erfasst wurden, zu beginnen.
  • In einigen Ausführungsformen erkennt (2424) die Vorrichtung eine zweite Eingabe, die einer Anforderung zum Löschen des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, entspricht. Als Reaktion auf das Erkennen der zweiten Eingabe löscht die Vorrichtung das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, und das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, (oder markiert diese zum Löschen) (z. B. löscht sie alle der zusätzlichen Bilder in dem erweiterten Foto, mit Ausnahme des stellvertretenden Bildes, ohne eine zusätzliche Benutzereingabe nach der zweiten Eingabe).
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 24A24E beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 2408 und 2410 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2500, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 24A24E beschriebene Verfahren 2400 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 2400 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2500, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 25A25C veranschaulichen einen Ablaufplan eines Verfahrens 2500 zum Senden von Bildern aus einer Folge von Bildern an eine zweite elektronische Vorrichtung in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 2500 wird an einer ersten elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und optional einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 2500 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • In Übereinstimmung mit einigen Ausführungsformen ermöglicht es das Verfahren 2500 einer Benutzerin, ihre erweiterten Fotos mit Vorrichtungen von anderen Benutzern zu teilen, wenn die Vorrichtungen der anderen Benutzer so konfiguriert sind, dass sie mit erweiterten Fotos interagieren können (z. B. kompatibel sind). Zu diesem Zweck beinhaltet das Verfahren 2500 das Ermitteln, ob eine ferne elektronische Vorrichtung so konfiguriert ist, dass sie mit erweiterten Fotos interagieren kann, und wenn die ferne elektronische Vorrichtung so konfiguriert ist, dass sie mit erweiterten Fotos interagieren kann, beinhaltet das Verfahren 2500 das Reagieren auf eine Anforderung zum Senden eines erweiterten Fotos durch Anzeigen eines ersten Satzes von Teilenoptionen (der z. B. eine Option zum Senden des erweiterten Fotos beinhaltet). Wenn die ferne elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit erweiterten Fotos interagieren kann, beinhaltet das Verfahren 2500 das Reagieren auf eine Anforderung zum Senden eines erweiterten Fotos durch Anzeigen eines zweiten Satzes von Teilenoptionen (der z. B. das Senden lediglich eines stellvertretenden Bildes oder das Umwandeln des erweiterten Fotos in ein Video- oder GIF-Format beinhaltet).
  • Die erste elektronische Vorrichtung zeigt (2502) auf einer Anzeige ein stellvertretendes Bild in einer Benutzerschnittstelle einer Anwendung, die so konfiguriert ist, dass sie mit anderen elektronischen Vorrichtungen kommunizieren kann, an. Zum Beispiel wird das stellvertretende Bild in einem Eingabebereich für eine Messaging-Anwendung (z. B. iMessage von Apple Inc. aus Cupertino, Kalifornien), eine Social-Networking-Anwendung (z. B. Twitter oder Facebook), einen Ad-hoc-Netzwerkdienst (z. B. AirDrop von Apple Inc. aus Cupertino, Kalifornien) oder eine E-Mail-Anwendung (z. B. Mail von Apple Inc. aus Cupertino, Kalifornien) angezeigt.
  • Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die Folge von Bildern aufgenommen hat, Teil der ersten elektronischen Vorrichtung. In einigen Ausführungsformen wurde die Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der ersten elektronischen Vorrichtung ist (z. B. wurde die jeweilige Folge von Bildern an die erste elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • In einigen Ausführungsformen wird die Anwendung, die so konfiguriert ist, dass sie mit anderen elektronischen Vorrichtungen kommunizieren kann, als Reaktion auf das Erkennen des Auswählens eines Anwendungssymbols, das der Anwendung entspricht, in einer Teilen-Benutzerschnittstelle angezeigt (2504) (z. B. ein Teilen-Menü wie zum Beispiel ein Share Sheet in iOS von Apple Inc. aus Cupertino, Kalifornien). In einigen Ausführungsformen wird das stellvertretende Bild in der Teilen-Benutzerschnittstelle angezeigt, und die Teilen-Benutzerschnittstelle ist so konfiguriert, dass sie Interaktionen mit der Folge von Bildern als Gruppe anzeigt (wie zum Beispiel die unter Bezugnahme auf die 6A6FF beschriebenen Interaktionen). In einigen Ausführungsformen wird die Teilen-Benutzerschnittstelle als Reaktion auf das Auswählen eines Teilensymbols angezeigt, während das stellvertretende Bild in einer Bildverwaltungsanwendung (z. B. Photos von Apple Inc. aus Cupertino, Kalifornien) angezeigt wird.
  • Während des Anzeigens des stellvertretenden Bildes auf der Anzeige erkennt (2506) die Vorrichtung eine Eingabe, die einer Anforderung zum Senden des stellvertretenden Bildes oder einer Anforderung zum Auswählen des stellvertretenden Bildes zum Senden (z. B. Erkennen eines Aktivierens eines „Senden”-Symbols oder eines „Fotoauswählen”-Symbols durch eine Tippgeste auf einer berührungsempfindlichen Oberfläche der ersten elektronischen Vorrichtung oder einen Mausklick) an eine zweite elektronische Vorrichtung, die sich entfernt von der ersten elektronischen Vorrichtung befindet, unter Verwendung der Anwendung entspricht.
  • Als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Senden des stellvertretenden Bildes oder der Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an die zweite elektronische Vorrichtung entspricht: Infolge eines Feststellens, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann (z. B. ist die zweite elektronische Vorrichtung so konfiguriert, dass sie die unter Bezugnahme auf die 6A6FF beschriebenen Interaktionen durchführt), zeigt (2508) die erste elektronische Vorrichtung einen ersten Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung an (wie z. B. in 21C und/oder 211 gezeigt ist); und infolge eines Feststellens, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, zeigt die erste elektronische Vorrichtung einen zweiten Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung an, wobei sich der zweite Satz von Optionen von dem ersten Satz von Optionen unterscheidet (wie z. B. in 21D und/oder 21J gezeigt ist).
  • In einigen Ausführungsformen beinhaltet das Feststellen, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, Fälle, in denen nicht festgestellt werden kann, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann. In einigen Ausführungsformen wird, wenn nicht festgestellt werden kann, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, schlussgefolgert, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann.
  • In einigen Ausführungsformen beruht das Feststellen, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, zumindest teilweise auf dem Ermitteln des von der zweiten elektronischen Vorrichtung verwendeten Betriebssystems. In einigen Ausführungsformen sendet die erste elektronische Vorrichtung als Alternative zum Präsentieren des ersten Satzes von Optionen in Übereinstimmung mit einem Feststellen, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, automatisch die Folge von Bildern (z. B. sendet sie die gesamte Folge von Bildern, mit der als Gruppe interagiert werden soll, ohne weiteren Benutzereingriff, nachdem der Benutzer die „Senden”-Schaltfläche gedrückt hat). In einigen Ausführungsformen sendet die erste elektronische Vorrichtung in Übereinstimmung mit einem Feststellen, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, automatisch das stellvertretende Bild, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, zu senden, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, zu senden.
  • In einigen Ausführungsformen beinhaltet (2510) der erste Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung eine Option zum Senden der gesamten Folge von Bildern (z. B. beinhaltet der erste Satz von Optionen eine Option zum Senden der Folge von Bildern als erweitertes Foto).
  • In einigen Ausführungsformen beinhaltet (2512) der zweite Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung eine Option zum Umwandeln von zumindest einem Teil der Folge von Bildern in ein Video-Format (z. B. ein MPEG-Format). In einigen Ausführungsformen beinhaltet der zweite Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung eine Option zum Umwandeln von zumindest einem Teil der Folge von Bildern in ein Format, für das die zweite elektronische Vorrichtung zum Interagieren damit konfiguriert ist. In einigen Ausführungsformen beinhaltet der zweite Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung eine Option zum Umwandeln von zumindest einem Teil der Folge von Bildern in ein animiertes Bildformat (z. B. ein GIF-Format).
  • In einigen Ausführungsformen zeigt, wenn die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, anstelle des Sendens des stellvertretenden Bildes ohne Senden von anderen Bildern in der Folge von Bildern ein Menü (z. B. ein Aufklappmenü) an, das einem Benutzer die Option bietet, die Folge von Bildern (und in einigen Ausführungsformen Ton, welcher der Folge von Bildern entspricht) in einen Videoclip und/oder ein animiertes GIF umzuwandeln. Als Reaktion auf eine Benutzerauswahl einer „Zu-Video-konvertieren”- und/oder „Als-Video-senden”-Option wird ein Video, das der Folge von Bildern entspricht, an die zweite elektronische Vorrichtung gesendet. Als Reaktion auf eine Benutzerauswahl einer „Zu-Video-konvertieren”- und/oder „Als-Video-senden”-Option wandelt die erste elektronische Vorrichtung in einigen Ausführungsformen die Folge von Bildern in ein Video um und sendet das Video an die zweite elektronische Vorrichtung. Als Reaktion auf eine Benutzerauswahl einer „Zu-GIF-konvertieren”- und/oder „Als-GIF-senden”-Option wird ein animiertes GIF, das der Folge von Bildern entspricht, an die zweite elektronische Vorrichtung gesendet. Als Reaktion auf eine Benutzerauswahl einer „Zu-GIF-konvertieren”- und/oder „Als-GIF-senden”-Option wandelt die erste elektronische Vorrichtung in einigen Ausführungsformen die Folge von Bildern in ein animiertes GIF um und sendet das GIF an die zweite elektronische Vorrichtung.
  • In einigen Ausführungsformen beinhaltet (2514) der erste Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung eine Option zum Umwandeln von zumindest einem Teil der Folge von Bildern in ein Video-Format (z. B. ein MPEG-Format). In einigen Ausführungsformen zeigt die erste elektronische Vorrichtung ein Menü (z. B. ein Sendeoptionenmenü) an, das einem Benutzer die Option bietet, die Folge von Bildern (und in einigen Ausführungsformen Ton, welcher der Folge von Bildern entspricht) in einen Videoclip und/oder ein animiertes GIF umzuwandeln, unabhängig davon, ob die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann. Somit wird, wenn eine derartige Option ausgewählt wird, anstelle der Folge von Bildern (mit oder ohne zugehörige(n) Ton und/oder Metadaten) ein Video oder ein animiertes GIF an die zweite elektronische Vorrichtung gesendet, selbst wenn die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann.
  • In einigen Ausführungsformen zeigt die erste elektronische Vorrichtung ein Menü (z. B. ein Export-, „Senden-als”- oder „Umwandeln-in”-Menü) an, das einem Benutzer die Option bietet, die Folge von Bildern (und in einigen Ausführungsformen Ton, welcher der Folge von Bildern entspricht) in einen Videoclip und/oder ein animiertes GIF umzuwandeln. Wenn eine derartige Option ausgewählt wird, wird die Folge von Bildern (mit oder ohne zugehörige(n) Ton und/oder Metadaten) entsprechend der ausgewählten Option in ein Video oder ein animiertes GIF umgewandelt.
  • In einigen Ausführungsformen sendet (2516) die erste elektronische Vorrichtung in Übereinstimmung mit dem Feststellen, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann (z. B. ist die zweite elektronische Vorrichtung so konfiguriert ist, dass sie die in Bezug auf die 6A6FF beschriebenen Interaktionen durchführen kann), einen Ton, welcher der Folge von Bildern entspricht. Wenn zum Beispiel der erste Satz von Optionen eine Option zum Senden der gesamten Folge von Bildern (z. B. Senden des erweiterten Fotos) beinhaltet und der Benutzer der ersten elektronischen Vorrichtung die Option zum Senden der gesamten Folge von Bildern auswählt, sendet die erste elektronische Vorrichtung den Ton an die zweite elektronische Vorrichtung, sodass der Benutzer der zweiten elektronischen Vorrichtung das erweiterte Foto mit Ton wiedergeben kann, wie unter Bezugnahme auf die 6F6I beschrieben ist.
  • In einigen Ausführungsformen sendet (2518) die erste elektronische Vorrichtung in Übereinstimmung mit dem Feststellen, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann (z. B. ist die zweite elektronische Vorrichtung so konfiguriert ist, dass sie die in Bezug auf die 6A6FF beschriebenen Interaktionen durchführen kann), Metadaten, die der ersten Folge von Bildern entsprechen. Wenn zum Beispiel der erste Satz von Optionen eine Option zum Senden der gesamten Folge von Bildern (z. B. Senden des erweiterten Fotos) beinhaltet und der Benutzer der ersten elektronischen Vorrichtung die Option zum Senden der gesamten Folge von Bildern auswählt, sendet die erste elektronische Vorrichtung die Metadaten an die zweite elektronische Vorrichtung, sodass der Benutzer der zweiten elektronischen Vorrichtung das erweiterte Foto mit Metadaten wiedergeben kann, wie unter Bezugnahme auf die 6J6M beschrieben ist. In einigen Ausführungsformen werden Metadaten wie zum Beispiel Zeit, Datum, Standort (z. B. über GPS), Wetter, Musik, die abgespielt wurde, als die Folge von Bildern erfasst wurde (z. B. Musik, die mit einer Musikidentifizierungssoftware in der ersten elektronischen Vorrichtung wie zum Beispiel Shazam, SoundHound oder Midomi identifiziert wurde), lokale Ereignisinformationen (wie zum Beispiel ein Sportspiel, das zu der Zeit und an dem Ort stattfand, wo die erste Folge von Bildern erfasst wurde), Informationen nach dem Ereignis (wie zum Beispiel ein Endstand) usw. für die Folge von Bildern mit der Folge von Bildern verknüpft (oder dieser anderweitig zugeordnet).
  • In einigen Ausführungsformen beinhaltet (2520) der zweite Satz von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung eine Option zum Senden des stellvertretenden Bildes, ohne das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, zu senden, und ohne das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, zu senden (z. B. Senden des stellvertretenden Bildes als Standbild).
  • In einigen Ausführungsformen ermittelt (2522) die erste elektronische Vorrichtung, ob sich die erste elektronische Vorrichtung in einem ersten Modus befindet, der das Senden der Folge von Bildern (z. B. als Gruppe) zulässt. In Übereinstimmung mit einem Feststellen, dass sich die erste elektronische Vorrichtung nicht in dem ersten Modus befindet, der das Senden der Folge von Bildern als Gruppe zulässt, ändert die erste elektronische Vorrichtung den ersten Satz von Optionen zum Senden von zumindest dem Teil der Folge von Bildern an die zweite elektronische Vorrichtung ab. In einigen Ausführungsformen muss sich die erste elektronische Vorrichtung zum Senden der Folge von Bildern anstatt des Sendens von lediglich dem stellvertretenden Bild zusätzlich zum Feststellen, die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, auch in einem Modus befinden, der das Senden der Folge von Bildern als Gruppe zulässt, anstatt in einem Modus, der lediglich das Senden eines Standbildes (z. B. des stellvertretenden Bildes) aus der Folge von Bildern zulässt. In einigen Ausführungsformen kann ein Benutzer zwischen diesen beiden Modi unter Verwendung einer Aufforderung wie zum Beispiel der Umschalttaste 2006 wählen, wie in 20B gezeigt ist.
  • In einigen Ausführungsformen erkennt (2524) die erste elektronische Vorrichtung während des Anzeigens des stellvertretenden Bildes auf der Anzeige (und eines der Sätze von Optionen) eine zweite Eingabe. Als Reaktion auf das Erkennen der zweiten Eingabe ersetzt die erste elektronische Vorrichtung das Anzeigen des stellvertretenden Bildes durch das Anzeigen von zumindest einigen der Bilder in der Folge von Bildern der Reihe nach. In einigen Ausführungsformen ist die erste elektronische Vorrichtung so konfiguriert, dass sie das erweiterte Foto wiedergibt, während sie die Teilenoptionen anzeigt, was der Benutzerin dabei helfen kann, zu entscheiden, wie sie das Foto teilen möchte (z. B. als erweitertes Foto, als Video, als GIF oder als Standbild).
  • In einigen Ausführungsformen beinhaltet (2526) die erste elektronische Vorrichtung eine berührungsempfindliche Oberfläche und einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. Die zweite Eingabe beinhaltet einen Fingerkontakt, der erste Kontaktintensitätskriterien erfüllt. Wenn zum Beispiel der Satz von Optionen angezeigt wird, gibt ein festes Drücken auf das stellvertretende Bild das erweiterte Foto wieder.
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 25A25C beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 2510 und 2512 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2600 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 25A25C beschriebene Verfahren 2500 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 2500 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2600 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • Die 26A26D veranschaulichen einen Ablaufplan eines Verfahrens 2600 zum Erfassen von Fotos (z. B. erweiterten Fotos oder Standfotos) unter Verwendung einer Szenenerkennung in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 2600 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige, einer Kamera und optional einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 2600 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • In Übereinstimmung mit einigen Ausführungsformen führt die Vorrichtung eine Szenenerkennung durch, während sie Bilder von der Kamera einfängt. Als Reaktion auf das Aktivieren eines Verschlusses ermittelt die Vorrichtung beruhend auf der Szenenerkennung, ob eine Folge von Bildern (z. B. als erweitertes Foto) zu behalten ist oder ein Standbild zu behalten ist. Wenn die Szene zum Beispiel viel Bewegung beinhaltet, behält die Vorrichtung automatisch ein erweitertes Foto. Wenn die Szene als anderes Beispiel eine große Menge an Text beinhaltet (z. B. ist die „Szene” lediglich eine Quittung oder eine Seite aus einem Buch), behält die Vorrichtung ein Standbild.
  • Während sich die Kamera in einem ersten Medienerfassungsmodus befindet (z. B. einem Modus, der als Auto-Standbild/erweitertes-Foto-Modus bezeichnet wird): zeigt (2602) die Vorrichtung zu diesem Zweck eine Live-Vorschau einer Szene auf der Anzeige an.
  • Die Vorrichtung führt (2604) für die Szene eine Szenenerkennung durch. In einigen Ausführungsformen beinhaltet das Durchführen einer Szenenerkennung das Erkennen von Gesichtern in der Szene, das Erkennen von Bewegung in der Szene, das Erkennen von Text in der Szene, das Erkennen, ob die Szene im Haus oder im Freien stattfindet (z. B. das Erkennen eines Schwellwerts der Helligkeit und/oder das Erkennen der Sonne) und/oder das Erkennen einer Schärfentiefe (z. B. das Ermitteln, ob die Szene eine Landschaft darstellt).
  • Während des Anzeigens der Live-Vorschau der Szene erkennt (2606) die Vorrichtung eine einzelne Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt. In einigen Ausführungsformen beinhaltet das Erkennen einer einzelnen Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt das Erkennen des Drückens eines physischen Knopfes zum ersten Zeitpunkt oder das Erkennen einer Geste auf einem virtuellen Auslöseknopf auf einer berührungsempfindlichen Anzeige zum ersten Zeitpunkt wie zum Beispiel eine Tippgeste auf einem Verschlussauslösungssymbol oder eine Tippgeste auf die Live-Vorschau, wobei die Live-Vorschau als virtueller Auslöseknopf dient). In einigen Ausführungsformen handelt es sich bei der erkannten Aktivierung um eine einzelne Aktivierung des Auslöseknopfes (z. B. analog zu einer einzelnen Aktivierung, die in einer herkömmlichen Digitalkamera zum Einfangen eines Einzelbildes im Einzelbildmodus einer herkömmlichen Digitalkamera verwendet wird). In einigen Ausführungsformen erfordert es die einzelne Aktivierung des Auslöseknopfes nicht, dass die Aktivierung für irgendeine bestimmte Zeitdauer beibehalten wird (z. B. reicht jede beliebige erkennbare Aktivierung des Auslöseknopfes aus, unabhängig von der Länge, für welche die Aktivierung beibehalten wird).
  • Als Reaktion auf das Erkennen (2608) der einzelnen Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Infolge eines zumindest teilweise auf der für die Szene durchgeführten Szenenerkennung beruhenden Feststellens, dass die Szene Kriterien zum Einfangen einer Aktion erfüllt (z. B. Kriterien, die eine Aktivität in einer Szene betreffen), behält die Vorrichtung mehrere der Bilder, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, und gruppiert die mehreren Bilder in eine erste Folge von Bildern (z. B. behält die Vorrichtung ein erweitertes Foto der Szene, wie in den 22C22D gezeigt ist).
  • Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • Infolge eines Feststellens, dass die Szene die Kriterien zum Einfangen einer Aktion nicht erfüllt, behält die Vorrichtung ein Einzelbild in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt (ohne mehrere Bilder, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, in eine erste Folge von Bildern zu gruppieren, wie in den 22A22B gezeigt ist).
  • In einigen Ausführungsformen handelt es sich bei den Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um eine vordefinierte Anzahl von Bildern wie zum Beispiel 5, 10, 15, 20, 25 oder 30 Bilder. In einigen Ausführungsformen handelt es sich bei den Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne vor dem ersten Zeitpunkt befinden, wie zum Beispiel innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden vor dem ersten Zeitpunkt. In einigen Ausführungsformen stammen die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, aus einem Zeitraum zwischen einem zweiten Zeitpunkt (vor dem ersten Zeitpunkt) und dem ersten Zeitpunkt, und die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, sind unabhängig von einer Interaktion mit dem Auslöseknopf, die zeitlich nahe an dem zweiten Zeitpunkt liegt. Zum Beispiel werden die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, nicht als Reaktion auf das Erkennen einer Interaktion mit dem Auslöseknopf erfasst, die zeitlich nahe an dem zweiten Zeitpunkt legt. Zum Beispiel werden die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, nicht als Reaktion auf das Erkennen einer teilweisen (oder vollständigen) Aktivierung des Auslöseknopfes zum oder nahe am zweiten Zeitpunkt erfasst.
  • In einigen Ausführungsformen beginnt die Vorrichtung mit dem Erfassen und Speichern von Bildern beim Eintreten in den ersten Medienerfassungsmodus.
  • In einigen Ausführungsformen erfüllen die mehreren Bilder in der ersten Folge von Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst werden, vordefinierte Gruppierungskriterien. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern vor dem stellvertretenden Bild. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Erkennen der Aktivierung des Auslöseknopfes. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern beruhend auf einer Szenenerkennung und/oder Bewegung der Vorrichtung (z. B. verwirft die Vorrichtung Bilder, die erhalten wurden, als sich die Vorrichtung zu sehr bewegt hat, um zum Beispiel Bilder zu verwerfen, die aufgenommen wurden, als der Benutzer die Vorrichtung hochgehoben hat).
  • In einigen Ausführungsformen wird das das stellvertretende Bild von der Kamera zum ersten Zeitpunkt erfasst und ist analog zu dem Einzelbild, das in dem Standbildmodus einer herkömmlichen Digitalkamera eingefangen wird, wenn deren Auslöseknopf aktiviert wird. In einigen Ausführungsformen entspricht das von der Kamera erfasste stellvertretende Bild einem Bild, das zum ersten Zeitpunkt erfasst wurde. In einigen Ausführungsformen entspricht das von der Kamera erfasste stellvertretende Bild einem Bild, das kurz nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurde, zu einem Zeitpunkt, der die Auslöseverzögerung berücksichtigt (die Zeitverzögerung zwischen dem Erkennen der Aktivierung des Auslöseknopfes und dem Einfangen/Speichern des stellvertretenden Bildes). In einigen Ausführungsformen wird das von der Kamera erfasste stellvertretende Bild zum Darstellen der Folge von Bildern verwendet, zum Beispiel in einem Bildpräsentationsmodus.
  • In einigen Ausführungsformen beinhaltet die erste Folge von Bildern eine vordefinierte Anzahl von Bildern – wie zum Beispiel 5, 10, 15, 20, 25 oder 30 Bilder – die nach dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen handelt es sich bei den Bildern, die nach dem Erfassen des stellvertretenden Bildes erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne nach dem Erfassen des stellvertretenden Bildes befinden, wie zum Beispiel innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden nach dem Erfassen des stellvertretenden Bildes. In einigen Ausführungsformen beinhaltet die erste Folge von Bildern eine vordefinierte Anzahl von Bildern – wie zum Beispiel 5, 10, 15, 20, 25 oder 30 Bilder – die nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden. In einigen Ausführungsformen handelt es sich bei den Bildern, die nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder, die sich innerhalb einer vordefinierten Zeitspanne nach dem ersten Zeitpunkt befinden, wie zum Beispiel innerhalb von 0,5, 1,0, 1,5, 2,0 oder 2,5 Sekunden nach dem ersten Zeitpunkt. In einigen Ausführungsformen erfüllen die mehreren Bilder in der ersten Folge von Bildern, die nach dem Erfassen des stellvertretenden Bildes erfasst werden, vordefinierten Gruppierungskriterien. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern nach dem stellvertretenden Bild. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar nach dem Erkennen der Aktivierung des Auslöseknopfes. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar nach dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird. In einigen Ausführungsformen beinhalten die vordefinierten Gruppierungskriterien das Auswählen von Bildern beruhend auf einer Szenenerkennung und/oder Bewegung der Vorrichtung.
  • In einigen Ausführungsformen beinhalten (2610) die Kriterien zum Einfangen einer Aktion das Erkennen von einem oder mehreren Gesichtern in der Szene. Wenn die Vorrichtung mindestens ein Gesicht in der Szene erkennt, behält die Vorrichtung in einigen Ausführungsformen die mehreren Bilder bei und gruppiert diese.
  • In einigen Ausführungsformen beinhaltet (2612) die Vorrichtung Standard-Bildeinfangparameter zum Erfassen von Bildern. Die Vorrichtung stellt fest (2614), dass die Szene ein einzelnes Gesicht im Hochformat enthält, wobei das einzelne Gesicht mehr als einen vorher festgelegten Anteil der Anzeige einnimmt. Als Reaktion auf das Feststellen, dass die Szene ein einzelnes Gesicht im Hochformat enthält, wobei das einzelne Gesicht mehr als einen vorher festgelegten Anteil der Anzeige einnimmt: erfasst (2616) die Vorrichtung die mehreren Bilder mit Bildeinfangparametern, die sich von den Standard-Bildeinfangparameter unterscheiden (z. B. eine höhere Bildwiederholrate zum Einfangen von kleinen Änderungen im Ausdruck haben, eine höhere Auflösung zum besseren Einfangen von Details aufweisen, usw.) (und/oder behält diese).
  • In einigen Ausführungsformen beinhalten (2618) die Kriterien zum Einfangen einer Aktion das Erkennen von Bewegung in der Szene (z. B. das Erkennen von Bewegung (z. B. in der Live-Vorschau) über einem vorher festgelegten Schwellwert). Wenn die Vorrichtung mindestens einen vorher festgelegten Schwellenbetrag von Bewegung in der Szene erkennt, behält die Vorrichtung in einigen Ausführungsformen die mehreren Bilder und gruppiert diese.
  • In einigen Ausführungsformen beinhaltet (2620) das Durchführen einer Szenenerkennung für die Szene das Bestimmen eines Ausmaßes von Bewegung in der Szene. Das Behalten der mehreren Bilder, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden beinhaltet: Infolge eines Feststellens, dass das Ausmaß von Bewegung ein erstes Ausmaß beträgt, Behalten der mehreren Bilder mit einer ersten Bildwiederholrate; und infolge eines Feststellens, dass das Ausmaß von Bewegung ein zweites Ausmaß beträgt, das größer als das erste Ausmaß ist, Behalten von Bildern mit einer zweiten Bildwiederholrate, die höher ist als die erste Bildwiederholrate.
  • In bestimmten Fällen bewegt sich die elektronische Vorrichtung selbst (z. B. wird sie geschwenkt und/oder verschoben). In einigen Ausführungsformen beinhalten (2622) die Kriterien zum Einfangen einer Aktion das Erkennen der Bewegung der elektronischen Vorrichtung über einem vorher festgelegten Schwellwert. In einigen Ausführungsformen weisen bestimmte Eigenschaften der Bewegung der Vorrichtung darauf hin, dass die Vorrichtung auf eine sich bewegende Szene gerichtet ist (z. B. wird die Vorrichtung geschwenkt, während sie im Wesentlichen waagrecht bleibt). Wenn die Vorrichtung feststellt, dass die Vorrichtung auf etwas gerichtet ist, behält die Vorrichtung die mehreren Bilder und gruppiert diese. Zum Beispiel wird die Vorrichtung in bestimmten Fällen geschwenkt, um ein Subjekt zu verfolgen (z. B. einen Athleten, der einen Sport ausübt, ein Auto, das vorbeifährt, usw.). In einigen Ausführungsformen beinhaltet das Erkennen der Bewegung der elektronischen Vorrichtung das Erkennen der Beschleunigung der Vorrichtung unter Verwendung der Beschleunigungsmesser 168 (1A).
  • In einigen Ausführungsformen hängt (2624) die Anzahl von Bildern der beibehaltenen mehreren Bilder von der erkannten Bewegung der Vorrichtung ab, während die mehreren Bilder erfasst wurden. Zum Beispiel erkennt die Vorrichtung, wenn sie verschoben wird (z. B. an einem Helm eines Mountainbikers oder Skifahrers befestigt). Wenn die Vorrichtung schneller verschoben wird (wie z. B. durch Vibrationen und andere schnelle Beschleunigungsänderungen angezeigt wird), behält und gruppiert die Vorrichtung die mehreren Bilder mit einer höheren Bildwiederholrate und/oder für eine längere Zeitspanne, woraus sich das Behalten einer höheren Anzahl von Bildern in den mehreren Bildern ergibt.
  • In einigen Ausführungsformen beinhaltet das Durchführen einer Szenenerkennung das Erkennen einer Landschaft mit einer Aktivität (z. B. einen Wasserfall, eine Windmühle, Bäume, deren Blätter im Wind wehen). Wenn die Vorrichtung erkennt, dass die Vorrichtung eine Landschaft mit einer Aktivität einfängt, behält die Vorrichtung die mehreren Bilder und gruppiert diese (z. B. als erweitertes Foto). In einigen Ausführungsformen werden erweiterte Fotos von Landschaften in einer Schleife wiedergegeben, sodass die Landschaftsszene kontinuierlich erscheint.
  • Umgekehrt erfasst die Vorrichtung ein Einzelbild als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt (ohne mehrere Bilder, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, in eine erste Folge von Bildern zu gruppieren), infolge eines Feststellens, dass keine Gesichter in der Szene vorhanden sind, es keine nennenswerte Bewegung in der Szene gibt und/oder die elektronische Vorrichtung selbst sich nicht bewegt (z. B. ist die Vorrichtung ortsfest). In einigen Ausführungsformen handelt es sich bei dem Einzelbild um ein Standbild, das mehrere Standbilder zusammenführt, wie zum Beispiel ein HDR-(High Dynamic Range)-Standbild.
  • In einigen Ausführungsformen weisen bestimmte Eigenschaften der Bewegung der Vorrichtung darauf hin, dass die Vorrichtung nicht auf etwas gerichtet ist (z. B. wird sie aus der Tasche des Benutzers genommen und/oder hochgehoben, um sie auf die Szene zu richten). Wenn die Vorrichtung feststellt, dass sie sich bewegt, ohne auf etwas gerichtet zu sein, behält die Vorrichtung ein Einzelbild.
  • In einigen Ausführungsformen beinhaltet (2626) das Durchführen einer Szenenerkennung für die Szene das Erkennen von Text. Die Kriterien zum Einfangen einer Aktion beinhalten ein Kriterium, das erfüllt wird, wenn eine Menge von Text in der Szene unter einer vordefinierten Schwelle liegt. In einigen Ausführungsformen erkennt die Vorrichtung, wenn das Bild eine Quittung oder ein Dokument zeigt. Wenn das Bild eine Quittung oder ein Dokument zeigt, fängt die Vorrichtung anstatt eines erweiterten Fotos ein Standbild ein.
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 26A26D beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 2610 und 2612 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2500 und 2700) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 26A26D beschriebene Verfahren 2600 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 2600 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2500 und 2700) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • 27A27D veranschaulichen einen Ablaufplan eines Verfahrens 2700 zum Kürzen einer Folge von Bildern (z. B. eines erweiterten Fotos) in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 2700 wird an einer elektronischen Vorrichtung (z. B. der Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige, einer Kamera und optional einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen beinhaltet die Vorrichtung einen oder mehrere Sensoren zum Erkennen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen handelt es sich bei der Anzeige um eine Touchscreen-Anzeige, und die berührungsempfindliche Oberfläche befindet sich auf oder ist integriert in der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in dem Verfahren 2700 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional verändert.
  • In Übereinstimmung mit einigen Ausführungsformen stellt die Vorrichtung eine Benutzerschnittstelle zum Kürzen einer Folge von Bildern auf eine Teilmenge der Folge von Bildern bereit (z. B. durch Abändern des Start- und Endbilds in der Folge von Bildern). Wenn ein Benutzer das Kürzen eines erweiterten Fotos anfordert, stellt die Vorrichtung bewegliche Identifikatoren bereit, die der Benutzer zum Abändern des Start- und Endbildes in der Folge von Bildern verwenden kann. Die anfängliche Position der Identifikatoren (z. B. wenn der Benutzer die Benutzerschnittstelle zum Kürzen der Folge von Bildern zum ersten Mal aufruft) wird automatisch durch die Vorrichtung bereitgestellt (z. B. beruhend auf einer Szenenerkennung). In einigen Ausführungsformen kann der Benutzer die Positionen der Identifikatoren zwischen dem automatisch vorgeschlagenen Start- und Endbild und dem Anfangsbild und dem letzten Bild in der Folge von Bildern umschalten. Die Verwendung der Ausdrücke „Anfangsbild” und „letztes Bild” hierin beziehen sich auf das erste und das letzte Bild in der (ursprünglichen) Folge von Bildern, während sich „Startbild” und „Endbild” auf das erste und das letzte Bild in der Teilmenge der Folge von Bildern beziehen.
  • Zu diesem Zweck zeigt (2702) die Vorrichtung ein Bild auf der Anzeige an (z. B. während sich die Vorrichtung in einem Bildbearbeitungsmodus befindet).
  • Bei dem Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein stellvertretendes Bild. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. In einigen Ausführungsformen ist die Kamera, welche die Folge von Bildern aufgenommen hat, Teil der elektronischen Vorrichtung. In einigen Ausführungsformen wurde die Folge von Bildern von einer Kamera aufgenommen, die nicht Teil der elektronischen Vorrichtung ist (z. B. wurde die Folge von Bildern an die elektronische Vorrichtung übertragen, nachdem sie mit einer Kamera auf einer anderen Vorrichtung aufgenommen wurde). In einigen Ausführungsformen wurde die Folge von Bildern als Reaktion auf das Erkennen der Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erhalten, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist. In einigen Ausführungsformen entspricht das stellvertretende Bild dem von der Kamera erfassten stellvertretenden Bild, wie hierin in Bezug auf die 5A5K und das Verfahren 900 und/oder die 22A22D und das Verfahren 2600 beschrieben ist.
  • In einigen Ausführungsformen zeigt die Vorrichtung während des Anzeigens des Bildes einen visuellen Hinweis, dass das Bild ein jeweiliges Bild in einer Folge von Bildern ist (z. B. zeigt die Vorrichtung einen Hinweis, dass das Bild aus einem erweiterten Foto stammt). In einigen Ausführungsformen handelt es sich bei dem visuellen Hinweis, dass das Bild ein jeweiliges Bild in einer Folge von Bildern ist, um eine Aufforderung (z. B. die auswählbare Aufforderung 2304, 23A). In einigen Ausführungsformen wird die Aufforderung animiert, wenn ein erweitertes Foto angezeigt wird, und die Aufforderung wird nicht animiert, wenn ein Standbild angezeigt wird. In einigen Ausführungsformen führt die Aktivierung der Aufforderung zu einem Anzeigen eines Bearbeitungsmenüs, aus dem der Benutzer eine Funktionalität zum Kürzen der Folge von Bildern auswählen kann. In einigen Ausführungsformen werden einige der Operationen des Verfahrens 2700 durchgeführt, nachdem der Benutzer die Funktionalität zum Kürzen der Folge von Bildern aktiviert hat.
  • In einigen Ausführungsformen handelt es sich (2704) bei dem angezeigten Bild um das stellvertretende Bild aus der Folge von Bildern.
  • In einigen Ausführungsformen handelt es sich (2706) bei dem angezeigten Bild um ein aktuell ausgewähltes Bild aus der Folge von Bildern. In einigen Ausführungsformen unterscheidet sich das aktuell ausgewählte Bild visuell von den anderen Bildern in der Folge von Bildern. In einigen Ausführungsformen wird das aktuell ausgewählte Bild gleichzeitig in dem zweiten Bereich (nachfolgend beschrieben) mit einer Darstellung (z. B. einer Miniaturansicht) des aktuell ausgewählten Bildes in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, angezeigt. In einigen Ausführungsformen ersetzt das Auswählen eines bestimmten Bildes das stellvertretende Bild durch das bestimmte Bild als neues stellvertretendes Bild. In einigen Ausführungsformen kann der Benutzer ein neues stellvertretendes Bild für die Folge von Bildern auswählen, indem er auf eine Miniaturansicht eines bestimmten Bildes in der Folge von Bildern tippt, um ein neues stellvertretendes Bild auszuwählen.
  • Während des Anzeigens des Bildes in der Folge von Bildern auf der Anzeige erkennt (2708) die Vorrichtung eine erste Eingabe (z. B. erkennt sie eine Eingabe, die einer Anforderung zum Anzeigen einer Benutzerschnittstelle zum Kürzen der Folge von Bildern entspricht, wie zum Beispiel eine Tippgeste auf dem Kürzen-Symbol 2310-3 in 23B).
  • Als Reaktion auf das Erkennen der ersten Eingabe: zeigt (2710) die Vorrichtung eine Benutzerschnittstelle zum Kürzen der Folge von Bildern auf eine geringere Teilmenge der Folge von Bildern. In einigen Ausführungsformen ist die Benutzerschnittstelle Teil eines Kürzungsmodus.
  • Die Benutzerschnittstelle beinhaltet: einen Bereich (z. B. einen Streifen wie zum Beispiel den Streifen 2316, 23C), der Darstellungen von Bildern in der Folge von Bildern enthält; ein durch einen Benutzer einstellbares Kürzen-anfangen-Symbol (z. B. den Start-Identifikator 2320-a, 23C), das ein Startbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-anfangen-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt; und ein durch einen Benutzer einstellbares Kürzen-beenden-Symbol (z. B. den Ende-Identifikator 2320-b, 23C), das ein Endbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-beenden-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt. In einigen Ausführungsformen sind die Darstellungen von Bildern kleiner als das angezeigte Bild. In einigen Ausführungsformen handelt es sich bei den Darstellungen von Bildern um Miniaturansichten von Bildern in der Folge von Bildern. In einigen Ausführungsformen sind die Darstellungen von Bildern in chronologischer Reihenfolge angeordnet.
  • Das Kürzen-anfangen-Symbol befindet sich an einer ersten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. Das Kürzen-beenden-Symbol befindet sich an einer zweiten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. In einigen Ausführungsformen handelt es sich bei dem Startbild für die Teilmenge, das automatisch durch die Vorrichtung ausgewählt wird (das durch die erste Position des Kürzen-anfangen-Symbols gezeigt ist), nicht um das Anfangsbild in der Folge von Bildern. In einigen Ausführungsformen handelt es sich bei dem Startbild für die Teilmenge um ein späteres Bild in der Folge von Bildern als das Anfangsbild. In einigen Ausführungsformen handelt es sich bei dem Endbild für die Teilmenge, das automatisch durch die Vorrichtung ausgewählt wird (das durch die zweite Position des Kürzen-beenden-Symbols gezeigt ist), nicht um das letzte Bild in der Folge von Bildern. In einigen Ausführungsformen handelt es sich bei dem Endbild für die Teilmenge um ein früheres Bild in der Folge von Bildern als das letzte Bild.
  • In einigen Ausführungsformen werden (2712) Darstellungen von Bildern zwischen dem Kürzen-beginnen-Symbol und dem Kürzen-beenden-Symbol von den anderen Darstellungen in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, visuell unterschieden. In einigen Ausführungsformen beinhalten sowohl die Folge von Bildern als auch die Teilmenge der Folge von Bildern einen ununterbrochenen fortlaufenden Satz von Bildern, die von der Kamera erfasst wurden.
  • In einigen Ausführungsformen beinhaltet (2714) die Benutzerschnittstelle zum Kürzen einer Folge von Bildern einen zweiten Bereich, der das Bild in der Folge von Bildern anzeigt. Der zweite Bereich wird gleichzeitig mit dem Bereich angezeigt, der Darstellungen von Bildern in der Folge von Bildern enthält. In einigen Ausführungsformen nimmt der zweite Bereich mehr als die Hälfte der Anzeige, mehr als 80% der Anzeige oder mehr als 90% der Anzeige ein. In einigen Ausführungsformen nimmt der zweite Bereich den gesamten Bereich der Anzeige ein, mit Ausnahme von optionalen Menüleisten oben und unten auf der Anzeige und dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält.
  • In einigen Ausführungsformen beruht (2716) das automatische Auswählen des Startbilds in der Teilmenge und der entsprechenden ersten Position des Kürzen-anfangen-Symbols auf einer oder mehreren Eigenschaften der Bilder in der Folge von Bildern. Das automatische Auswählen des Endbilds in der Teilmenge und der entsprechenden zweiten Position des Kürzen-anfangen-Symbols beruht auf einer oder mehreren Eigenschaften der Bilder in der Folge von Bildern. In einigen Ausführungsformen wählt die Vorrichtung das Startbild und das Endbild in der Teilmenge beruhend auf einer Szenenerkennung für die Folge von Bildern aus/schlägt diese vor.
  • In einigen Ausführungsformen beinhaltet (2718) die Folge von Bildern ein Anfangsbild und ein letztes Bild. Die Vorrichtung zeigt in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, eine oder mehrere Darstellungen von Bildern, die nicht in der Folge von Bildern beinhaltet sind, die vor dem Anfangsbild in der Folge von Bildern erhalten wurden, und/oder die nach dem letzten Bild in der Folge von Bildern erhalten wurden. In einigen Ausführungsformen ist ein Benutzer zusätzlich zum Beschneiden der ursprünglichen Folge von Bildern auch in der Lage, Bilder hinzuzufügen, die kurz vor oder kurz nach der ursprünglichen Folge von Bildern erhalten wurden.
  • In einigen Ausführungsformen erkennt (2720) die Vorrichtung vor dem Erkennen der zweiten Eingabe während des Anzeigens der Benutzerschnittstelle zum Kürzen der Folge von Bildern eine Eingabe auf dem Kürzen-beenden-Symbol. Als Reaktion auf das Erkennen der Eingabe auf dem Kürzen-beenden-Symbol bewegt die Vorrichtung das Kürzen-beenden-Symbol von der zweiten Position an eine dritte Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält. In einigen Ausführungsformen ist ein Benutzer in der Lage, das Endbild für die Teilmenge, das automatisch durch die Vorrichtung empfohlen/ausgewählt wurde, manuell aufzuheben. Gleichermaßen ist ein Benutzer in einigen Ausführungsformen in der Lage, das Startbild für die Teilmenge, das automatisch durch die Vorrichtung empfohlen/ausgewählt wurde, manuell aufzuheben, z. B. mit einer Ziehgeste, die auf dem Kürzen-anfangen-Symbol beginnt und das Kürzen-anfangen-Symbol von der ersten Position auf eine andere Position in dem Bereich bewegt, der Darstellungen von Bildern in der Folge von Bildern enthält.
  • Während des Anzeigens der Benutzerschnittstelle zum Kürzen der Folge von Bildern erkennt (2722) die Vorrichtung eine zweite Eingabe (z. B. erkennt sie eine Aktivierung des Fertig-Symbols 2301, 23C) oder eines anderen Symbols, das ein Kürzen in Übereinstimmung mit den aktuellen Positionen des Kürzen-anfangen-Symbols und des Kürzen-beenden-Symbols initiiert).
  • Als Reaktion auf das Erkennen einer zweiten Eingabe kürzt (2724) die Vorrichtung die Folge von Bildern auf die Teilmenge der Folge von Bildern in Übereinstimmung mit einer aktuellen Position des Kürzen-anfangen-Symbols und einer aktuellen Position des Kürzen-beenden-Symbols. In einigen Ausführungsformen beinhaltet das Kürzen der Folge von Bildern auf die Teilmenge der Folge von Bildern das Speichern von Daten, die eine Position des Startbilds in der Teilmenge und des Endbilds in der Teilmenge angeben.
  • In einigen Ausführungsformen löscht (2726) die Vorrichtung Bilder aus der Folge von Bildern, die nicht in der Teilmenge der Folge von Bildern beinhaltet sind. In einigen Ausführungsformen bearbeitet die Vorrichtung die Folge von Bildern so, dass sie lediglich diejenigen Bilder in der Teilmenge beinhaltet (die automatisch durch die Vorrichtung ausgewählt/vorgeschlagen und durch den Benutzer bestätigt wurden, oder die von dem Benutzer manuell ausgewählt wurden). In einigen Ausführungsformen speichert die Vorrichtung die Bilder weiterhin, die sich nicht in der Teilmenge befinden, z. B. damit der Benutzer die Folge von Bildern zu einem späteren Zeitpunkt weiter abändern kann, wobei alle der ursprünglichen Bilder in der Folge von Bildern verfügbar sind (wie sie z. B. von der Kamera erhalten wurden).
  • In einigen Ausführungsformen beinhaltet (2728) die Folge von Bildern ein Anfangsbild und ein letztes Bild, und die Benutzerschnittstelle beinhaltet eine Zurücksetzen-Aufforderung (z. B. die Zurücksetzen-Schaltfläche 2324, 23C), eine „Manuell”-Schaltfläche oder ein anderes ähnliches Symbol). Vor dem Erkennen der zweiten Eingabe während des Anzeigens der Benutzerschnittstelle zum Kürzen der Folge von Bildern erkennt die Vorrichtung eine Eingabe auf der Zurücksetzen-Aufforderung (z. B. eine Tippgeste auf der Zurücksetzen-Schaltfläche 2324, 23C). Als Reaktion auf das Erkennen der Eingabe auf der Zurücksetzen-Aufforderung: zeigt die Vorrichtung das Kürzen-anfangen-Symbol an einer Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die einem Begrenzen des Anfangsbildes in der Folge von Bildern entspricht, an; und zeigt das Kürzen-beenden-Symbol an einer Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die einem Begrenzen des letzten Bildes in der Folge von Bildern entspricht, an.
  • In einigen Ausführungsformen geschieht als Reaktion auf das Erkennen der Eingabe auf der Zurücksetzen-Aufforderung Folgendes: die Vorrichtung zeigt (2730) eine automatische Auswahl-Aufforderung (z. B. das „Auto”-Symbol 2332, 23D) an, die das Kürzen-anfangen-Symbol an der ersten Position und das Kürzen-beenden Symbol an der zweiten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, anzeigt, wenn es aktiviert ist. In einigen Ausführungsformen ersetzt das Anzeigen des „Auto”-Symbols das Anzeigen des „Zurücksetzen”-Symbols.
  • In einigen Ausführungsformen wählt (2732) die Vorrichtung als Reaktion auf das Erkennen einer dritten Eingabe ein neues stellvertretendes Bild für die Teilmenge der Folge von Bildern aus (z. B. ein Bild in der Mitte der Teilmenge oder ein Bild, das beruhend auf einer für die Teilmenge der Folge von Bildern durchgeführten Szenenerkennung ausgewählt wurde).
  • In einigen Ausführungsformen zeigt (2734) die Vorrichtung nach dem Kürzen der Folge von Bildern auf die Teilmenge der Folge von Bildern in Übereinstimmung mit der aktuellen Position des Kürzen-anfangen-Symbols und der aktuellen Position des Kürzen-beenden-Symbols ein stellvertretendes Bild der Teilmenge der Folge von Bildern auf der Anzeige an (z. B. während sich die Vorrichtung in einem Bildpräsentationsmodus befindet). In einigen Ausführungsformen ist das stellvertretende Bild der Teilmenge der Folge von Bildern das gleiche wie das stellvertretende Bild der Folge von Bildern. In einigen Ausführungsformen unterscheidet sich das stellvertretende Bild der Teilmenge der Folge von Bildern von dem stellvertretenden Bild der Folge von Bildern. In einigen Ausführungsformen wird das stellvertretende Bild der Teilmenge als Reaktion auf eine Eingabe angezeigt, die einer Anforderung zum Verlassen des Bearbeitenmodus entspricht. Während des Anzeigens des stellvertretenden Bildes auf der Anzeige erkennt die Vorrichtung eine dritte Eingabe (z. B. eine Eingabe, die einer Anforderung zum Wiedergeben der Teilmenge der Folge von Bildern entspricht, wie zum Beispiel eine Drücken-und-Halten-Geste oder eine Geste, die Kontaktintensitätskriterien für die Wiedergabe erfüllt). Als Reaktion auf das Erkennen der dritten Eingabe ersetzt die Vorrichtung das Anzeigen des stellvertretenden Bildes durch die animierte Wiedergabe der Teilmenge der Folge von Bildern. In einigen Ausführungsformen wird die Teilmenge der Folge von Bildern auf eine Weise wiedergegeben, die analog zur Wiedergabe der Folge von Bildern ist, wie hierin in Bezug auf die 6A6FF und die Verfahren 100/10000/10050 beschrieben ist.
  • In einigen Ausführungsformen deaktiviert (2736) die Vorrichtung als Reaktion auf das Erkennen einer vierten Eingabe die Wiedergabe der Teilmenge der Folge von Bildern, während sie die Teilmenge von Bildern behält.
  • In einigen Ausführungsformen stellt (2738) die Vorrichtung als Reaktion auf das Erkennen einer dritten Eingabe, die einer Anforderung zum Bearbeiten des stellvertretenden Bildes entspricht, einem Benutzer der Vorrichtungen Optionen bereit zum: Fortfahren mit dem Bearbeiten des stellvertretenden Bildes, wobei die animierte Wiedergabe der Teilmenge der Folge von Bildern deaktiviert ist; und Abbrechen des Bearbeitens des stellvertretenden Bildes.
  • In einigen Ausführungsformen präsentiert (2740) die Vorrichtung eine Aufforderung zum Löschen von Bildern in der Folge von Bildern, außer dem stellvertretenden Bild. Als Reaktion auf das Erkennen einer dritten Eingabe löscht die Vorrichtung das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • Es sollte klar sein, dass die spezifische Reihenfolge, in der die Operationen in den 27A27E beschrieben wurden, lediglich beispielhaft ist und nicht angeben soll, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann würde verschiedene Wege erkennen, um die hierin beschriebenen Operationen neu zu ordnen. In einigen Umsetzungen können eine oder mehrere hierin beschriebene Operationen weggelassen werden. Zum Beispiel werden in einigen Ausführungsformen die Operationen 2714 und 2716 weggelassen. Außerdem sei angemerkt, dass Einzelheiten von anderen hierin in Bezug auf andere hierin beschriebene Verfahren (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2500 und 2600) beschriebenen Prozessen auch auf entsprechende Weise auf das vorstehend in Bezug auf die 27A27E beschriebene Verfahren 2700 anwendbar sind. Zum Beispiel weisen die vorstehend unter Bezugnahme auf das Verfahren 2700 beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern optional eine oder mehrere der Eigenschaften der hierin unter Bezugnahme auf andere Verfahren hierin (z. B. die Verfahren 900, 1000, 10000, 10050, 1100, 11000, 1200, 2400, 2500 und 2600) beschriebenen Kontakte, Gesten, Benutzerschnittstellenobjekte, Intensitätsschwellen, Animationen und Folgen von Bildern auf. Der Kürze halber werden diese Einzelheiten hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 28 ein Funktionsblockschaubild einer elektronischen Vorrichtung 2800, die in Übereinstimmung mit den Grundgedanken der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung sind optional durch Hardware, Software oder eine Kombination aus Hardware und Software zum Ausführen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen umgesetzt. Fachleute werden verstehen, dass die in der 28 beschriebenen Funktionsblöcke zum Umsetzen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen optional kombiniert oder in Teilblöcke geteilt werden. Deshalb unterstützt die Beschreibung hierin optional jede beliebige mögliche Kombination oder Teilung oder weitere Definition der hierin beschriebenen Funktionsblöcke.
  • Wie in 28 gezeigt ist, beinhaltet eine elektronische Vorrichtung 2800 eine Anzeigeeinheit 2802, die so konfiguriert ist, dass sie Bilder anzeigt; eine berührungsempfindliche Oberflächeneinheit 2804, die so konfiguriert ist, dass sie Eingaben erkennt; und eine Verarbeitungseinheit 2808, die mit der Anzeigeeinheit 2802 und der berührungsempfindlichen Oberflächeneinheit 2804 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 2808 eine Anzeigeermöglichungseinheit 2810, eine Erkennungseinheit 2812, eine Abänderungseinheit 2814 und eine Löscheinheit 2816.
  • Die Verarbeitungseinheit 2808 ist so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 2810) das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit 2812 ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 2808 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit 2802 (z. B. mit der Erkennungseinheit 2812 in Verbindung mit der berührungsempfindlichen Oberflächeneinheit 2804) eine Eingabe zum Abändern des stellvertretenden Bildes erkennt. Die Verarbeitungseinheit 2808 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der Eingabe zum Abändern des stellvertretenden Bildes: infolge eines Feststellens, dass sich die Vorrichtung in einem ersten Bearbeitungsmodus befindet, das stellvertretende Bild, das eine oder die mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und das eine oder die mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, (z. B. mit der Abänderungseinheit 2814) abändert; und infolge eines Feststellens, dass sich die Vorrichtung in einem zweiten Bearbeitungsmodus befindet, der sich von dem ersten Bearbeitungsmodus unterscheidet, das stellvertretende Bild ohne Abändern des einen oder der mehreren Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden, und ohne Abändern des einen oder der mehreren Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden, (z. B. mit der Abänderungseinheit 2814) abändert.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 29 ein Funktionsblockschaubild einer elektronischen Vorrichtung 2900, die in Übereinstimmung mit den Grundgedanken der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung sind optional durch Hardware, Software oder eine Kombination aus Hardware und Software zum Ausführen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen umgesetzt. Fachleute werden verstehen, dass die in der 29 beschriebenen Funktionsblöcke zum Umsetzen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen optional kombiniert oder in Teilblöcke geteilt werden. Deshalb unterstützt die Beschreibung hierin optional jede beliebige mögliche Kombination oder Teilung oder weitere Definition der hierin beschriebenen Funktionsblöcke.
  • Wie in 29 gezeigt ist, beinhaltet eine erste elektronische Vorrichtung 2900 eine Anzeigeeinheit 2902, die so konfiguriert ist, dass sie Bilder anzeigt; eine optionale berührungsempfindliche Oberflächeneinheit 2904, die so konfiguriert ist, dass sie Eingaben erkennt; eine oder mehrere optionale Sensoreinheiten 2906, die so konfiguriert sind, dass sie die Intensität von Kontakten auf der berührungsempfindlichen Oberflächeneinheit 2904 erkennen; und eine Verarbeitungseinheit 2908, die mit der Anzeigeeinheit 2902, der optionalen berührungsempfindlichen Oberflächeneinheit 2904 und der einen oder den mehreren optionalen Sensoreinheiten 2906 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 2908 eine Anzeigeermöglichungseinheit 2910, eine Erkennungseinheit 2912, eine Feststellungseinheit 2914, eine Abänderungseinheit 2916 und eine Sendeeinheit 2918.
  • Die Verarbeitungseinheit 2908 ist so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 2910) das Anzeigen eines stellvertretenden Bildes auf der Anzeigeeinheit 2902 in einer Benutzerschnittstelle einer Anwendung, die so konfiguriert ist, dass sie mit anderen elektronischen Vorrichtungen kommunizieren kann, ermöglicht. Bei dem stellvertretenden Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 2908 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des stellvertretenden Bildes auf der Anzeigeeinheit 2902 (z. B. mit der Erkennungseinheit 2912 in Verbindung mit der berührungsempfindlichen Oberflächeneinheit 2904) eine Eingabe erkennt, die einer Anforderung zum Senden des stellvertretenden Bildes oder einer Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an eine zweite elektronische Vorrichtung, die sich entfernt von der ersten elektronischen Vorrichtung befindet, unter Verwendung der Anwendung entspricht. Die Verarbeitungseinheit 2908 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Senden des stellvertretenden Bildes oder der Anforderung zum Auswählen des stellvertretenden Bildes zum Senden an die zweite elektronische Vorrichtung entspricht: infolge eines Feststellens, dass die zweite elektronische Vorrichtung so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, (z. B. mit der Anzeigeermöglichungseinheit 2910) das Anzeigen eines ersten Satzes von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung ermöglicht; und infolge eines Feststellens, dass die zweite elektronische Vorrichtung nicht so konfiguriert ist, dass sie mit der Folge von Bildern als Gruppe interagieren kann, (z. B. mit der Anzeigeermöglichungseinheit 2910) das Anzeigen eines zweiten Satzes von Optionen zum Senden von zumindest einem Teil der Folge von Bildern an die zweite elektronische Vorrichtung ermöglicht. Der zweite Satz von Optionen unterscheidet sich von dem ersten Satz von Optionen.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 30 ein Funktionsblockschaubild einer elektronischen Vorrichtung 3000, die in Übereinstimmung mit den Grundgedanken der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung sind optional durch Hardware, Software oder eine Kombination aus Hardware und Software zum Ausführen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen umgesetzt. Fachleute werden verstehen, dass die in der 30 beschriebenen Funktionsblöcke zum Umsetzen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen optional kombiniert oder in Teilblöcke geteilt werden. Deshalb unterstützt die Beschreibung hierin optional jede beliebige mögliche Kombination oder Teilung oder weitere Definition der hierin beschriebenen Funktionsblöcke.
  • Wie in 30 gezeigt ist, beinhaltet eine elektronische Vorrichtung 3000 eine Anzeigeeinheit 3002, die so konfiguriert ist, dass sie Bilder anzeigt; eine optionale berührungsempfindliche Oberflächeneinheit 3004, die so konfiguriert ist, dass sie Eingaben erkennt; eine Kameraeinheit 2906, die so konfiguriert ist, dass sie Bilder erfasst; und eine Verarbeitungseinheit 3008, die mit der Anzeigeeinheit 3002 und der optionalen berührungsempfindlichen Oberflächeneinheit 3004 und der Kameraeinheit 2906 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 3008 eine Anzeigeermöglichungseinheit 3010, eine Erkennungseinheit 3012, eine Szenenerkennungsdurchführungseinheit 3014, eine Behalteneinheit 3016, eine Gruppierungseinheit 3018 und eine Erfassungseinheit 3020.
  • Die Verarbeitungseinheit 3008 ist so konfiguriert, dass sie, während sich die Kameraeinheit 3006 in einem ersten Medienerfassungsmodus befindet: (z. B. mit der Anzeigeermöglichungseinheit 3010) das Anzeigen einer Live-Vorschau einer Szene auf der Anzeigeeinheit 3002 ermöglicht und (z. B. mit der Szenenerkennungsdurchführungseinheit 3014) für die Szene eine Szenenerkennung durchführt. Die Verarbeitungseinheit 3008 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens der Live-Vorschau der Szene (z. B. mit der Erkennungseinheit 3012 in Verbindung mit der berührungsempfindlichen Oberfläche 3004) eine einzelne Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt erkennt. Die Verarbeitungseinheit 3008 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der einzelnen Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: infolge eines zumindest teilweise auf der für die Szene durchgeführten Szenenerkennung beruhenden Feststellens, dass die Szene Kriterien zum Einfangen einer Aktion erfüllt, (z. B. mit der Behalteneinheit 3016) mehrere Bilder, die von der Kameraeinheit 3006 in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, behält und (z. B. mit der Gruppierungseinheit 3018) die mehreren Bilder in eine erste Folge von Bildern gruppiert. Die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kameraeinheit 3006 vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kameraeinheit 3006 nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kameraeinheit 3006 nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Verarbeitungseinheit 3008 ist darüber hinaus so konfiguriert, dass sie infolge eines Feststellens, dass die Szene die Kriterien zum Einfangen einer Aktion nicht erfüllt, (z. B. mit der Behalteneinheit 3016) ein Einzelbild behält, das sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt befindet.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 31 ein Funktionsblockschaubild einer elektronischen Vorrichtung 3100, die in Übereinstimmung mit den Grundgedanken der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung sind optional durch Hardware, Software oder eine Kombination aus Hardware und Software zum Ausführen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen umgesetzt. Fachleute werden verstehen, dass die in der 31 beschriebenen Funktionsblöcke zum Umsetzen der Grundgedanken der verschiedenen beschriebenen Ausführungsformen optional kombiniert oder in Teilblöcke geteilt werden. Deshalb unterstützt die Beschreibung hierin optional jede beliebige mögliche Kombination oder Teilung oder weitere Definition der hierin beschriebenen Funktionsblöcke.
  • Wie in 31 gezeigt ist, beinhaltet eine elektronische Vorrichtung 3100 eine Anzeigeeinheit 3102, die so konfiguriert ist, dass sie Bilder anzeigt; eine berührungsempfindliche Oberflächeneinheit 3104, die so konfiguriert ist, dass sie Eingaben erkennt; und eine Verarbeitungseinheit 3108, die mit der Anzeigeeinheit 3102 und der berührungsempfindlichen Oberflächeneinheit 3104 verbunden ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 3108 eine Anzeigeermöglichungseinheit 3110, eine Erkennungseinheit 3112, eine Kürzungseinheit 3114, eine Auswahleinheit 3116, eine Bewegungseinheit 3118 und eine Löscheinheit 3120.
  • Die Verarbeitungseinheit 3108 ist so konfiguriert, dass sie (z. B. mit der Anzeigeermöglichungseinheit 3110) das Anzeigen eines Bildes auf der Anzeigeeinheit 3102 ermöglicht. Bei dem Bild handelt es sich um ein Bild in einer Folge von Bildern, die von einer Kamera aufgenommen wurde. Die Folge von Bildern beinhaltet ein stellvertretendes Bild. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden. Die Folge von Bildern beinhaltet ein oder mehrere Bilder, die von der Kamera vor dem Erfassen des stellvertretenden Bildes erfasst wurden.
  • Die Verarbeitungseinheit 3108 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens des Bildes in der Folge von Bildern auf der Anzeigeeinheit 3102 (z. B. mit der Erkennungseinheit 3112) eine erste Eingabe erkennt. Die Verarbeitungseinheit 3108 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen der ersten Eingabe (z. B. mit der Anzeigeermöglichungseinheit 3110) das Anzeigen einer Benutzerschnittstelle zum Kürzen der Folge von Bildern auf eine geringere Teilmenge der Folge von Bildern ermöglicht. Die Benutzerschnittstelle beinhaltet: einen Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält; ein durch einen Benutzer einstellbares Kürzen-anfangen-Symbol, das ein Startbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-anfangen-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt; und ein durch einen Benutzer einstellbares Kürzen-beenden-Symbol, das ein Endbild in der Teilmenge der Folge von Bildern mittels einer Position des Kürzen-beenden-Symbols in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, abgrenzt. Das Kürzen-anfangen-Symbol befindet sich an einer ersten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird. Das Kürzen-beenden-Symbol befindet sich an einer zweiten Position in dem Bereich, der Darstellungen von Bildern in der Folge von Bildern enthält, die automatisch von der Vorrichtung ausgewählt wird.
  • Die Verarbeitungseinheit 3108 ist darüber hinaus so konfiguriert, dass sie während des Ermöglichens des Anzeigens der Benutzerschnittstelle zum Kürzen der Folge von Bildern (z. B. mit der Erkennungseinheit 3112) eine zweite Eingabe erkennt. Die Verarbeitungseinheit 3108 ist darüber hinaus so konfiguriert, dass sie als Reaktion auf das Erkennen einer zweiten Eingabe (z. B. mit der Kürzungseinheit 3114) die Folge von Bildern auf die Teilmenge der Folge von Bildern in Übereinstimmung mit einer aktuellen Position des Kürzen-anfangen-Symbols und einer aktuellen Position des Kürzen-beenden-Symbols kürzt.
  • Die Operationen in vorstehend beschriebenen Verfahren werden optional durch Ausführen eines oder mehrerer Funktionsmodule in einer Informationsverarbeitungseinrichtung wie zum Beispiel Universalprozessoren (wie z. B. vorstehend in Bezug auf die 1A und 3 beschrieben ist) oder anwendungsspezifischen Chips umgesetzt werden. Die vorstehend unter Bezugnahme auf die 9A9G beschriebenen Operationen werden optional durch in den 1A1B oder der 13 gezeigte Komponenten umgesetzt. Zum Beispiel wird die Erkennungsoperation 908 optional durch den Ereignissortierer 170, den Ereigniserkenner 180 und den Ereignis-Handler 190 umgesetzt. Der Ereignismonitor 171 in dem Ereignissortierer 170 erkennt einen Kontakt auf der berührungsempfindlichen Anzeige 112, und das Ereigniszuteilermodul 174 liefert die Ereignisinformationen an die Anwendung 136-1. Ein jeweiliger Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit jeweiligen Ereignisdefinitionen 186 und ermittelt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche (oder ob die Drehung der Vorrichtung) einem vordefinierten Ereignis oder Teilereignis wie zum Beispiel dem Auswählen eines Objekts auf einer Benutzerschnittstelle oder dem Drehen der Vorrichtung von einer Ausrichtung in eine andere entspricht. Wenn ein jeweiliges vordefiniertes Ereignis oder Teilereignis erkannt wird, aktiviert der Ereigniserkenner 180 einen Ereignis-Handler 190, der mit dem Erkennen des Ereignisses oder Teilereignisses verbunden ist. Der Ereignis-Handler 190 verwendet optional den Datenaktualisierer 176 oder den Objektaktualisierer 177 zum Aktualisieren des anwendungsinternen Zustands 192 oder ruft diese auf. In einigen Ausführungsformen greift der Ereignis-Handler 190 auf einen jeweiligen GUI-Aktualisierer 178 zu, um das von der Anwendung Angezeigte zu aktualisieren. Auf ähnliche Weise wäre es einem gewöhnlichen Fachmann klar, wie andere Prozesse auf Grundlage den in den 1A1B gezeigten Komponenten umgesetzt werden können.
  • Die vorstehende Beschreibung wurde zum Zwecke der Erklärung unter Bezugnahme auf spezifische Ausführungsformen beschrieben. Jedoch sollen die obigen veranschaulichenden Erörterungen nicht erschöpfend sein oder die Erfindung auf die exakten offenbarten Formen einschränken. Zum Beispiel sind die hierin beschriebenen Verfahren auch auf analoge Weise auf elektronische Vorrichtungen anwendbar, die zum Verwalten, Wiedergeben und/oder Streamen (z. B. von einem externen Server) von Ton und/oder visuellem Inhalt, konfiguriert sind, die sich in Kommunikation mit einer Fernsteuerung und einer Anzeige befinden (z. B. Apple TV von Apple Inc. aus Cupertino, Kalifornien). Für derartige Vorrichtungen werden optional Eingaben empfangen, die Gesten auf einer berührungsempfindlichen Oberfläche der Fernsteuerung, Spracheingaben auf der Fernsteuerung und/oder Aktivierung von Tasten auf der Fernsteuerung entsprechen, anstatt dass sich die berührungsempfindliche Oberfläche, die Toneingabevorrichtung (z. B. ein Mikrofon) und/oder Tasten auf der Vorrichtung selbst befinden. Für derartige Vorrichtungen werden Daten optional der Anzeige bereitgestellt, anstatt von der Anzeige selbst angezeigt zu werden. Angesichts der obigen Lehren sind viele Abänderungen und Abwandlungen möglich. Die Ausführungsformen wurden gewählt und beschrieben, um die Grundgedanken der Erfindung und deren praktische Anwendungen bestmöglich zu erläutern, um es dadurch anderen Fachleuten zu ermöglichen, die Erfindung und die verschiedenen beschriebenen Ausführungsformen mit verschiedenen Abänderungen, die für eine bestimmte in Betracht gezogene Verwendung geeignet sind, bestmöglich zu verwenden.

Claims (54)

  1. Elektronische Vorrichtung, aufweisend: eine Anzeige; eine Kamera; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, das eine oder die mehreren Programme Anweisungen beinhaltend zum: während sich die Kamera in einem ersten Medienerfassungsmodus befindet: Anzeigen einer Live-Vorschau auf der Anzeige; während des Anzeigens der Live-Vorschau, Erkennen einer Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt; und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Gruppieren von mehreren Bildern, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, in eine erste Folge von Bildern, wobei die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  2. Elektronische Vorrichtung nach Anspruch 1, wobei es sich bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um eine vordefinierte Anzahl von Bildern handelt.
  3. Elektronische Vorrichtung nach Anspruch 1, wobei es sich bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder handelt, die sich innerhalb einer vordefinierten Zeitspanne vor dem ersten Zeitpunkt befinden.
  4. Elektronische Vorrichtung nach Anspruch 1, wobei es sich bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder handelt, die sich innerhalb einer vordefinierten Zeitspanne vor einem Zeitpunkt befinden, zu dem das stellvertretende Bild erfasst wurde.
  5. Elektronische Vorrichtung nach Anspruch 1, wobei die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, aus einem Zeitraum zwischen dem ersten Zeitpunkt und einem zweiten Zeitpunkt, der vor dem ersten Zeitpunkt liegt, stammen, und das Erfassen der mehreren Bilder vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt unabhängig ist von dem Erkennen einer Interaktion mit dem Auslöseknopf, die zeitlich nahe an dem zweiten Zeitpunkt liegt.
  6. Elektronische Vorrichtung nach Anspruch 1, wobei die mehreren Bilder in der ersten Folge von Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst werden, ein oder mehrere vordefinierte Gruppierungskriterien erfüllen.
  7. Elektronische Vorrichtung nach Anspruch 6, wobei die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern vor dem Erkennen einer Aktivierung des Auslöseknopfes beinhalten.
  8. Elektronische Vorrichtung nach Anspruch 6, wobei die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern vor dem stellvertretenden Bild beinhalten.
  9. Elektronische Vorrichtung nach Anspruch 6, wobei die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Erkennen der Aktivierung des Auslöseknopfes beinhalten.
  10. Elektronische Vorrichtung nach Anspruch 6, wobei die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird, beinhalten.
  11. Elektronische Vorrichtung nach Anspruch 1, wobei die Vorrichtung beim Eintreten in den ersten Medienerfassungsmodus mit dem Erfassen und Speichern von Bildern beginnt und dann Bilder löscht, die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  12. Elektronische Vorrichtung nach Anspruch 1, wobei die Vorrichtung beim Anzeigen der Live-Vorschau mit dem Erfassen und Speichern von Bildern beginnt und dann Bilder löscht, die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  13. Elektronische Vorrichtung nach Anspruch 1, wobei die Vorrichtung während des Anzeigens der Live-Vorschau Bilder unabhängig von dem Erkennen von Aktivierungen des Auslöseknopfes erfasst und speichert, und erfasste und gespeicherte Bilder löscht, die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  14. Elektronische Vorrichtung nach Anspruch 1, wobei die erste Folge von Bildern als ein erster eigenständiger Satz von Bildern in dem Speicher gespeichert wird.
  15. Elektronische Vorrichtung nach Anspruch 1, wobei die Live-Vorschau Bilder mit einer ersten Auflösung anzeigt und die erste Folge von Bildern Bilder mit der ersten Auflösung beinhaltet, die in der Live-Vorschau angezeigt wurden.
  16. Elektronische Vorrichtung nach Anspruch 15, wobei das von der Kamera erfasste stellvertretende Bild eine zweite Auflösung aufweist, die höher ist als die erste Auflösung.
  17. Elektronische Vorrichtung nach Anspruch 1, die Anweisungen beinhaltet zum: als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Zuordnen von Ton, welcher der ersten Folge von Bildern entspricht, zu der ersten Folge von Bildern.
  18. Elektronische Vorrichtung nach Anspruch 1, die Anweisungen beinhaltet zum: als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Zuordnen von Metadaten, die der ersten Folge von Bildern entsprechen, zu der ersten Folge von Bildern.
  19. Elektronische Vorrichtung nach Anspruch 1, wobei der erste Medienerfassungsmodus so konfiguriert ist, dass er von einem Benutzer der Vorrichtung aktiviert oder deaktiviert werden kann.
  20. Elektronische Vorrichtung nach Anspruch 19, wobei: die Live-Vorschau als Teil einer Medieneinfang-Benutzerschnittstelle angezeigt wird, die eine Aufforderung zum Aktivieren des ersten Medienerfassungsmodus beinhaltet; während der erste Medienerfassungsmodus aktiviert ist, die Aufforderung animiert wird; und während der erste Medienerfassungsmodus deaktiviert ist, die Aufforderung nicht animiert wird.
  21. Elektronische Vorrichtung nach Anspruch 1, wobei Parameter für eine jeweilige Folge von Bildern, die als Reaktion auf das Erkennen einer jeweiligen Aktivierung des Auslöseknopfes gruppiert werden, durch einen Benutzer der Vorrichtung konfigurierbar sind.
  22. Elektronische Vorrichtung nach Anspruch 1, wobei: die Live-Vorschau als Teil einer Medieneinfang-Benutzerschnittstelle angezeigt wird, die eine Aufforderung zum Aktivieren des ersten Medienerfassungsmodus beinhaltet; und es sich bei dem Auslöseknopf um eine Software-Schaltfläche handelt, die in der Medieneinfang-Benutzerschnittstelle angezeigt wird; und die elektronische Vorrichtung Anweisungen beinhaltet zum: als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes, Anzeigen einer dem Auslöseknopf zugehörigen Animation, die eine Zeitdauer andauert, die der Zeitdauer nach der Aktivierung des Auslöseknopfes entspricht, während der die Kamera Bilder für die erste Folge von Bildern erfasst.
  23. Elektronische Vorrichtung nach Anspruch 1, wobei die mehreren Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt in einer ersten Form in dem Speicher gespeichert werden und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt in einer zweiten Form in dem Speicher gespeichert werden.
  24. Elektronische Vorrichtung nach Anspruch 1, die Anweisungen beinhaltet zum: Erkennen einer nächsten Aktivierung des Auslöseknopfes zu einem zweiten Zeitpunkt nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt; und als Reaktion auf das Erkennen der nächsten Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt: Gruppieren von mehreren Bildern, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt erfasst wurden, in eine zweite Folge von Bildern, wobei die zweite Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt erfasst wurden; und ein stellvertretendes Bild, das die zweite Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der zweiten Folge von Bildern erfasst wurde.
  25. Elektronische Vorrichtung nach Anspruch 1, die Anweisungen beinhaltet zum automatischen Ausschließen von verschwommenen Bildern aus der ersten Folge von Bildern.
  26. Elektronische Vorrichtung nach Anspruch 1, wobei: die erste Folge von Bildern beinhaltet: ein Anfangsbild in der ersten Folge von Bildern, eine erste Anzahl von Bildern, die zwischen dem Anfangsbild und dem stellvertretenden Bild erfasst wurden, ein letztes Bild in der ersten Folge von Bildern, und eine zweite Anzahl von Bildern, die zwischen dem stellvertretenden Bild und dem letzten Bild erfasst wurden; und die elektronische Vorrichtung Anweisungen beinhaltet zum: Erkennen einer Eingabe, die einer Anforderung zum Ändern des stellvertretenden Bildes in der ersten Folge von Bildern entspricht; und als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Ändern des stellvertretenden Bildes in der ersten Folge von Bildern entspricht: Ändern des stellvertretenden Bildes auf ein geändertes stellvertretendes Bild in Übereinstimmung mit der erkannten Eingabe; und Ändern der mehreren gruppierten Bilder in der ersten Folge von Bildern durch Hinzufügen von Bildern auf einer Seite der ersten Folge von Bildern und Löschen von Bildern auf der anderen Seite der ersten Folge von Bildern in Übereinstimmung mit der erkannten Eingabe derart, dass die erste Folge von Bildern ein geändertes Anfangsbild und ein geändertes letztes Bild aufweist.
  27. Elektronische Vorrichtung nach Anspruch 1, wobei es sich bei der Anzeige um eine berührungsempfindliche Anzeige handelt und die elektronische Vorrichtung Anweisungen beinhaltet zum: Empfangen einer Anforderung zum Anzeigen des stellvertretenden Bildes aus der ersten Folge von Bildern; als Reaktion auf das Empfangen der Anforderung zum Anzeigen des stellvertretenden Bildes, Anzeigen des stellvertretenden Bildes auf der berührungsempfindlichen Anzeige; während des Anzeigens des stellvertretenden Bildes, Empfangen einer Touch-Eingabe auf der berührungsempfindlichen Anzeige auf dem stellvertretenden Bild, wobei die Touch-Eingabe eine Eigenschaft beinhaltet, die sich mit der Zeit ändert; und als Reaktion auf das Empfangen der Touch-Eingabe auf der berührungsempfindlichen Anzeige auf dem stellvertretenden Bild, Anzeigen von Bildern in der ersten Folge von Bildern mit einer Geschwindigkeit, die auf Grundlage der Änderung der Eigenschaft der Touch-Eingabe mit der Zeit bestimmt wird.
  28. Durch einen Computer lesbares Speichermedium, auf dem ein oder mehrere Programme gespeichert sind, wobei das eine oder die mehreren Programme Anweisungen aufweisen, die beim Ausführen durch eine elektronische Vorrichtung mit einer Anzeige, einer Kamera, einem Speicher und einem oder mehreren Prozessoren die Vorrichtung veranlassen zum: während sich die Kamera in einem ersten Medienerfassungsmodus befindet: Anzeigen einer Live-Vorschau auf der Anzeige; während des Anzeigens der Live-Vorschau, Erkennen einer Aktivierung eines Auslöseknopfes zu einem ersten Zeitpunkt; und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Gruppieren von mehreren Bildern, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, in eine erste Folge von Bildern, wobei die erste Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden; ein stellvertretendes Bild, das die erste Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der ersten Folge von Bildern erfasst wurde; und mehrere Bilder, die von der Kamera nach dem Erfassen des stellvertretenden Bildes erfasst wurden.
  29. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei es sich bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um eine vordefinierte Anzahl von Bildern handelt.
  30. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei es sich bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder handelt, die sich innerhalb einer vordefinierten Zeitspanne vor dem ersten Zeitpunkt befinden.
  31. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei es sich bei den mehreren Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, um Bilder handelt, die sich innerhalb einer vordefinierten Zeitspanne vor einem Zeitpunkt befinden, zu dem das stellvertretende Bild erfasst wurde.
  32. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die mehreren Bilder, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, aus einem Zeitraum zwischen dem ersten Zeitpunkt und einem zweiten Zeitpunkt, der vor dem ersten Zeitpunkt liegt, stammen, und das Erfassen der mehreren Bilder vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt unabhängig ist von dem Erkennen einer Interaktion mit dem Auslöseknopf, die zeitlich nahe an dem zweiten Zeitpunkt liegt.
  33. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die mehreren Bilder in der ersten Folge von Bildern, die vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst werden, ein oder mehrere vordefinierte Gruppierungskriterien erfüllen.
  34. Durch einen Computer lesbares Speichermedium nach Anspruch 33, wobei die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern vor dem Erkennen der Aktivierung des Auslöseknopfes beinhalten.
  35. Durch einen Computer lesbares Speichermedium nach Anspruch 33, wobei die vordefinierten Gruppierungskriterien das Auswählen einer vordefinierten Anzahl von Bildern vor dem stellvertretenden Bild beinhalten.
  36. Durch einen Computer lesbares Speichermedium nach Anspruch 33, wobei die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Erkennen einer Aktivierung des Auslöseknopfes beinhalten.
  37. Durch einen Computer lesbares Speichermedium nach Anspruch 33, wobei die vordefinierten Gruppierungskriterien das Auswählen von Bildern in einem vordefinierten Zeitraum unmittelbar vor dem Zeitpunkt, zu dem das stellvertretende Bild erfasst wird, beinhalten.
  38. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die Vorrichtung beim Eintreten in den ersten Medienerfassungsmodus mit dem Erfassen und Speichern von Bildern beginnt und dann Bilder löscht, die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  39. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die Vorrichtung beim Anzeigen der Live-Vorschau mit dem Erfassen und Speichern von Bildern beginnt und dann Bilder löscht, die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  40. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die Vorrichtung während des Anzeigens der Live-Vorschau Bilder unabhängig von dem Erkennen von Aktivierungen des Auslöseknopfes erfasst und speichert, und erfasste und gespeicherte Bilder löscht, die nicht in jeweilige mehrere Bilder gruppiert sind, die sich in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zu einem jeweiligen Zeitpunkt befinden, während sie sich im ersten Medienerfassungsmodus befindet.
  41. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die erste Folge von Bildern als ein erster eigenständiger Satz von Bildern in dem Speicher gespeichert wird.
  42. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die Live-Vorschau Bilder mit einer ersten Auflösung anzeigt und die erste Folge von Bildern Bilder mit der ersten Auflösung beinhaltet, die in der Live-Vorschau angezeigt wurden.
  43. Durch einen Computer lesbares Speichermedium nach Anspruch 42, wobei das von der Kamera erfasste stellvertretende Bild eine zweite Auflösung aufweist, die höher ist als die erste Auflösung.
  44. Durch einen Computer lesbares Speichermedium nach Anspruch 28, das Anweisungen enthält, die beim Ausführen durch die elektronische Vorrichtung mit der Anzeige und der Kamera die Vorrichtung veranlassen zum: als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Zuordnen von Ton, welcher der ersten Folge von Bildern entspricht, zu der ersten Folge von Bildern.
  45. Durch einen Computer lesbares Speichermedium nach Anspruch 28, das Anweisungen enthält, die beim Ausführen durch die elektronische Vorrichtung mit der Anzeige und der Kamera die Vorrichtung veranlassen zum: als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt: Zuordnen von Metadaten, die der ersten Folge von Bildern entsprechen, zu der ersten Folge von Bildern.
  46. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei der erste Medienerfassungsmodus so konfiguriert ist, dass er von einem Benutzer der Vorrichtung aktiviert oder deaktiviert werden kann.
  47. Durch einen Computer lesbares Speichermedium nach Anspruch 46, wobei: die Live-Vorschau als Teil einer Medieneinfang-Benutzerschnittstelle angezeigt wird, die eine Aufforderung zum Aktivieren des ersten Medienerfassungsmodus beinhaltet; während der erste Medienerfassungsmodus aktiviert ist, die Aufforderung animiert wird; und während der erste Medienerfassungsmodus deaktiviert ist, die Aufforderung nicht animiert wird.
  48. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei Parameter für eine jeweilige Folge von Bildern, die als Reaktion auf das Erkennen einer jeweiligen Aktivierung des Auslöseknopfes gruppiert werden, durch einen Benutzer der Vorrichtung konfigurierbar sind.
  49. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei: die Live-Vorschau als Teil einer Medieneinfang-Benutzerschnittstelle angezeigt wird, die eine Aufforderung zum Aktivieren des ersten Medienerfassungsmodus beinhaltet; und es sich bei dem Auslöseknopf um eine Software-Schaltfläche handelt, die in der Medieneinfang-Benutzerschnittstelle angezeigt wird; und das eine oder die mehreren Programme Anweisungen aufweisen, die beim Ausführen durch die elektronische Vorrichtung die Vorrichtung veranlassen zum: als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes, Anzeigen einer dem Auslöseknopf zugehörigen Animation, die eine Zeitdauer andauert, die der Zeitdauer nach der Aktivierung des Auslöseknopfes entspricht, während der die Kamera Bilder für die erste Folge von Bildern erfasst.
  50. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die mehreren Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt erfasst wurden, vor dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt in einer ersten Form in dem Speicher gespeichert werden und als Reaktion auf das Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt in einer zweiten Form in dem Speicher gespeichert werden.
  51. Durch einen Computer lesbares Speichermedium nach Anspruch 28, das Anweisungen enthält, die beim Ausführen durch die elektronische Vorrichtung mit der Anzeige und der Kamera die Vorrichtung veranlassen zum: Erkennen einer nächsten Aktivierung des Auslöseknopfes zu einem zweiten Zeitpunkt nach dem Erkennen der Aktivierung des Auslöseknopfes zum ersten Zeitpunkt; und als Reaktion auf das Erkennen der nächsten Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt: Gruppieren von mehreren Bildern, die von der Kamera in zeitlicher Nähe zur Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt erfasst wurden, in eine zweite Folge von Bildern, wobei die zweite Folge von Bildern beinhaltet: mehrere Bilder, die von der Kamera vor dem Erkennen der Aktivierung des Auslöseknopfes zum zweiten Zeitpunkt erfasst wurden; und ein stellvertretendes Bild, das die zweite Folge von Bildern darstellt und von der Kamera nach einem oder mehreren der anderen Bilder in der zweiten Folge von Bildern erfasst wurde.
  52. Durch einen Computer lesbares Speichermedium nach Anspruch 28, das Anweisungen enthält, die beim Ausführen durch die elektronische Vorrichtung mit der Anzeige und der Kamera die Vorrichtung veranlassen zum automatischen Ausschließen von verschwommenen Bildern aus der ersten Folge von Bildern.
  53. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei: die erste Folge von Bildern beinhaltet: ein Anfangsbild in der ersten Folge von Bildern, eine erste Anzahl von Bildern, die zwischen dem Anfangsbild und dem stellvertretenden Bild erfasst wurden, ein letztes Bild in der ersten Folge von Bildern, und eine zweite Anzahl von Bildern, die zwischen dem stellvertretenden Bild und dem letzten Bild erfasst wurden; und das eine oder die mehreren Programme Anweisungen aufweisen, die beim Ausführen durch die elektronische Vorrichtung die Vorrichtung veranlassen zum: Erkennen einer Eingabe, die einer Anforderung zum Ändern des stellvertretenden Bildes in der ersten Folge von Bildern entspricht; und als Reaktion auf das Erkennen der Eingabe, die der Anforderung zum Ändern des stellvertretenden Bildes in der ersten Folge von Bildern entspricht: Ändern des stellvertretenden Bildes auf ein geändertes stellvertretendes Bild in Übereinstimmung mit der erkannten Eingabe; und Ändern der mehreren gruppierten Bilder in der ersten Folge von Bildern durch Hinzufügen von Bildern auf einer Seite der ersten Folge von Bildern und Löschen von Bildern auf der anderen Seite der ersten Folge von Bildern in Übereinstimmung mit der erkannten Eingabe derart, dass die erste Folge von Bildern ein geändertes Anfangsbild und ein geändertes letztes Bild aufweist.
  54. Durch einen Computer lesbares Speichermedium nach Anspruch 28, wobei die Anzeige eine berührungsempfindliche Anzeige ist, und das eine oder die mehreren Programme Anweisungen aufweisen, die beim Ausführen durch die elektronische Vorrichtung die Vorrichtung veranlassen zum: Empfangen einer Anforderung zum Anzeigen des stellvertretenden Bildes aus der ersten Folge von Bildern; als Reaktion auf das Empfangen der Anforderung zum Anzeigen des stellvertretenden Bildes, Anzeigen des stellvertretenden Bildes auf der berührungsempfindlichen Anzeige; während des Anzeigens des stellvertretenden Bildes, Empfangen einer Touch-Eingabe auf der berührungsempfindlichen Anzeige auf dem stellvertretenden Bild, wobei die Touch-Eingabe eine Eigenschaft beinhaltet, die sich mit der Zeit ändert; und als Reaktion auf das Empfangen der Touch-Eingabe auf der berührungsempfindlichen Anzeige auf dem stellvertretenden Bild, Anzeigen von Bildern in der ersten Folge von Bildern mit einer Geschwindigkeit, die auf Grundlage der Änderung der Eigenschaft der Touch-Eingabe mit der Zeit bestimmt wird.
DE202016002529.6U 2015-06-07 2016-04-20 Vorrichtungen zum Einfangen von und Interagieren mit erweiterten digitalen Bildern Active DE202016002529U1 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201562172223P 2015-06-07 2015-06-07
US62/172,223 2015-06-07
US201562172233P 2015-06-08 2015-06-08
US62/172,233 2015-06-08
US201562215689P 2015-09-08 2015-09-08
US62/215,689 2015-09-08
US14/863,432 2015-09-23
US14/863,432 US9860451B2 (en) 2015-06-07 2015-09-23 Devices and methods for capturing and interacting with enhanced digital images

Publications (1)

Publication Number Publication Date
DE202016002529U1 true DE202016002529U1 (de) 2016-09-22

Family

ID=56137516

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202016002529.6U Active DE202016002529U1 (de) 2015-06-07 2016-04-20 Vorrichtungen zum Einfangen von und Interagieren mit erweiterten digitalen Bildern

Country Status (10)

Country Link
US (7) US9860451B2 (de)
EP (2) EP3591953A1 (de)
JP (5) JP6462160B2 (de)
KR (9) KR102045991B1 (de)
CN (4) CN111475086B (de)
AU (7) AU2016100647B4 (de)
DE (1) DE202016002529U1 (de)
DK (2) DK201500585A1 (de)
NL (3) NL2016801B1 (de)
WO (1) WO2016200587A1 (de)

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP3410287B1 (de) 2012-05-09 2022-08-17 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten
EP2847657B1 (de) 2012-05-09 2016-08-10 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zur anzeige von zusatzinformationen als rektion auf einen benutzerkontakt
EP3264252B1 (de) 2012-05-09 2019-11-27 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum ausführen einer operation gemäss eines ausgewählten operationsmodus
KR101958517B1 (ko) 2012-12-29 2019-03-14 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
EP3564806B1 (de) 2012-12-29 2024-02-21 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur entscheidung über das scrollen oder auswählen von bildschirminhalten
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10079970B2 (en) * 2013-07-16 2018-09-18 Texas Instruments Incorporated Controlling image focus in real-time using gestures and depth sensor data
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
USD782495S1 (en) * 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
USD789955S1 (en) * 2014-11-04 2017-06-20 Teenage Engineering Ab Display screen or portion thereof with graphical user interface
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9979890B2 (en) 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
US10831991B1 (en) * 2015-06-02 2020-11-10 United Service Automobile Association (USAA) Systems and methods for testing content developed for access via a network
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US11182068B2 (en) * 2015-10-27 2021-11-23 Verizon Patent And Licensing Inc. Method and system for interacting with a touch screen
KR101832966B1 (ko) * 2015-11-10 2018-02-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6590666B2 (ja) * 2015-11-30 2019-10-16 キヤノン株式会社 電子機器およびその制御方法
JP6562832B2 (ja) * 2015-12-16 2019-08-21 キヤノン株式会社 電子機器およびその制御方法
USD802015S1 (en) * 2016-04-28 2017-11-07 Rubicon Global Holdings, Llc Portion of a display screen with icon
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10757377B2 (en) 2016-06-01 2020-08-25 Pixart Imaging Inc. Surveillance system and operation method thereof
TW201743241A (zh) * 2016-06-01 2017-12-16 原相科技股份有限公司 可攜式電子裝置及其運作方法
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
CN107786721A (zh) * 2016-08-26 2018-03-09 华为终端(东莞)有限公司 终端的控制方法、终端、智能穿戴设备和系统
WO2018042245A1 (en) 2016-09-02 2018-03-08 Titan International Technologies, Ltd. Automated detonation of fireworks
US11709037B2 (en) 2016-09-02 2023-07-25 Pyromart Inc. Automated detonation of fireworks
CN109413257B (zh) * 2016-12-20 2021-02-19 国基电子(上海)有限公司 电子装置及其数据分享方法
DK179932B1 (en) 2017-05-16 2019-10-11 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES
CN110618756A (zh) * 2017-05-16 2019-12-27 苹果公司 用于导航、显示和编辑具有多个显示模式的媒体项的设备、方法和图形用户界面
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10410086B2 (en) 2017-05-30 2019-09-10 Google Llc Systems and methods of person recognition in video streams
KR20180131908A (ko) * 2017-06-01 2018-12-11 엘지전자 주식회사 이동 단말기 및 그것의 동작방법
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
KR102444286B1 (ko) * 2017-06-19 2022-09-16 삼성전자주식회사 지압 인식 장치 및 이를 포함하는 전자 기기
USD839302S1 (en) * 2017-08-28 2019-01-29 Adp, Llc Display screen with animated graphical user interface
USD856461S1 (en) 2017-08-30 2019-08-13 Titan International Technologies, Ltd. Fireworks detonator
CN107592450B (zh) * 2017-08-30 2021-07-20 珠海豹趣科技有限公司 一种媒体数据处理方法及装置
USD841678S1 (en) * 2017-08-30 2019-02-26 Titan International Technologies, Ltd. Display screen or portion thereof with transitional graphical user interface for detonation of fireworks
EP3679722A1 (de) * 2017-09-05 2020-07-15 Facebook, Inc. Veränderung der aufnahme von videodaten durch eine bildaufnahmevorrichtung auf der basis von videodaten, die zuvor von der bilderfassungsvorrichtung erfasst wurden
US10805521B2 (en) 2017-09-05 2020-10-13 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10666857B2 (en) 2017-09-05 2020-05-26 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10868955B2 (en) 2017-09-05 2020-12-15 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
CN108198553B (zh) * 2018-01-23 2021-08-06 北京百度网讯科技有限公司 语音交互方法、装置、设备和计算机可读存储介质
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10813169B2 (en) 2018-03-22 2020-10-20 GoTenna, Inc. Mesh network deployment kit
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
TWI669636B (zh) * 2018-06-07 2019-08-21 宏碁股份有限公司 可應用於互動控制之電子裝置
USD956789S1 (en) * 2018-08-07 2022-07-05 Aristocrat Technologies Australia Pty Limited Display screen or portion thereof with transitional graphical user interface
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
USD876477S1 (en) 2018-09-11 2020-02-25 Aristocrat Technologies Australia Pty Limited Display screen or portion thereof with transitional graphical user interface
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
EP3671483B1 (de) * 2018-12-19 2024-01-24 Audi Ag Verfahren und computerprogramm zum empfangen, verwalten und ausgeben einer vielzahl von benutzerbezogenen datendateien unterschiedlicher datentypen auf einer benutzerschnittstelle einer vorrichtung und vorrichtung zur speicherung und bedienung des computerprogramms
JP7172796B2 (ja) * 2019-03-28 2022-11-16 コニカミノルタ株式会社 表示システム、表示制御装置及び表示制御方法
US20200310601A1 (en) * 2019-03-29 2020-10-01 Snap Inc. Dynamic media selection menu
KR102656963B1 (ko) * 2019-04-03 2024-04-16 삼성전자 주식회사 전자 장치 및 전자 장치의 제어 방법
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11144780B2 (en) * 2019-07-30 2021-10-12 Snap-On Incorporated Adaptive image processing
CN112449101A (zh) * 2019-09-05 2021-03-05 华为技术有限公司 一种拍摄方法及电子设备
CN110891144B (zh) * 2019-11-28 2021-11-19 维沃移动通信有限公司 一种图像显示方法及电子设备
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
KR20210098292A (ko) 2020-01-31 2021-08-10 삼성전자주식회사 카메라를 포함하는 전자 장치 및 그 동작 방법
CN111259183B (zh) * 2020-02-21 2023-08-01 北京百度网讯科技有限公司 图像识图方法、装置、电子设备和介质
US10715412B1 (en) * 2020-03-05 2020-07-14 Gigantic Ltd. Systems and methods for monitoring of overall latency
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11671559B2 (en) 2020-09-30 2023-06-06 Snap Inc. Real time video editing
JP1724470S (ja) * 2020-10-07 2022-09-12 コミュニケーション機能付き電子計算機
CN112218136B (zh) * 2020-10-10 2021-08-10 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备及存储介质
CN112153622B (zh) * 2020-10-15 2023-02-03 华大恒芯科技有限公司 共享电动车安全头盔nfc管理方法与系统
CN114726996B (zh) * 2021-01-04 2024-03-15 北京外号信息技术有限公司 用于建立空间位置与成像位置之间的映射的方法和系统
CN113126737B (zh) * 2021-04-19 2022-06-07 无锡宇宁智能科技有限公司 屏幕的唤醒方法、装置、终端设备及计算机可读存储介质
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US20220382440A1 (en) * 2021-06-01 2022-12-01 Apple Inc. User interfaces for managing media styles
US11671387B2 (en) 2021-06-06 2023-06-06 Apple Inc. User interfaces for messaging conversations
CN113313791B (zh) * 2021-07-30 2021-10-01 深圳市知小兵科技有限公司 互联网游戏的图像处理方法及相关设备
US11910075B2 (en) * 2021-11-12 2024-02-20 Canon Kabushiki Kaisha Imaging apparatus
CN114138121B (zh) * 2022-02-07 2022-04-22 北京深光科技有限公司 用户手势识别方法、装置、系统、存储介质及计算设备
CN115148165B (zh) * 2022-04-18 2023-06-27 深圳市华星光电半导体显示技术有限公司 显示画面的调整方法、装置和显示装置和存储介质
WO2024085487A1 (ko) * 2022-10-21 2024-04-25 삼성전자주식회사 카메라의 설정을 변경하기 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Family Cites Families (1611)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58182746A (ja) 1982-04-20 1983-10-25 Fujitsu Ltd タツチ式入力装置
JPS6074003A (ja) 1983-09-30 1985-04-26 Ryozo Setoguchi 形状創成装置
US4903201A (en) 1983-11-03 1990-02-20 World Energy Exchange Corporation Automated futures trading exchange
US5270922A (en) 1984-06-29 1993-12-14 Merrill Lynch & Company, Inc. System for distributing, processing and displaying financial information
US4674044A (en) 1985-01-30 1987-06-16 Merrill Lynch, Pierce, Fenner & Smith, Inc. Automated securities trading system
US4750135A (en) 1986-05-01 1988-06-07 Reuters Limited Method for dynamically creating a receiver definable local trading instrument displayable record from a remotely transmitted trading instrument common data stream
US5038284A (en) 1988-02-17 1991-08-06 Kramer Robert M Method and apparatus relating to conducting trading transactions with portable trading stations
ATE161979T1 (de) 1988-05-27 1998-01-15 Kodak Ltd Dokumentenmappen-abbild zur anzeige in einem datenverarbeitungssystem
CA1328511C (en) 1988-10-11 1994-04-12 Jean-Marie Hullot System and method for managing graphic images
EP0388162A3 (de) 1989-03-14 1993-03-03 Chicago Board Of Trade Apparat für finanzielle Transaktionen
AU5281590A (en) 1989-03-14 1990-10-09 Chicago Board Of Trade Simulated pit trading system
JPH03505938A (ja) 1989-03-28 1991-12-19 シカゴ ボード オブ トレード 模擬生き市況取引システム
US5077665A (en) 1989-05-25 1991-12-31 Reuters Limited Distributed matching system
US5136501A (en) 1989-05-26 1992-08-04 Reuters Limited Anonymous matching system
US5101353A (en) 1989-05-31 1992-03-31 Lattice Investments, Inc. Automated system for providing liquidity to securities markets
US5297031A (en) 1990-03-06 1994-03-22 Chicago Board Of Trade Method and apparatus for order management by market brokers
GB9027249D0 (en) 1990-12-17 1991-02-06 Reuters Ltd Offer matching system
US5297032A (en) 1991-02-01 1994-03-22 Merrill Lynch, Pierce, Fenner & Smith Incorporated Securities trading workstation
US5184120A (en) 1991-04-04 1993-02-02 Motorola, Inc. Menu selection using adaptive force sensing resistor
US5664210A (en) 1991-08-19 1997-09-02 International Business Machines Corporation Method and system of providing multiple selections in text on a computer display
US6208271B1 (en) 1998-09-04 2001-03-27 Brad A. Armstrong Remote controller with analog button(s)
US6347997B1 (en) 1997-10-01 2002-02-19 Brad A. Armstrong Analog controls housed with electronic displays
US5717725A (en) 1992-03-12 1998-02-10 Ntp Incorporated System for wireless transmission and receiving of information through a computer bus interface and method of operation
US5544262A (en) 1992-04-07 1996-08-06 Apple Computer, Inc. Method and apparatus for processing graphically input equations
EP0574213B1 (de) 1992-06-08 1999-03-24 Synaptics, Inc. Objekt-Positionsdetektor
JPH0651738A (ja) 1992-07-27 1994-02-25 Canon Inc コンピュータシステムの情報表示装置
US5589855A (en) 1992-08-14 1996-12-31 Transaction Technology, Inc. Visually impaired customer activated terminal method and system
JP2994888B2 (ja) 1992-11-25 1999-12-27 シャープ株式会社 入力処理装置および入力処理方法
US5428730A (en) 1992-12-15 1995-06-27 International Business Machines Corporation Multimedia system having software mechanism providing standardized interfaces and controls for the operation of multimedia devices
US5455965A (en) 1993-02-26 1995-10-03 Motorola, Inc. Method for determining and utilizing simulcast transmit times
US5555354A (en) 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
JPH0798769A (ja) 1993-06-18 1995-04-11 Hitachi Ltd 情報処理装置及びその画面編集方法
US5463722A (en) 1993-07-23 1995-10-31 Apple Computer, Inc. Automatic alignment of objects in two-dimensional and three-dimensional display space using an alignment field gradient
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
JPH07151512A (ja) 1993-10-05 1995-06-16 Mitsutoyo Corp 三次元測定機の操作装置
JPH07104915A (ja) 1993-10-06 1995-04-21 Toshiba Corp グラフィックユーザインタフェース装置
AU6019194A (en) 1993-10-29 1995-05-22 Taligent, Inc. Graphic editor framework system
DE69426919T2 (de) 1993-12-30 2001-06-28 Xerox Corp Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
CA2119921C (en) 1994-03-23 2009-09-29 Sydney H. Belzberg Computerized stock exchange trading system
AU2241195A (en) 1994-04-06 1995-10-30 Morgan Stanley Group Inc. Data processing system and method for financial debt instruments
US5526478A (en) 1994-06-30 1996-06-11 Silicon Graphics, Inc. Three dimensional model with three dimensional pointers and multimedia functions linked to the pointers
GB9416673D0 (en) 1994-08-17 1994-10-12 Reuters Ltd Data exchange filtering system
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5774877A (en) 1994-09-20 1998-06-30 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
US5797002A (en) 1994-09-20 1998-08-18 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5689651A (en) 1994-10-13 1997-11-18 Lozman; Fane System for processing and displaying financial information
AU4158496A (en) 1994-11-14 1996-06-06 Catapult Entertainment, Inc. Method and apparatus for synchronizing the execution of multiple video game systems in a networked environment
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
JPH08227341A (ja) 1995-02-22 1996-09-03 Mitsubishi Electric Corp ユーザインターフェース
US5657246A (en) 1995-03-07 1997-08-12 Vtel Corporation Method and apparatus for a video conference user interface
IL117424A (en) 1995-04-27 1999-09-22 Optimark Tech Inc Crossing network utilizing satisfaction density profile
US5845266A (en) 1995-12-12 1998-12-01 Optimark Technologies, Inc. Crossing network utilizing satisfaction density profile with price discovery features
US6072488A (en) 1995-05-05 2000-06-06 Apple Computer, Inc. Systems and methods for replacing open windows in a graphical user interface
US5793360A (en) 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
US5717438A (en) 1995-08-25 1998-02-10 International Business Machines Corporation Multimedia document using time box diagrams
JPH11511578A (ja) 1995-08-28 1999-10-05 イービーエス ディーリング リソーシス インコーポレイテッド 改良された相場入力能力を有する匿名取引システム
US5844560A (en) 1995-09-29 1998-12-01 Intel Corporation Graphical user interface control element
JP3417741B2 (ja) 1995-10-06 2003-06-16 富士通株式会社 取引制御システム
US5910882A (en) 1995-11-14 1999-06-08 Garmin Corporation Portable electronic device for use in combination portable and fixed mount applications
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US5793377A (en) 1995-11-22 1998-08-11 Autodesk, Inc. Method and apparatus for polar coordinate snap in a computer implemented drawing tool
US5801692A (en) 1995-11-30 1998-09-01 Microsoft Corporation Audio-visual user interface controls
US5719796A (en) 1995-12-04 1998-02-17 Advanced Micro Devices, Inc. System for monitoring and analyzing manufacturing processes using statistical simulation with single step feedback
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US6300936B1 (en) 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5695400A (en) 1996-01-30 1997-12-09 Boxer Jam Productions Method of managing multi-player game playing over a network
US5946647A (en) 1996-02-01 1999-08-31 Apple Computer, Inc. System and method for performing an action on a structure in computer-generated data
US5820463A (en) 1996-02-06 1998-10-13 Bell Atlantic Network Services, Inc. Method and apparatus for multi-player gaming over a network
JPH09269883A (ja) 1996-03-29 1997-10-14 Seiko Epson Corp 情報処理装置および情報処理方法
US6223188B1 (en) 1996-04-10 2001-04-24 Sun Microsystems, Inc. Presentation of link information as an aid to hypermedia navigation
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5924083A (en) 1996-05-29 1999-07-13 Geneva Branch Of Reuters Transaction Services Limited Distributed matching system for displaying a book of credit filtered bids and offers
US5819293A (en) 1996-06-06 1998-10-06 Microsoft Corporation Automatic Spreadsheet forms
GB2314245A (en) 1996-06-10 1997-12-17 Ibm Graphical user interface
JP4484255B2 (ja) 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
US6014643A (en) 1996-06-28 2000-01-11 Minton; Vernon F. Interactive securities trading system
US8674932B2 (en) 1996-07-05 2014-03-18 Anascape, Ltd. Image controller
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US6247000B1 (en) 1996-08-21 2001-06-12 Crossmar, Inc. Method and system for confirmation and settlement for financial transactions matching
US6121960A (en) 1996-08-28 2000-09-19 Via, Inc. Touch screen systems and methods
JPH1089976A (ja) 1996-09-13 1998-04-10 Hitachi Ltd 情報表示装置およびナビゲーションシステム
US5870683A (en) 1996-09-18 1999-02-09 Nokia Mobile Phones Limited Mobile station having method and apparatus for displaying user-selectable animation sequence
US6195647B1 (en) 1996-09-26 2001-02-27 The Nasdaq Stock Market, Inc. On-line transaction processing system for security trading
US5963923A (en) 1996-11-12 1999-10-05 Garber; Howard B. System and method for trading having a principal market maker
US5973670A (en) 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
EP0859307A1 (de) 1997-02-18 1998-08-19 International Business Machines Corporation Steuerungseinrichtung für graphische Benutzerschnittstelle
US6031989A (en) 1997-02-27 2000-02-29 Microsoft Corporation Method of formatting and displaying nested documents
US6954899B1 (en) 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US7091948B2 (en) 1997-04-25 2006-08-15 Immersion Corporation Design of force sensations for haptic feedback computer interfaces
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
CN1261450A (zh) 1997-04-30 2000-07-26 特拉斯特马格国际有限公司 网络计算机交易系统
US6806893B1 (en) 1997-08-04 2004-10-19 Parasoft Corporation System and method for displaying simulated three dimensional buttons in a graphical user interface
US6266684B1 (en) 1997-08-06 2001-07-24 Adobe Systems Incorporated Creating and saving multi-frame web pages
US6411998B1 (en) 1997-09-08 2002-06-25 International Business Machines Corporation World wide web internet delay monitor
US6002397A (en) 1997-09-30 1999-12-14 International Business Machines Corporation Window hatches in graphical user interface
US6532000B2 (en) 1997-10-01 2003-03-11 Brad A. Armstrong Analog controls housed with electronic displays for global positioning systems
US6456778B2 (en) 1997-10-01 2002-09-24 Brad A. Armstrong Analog controls housed with electronic displays for video recorders and cameras
US6421653B1 (en) 1997-10-14 2002-07-16 Blackbird Holdings, Inc. Systems, methods and computer program products for electronic trading of financial instruments
US6131087A (en) 1997-11-05 2000-10-10 The Planning Solutions Group, Inc. Method for automatically identifying, matching, and near-matching buyers and sellers in electronic market transactions
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
CN1284187A (zh) 1997-12-08 2001-02-14 新日本制铁株式会社 商品交易装置、商品交易系统、商品交易方法和存储媒体
US6035287A (en) 1997-12-17 2000-03-07 Omega Consulting, Inc. Method and apparatus for bundled asset trading
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
EP2256605B1 (de) 1998-01-26 2017-12-06 Apple Inc. Verfahren und Vorrichtung zur Integration einer manuellen Eingabe
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US6219034B1 (en) 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
FI107859B (fi) 1998-03-23 2001-10-15 Nokia Networks Oy Tilauspalvelut matkaviestinjärjestelmässä
US6211880B1 (en) 1998-04-13 2001-04-03 Albert Joseph Impink, Jr. Display apparatus
US6180894B1 (en) 1998-05-07 2001-01-30 Aiptek International Inc. Dual mode digitizer tablet system
US6208340B1 (en) 1998-05-26 2001-03-27 International Business Machines Corporation Graphical user interface including a drop-down widget that permits a plurality of choices to be selected in response to a single selection of the drop-down widget
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6707443B2 (en) 1998-06-23 2004-03-16 Immersion Corporation Haptic trackball device
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
US6758749B2 (en) 1998-07-31 2004-07-06 Radical Gaming Concepts Ltd. Enhanced payout feature for gaming machines
AU5777599A (en) 1998-08-21 2000-03-14 Marketxt, Inc. Anti-manipulation method and system for a real-time computerized stock trading system
US6326956B1 (en) 1998-08-24 2001-12-04 Intertactile Technologies Corporation Circuit control devices utilizing electronic display screen light
US6111575A (en) 1998-09-24 2000-08-29 International Business Machines Corporation Graphical undo/redo manager and method
DE19849460B4 (de) 1998-10-28 2009-11-05 Völckers, Oliver Numerische digitale Telefontastatur für ein Telefongerät mit einem Display und Verfahren zur schnellen Textauswahl aus einer Liste mittels der numerischen Telefontastatur
US6405180B2 (en) 1998-11-05 2002-06-11 International Securities Exchange, Llc Automated exchange for matching bids between a party and a counterparty based on a relationship between the counterparty and the exchange
US6377940B2 (en) 1998-11-05 2002-04-23 International Securities Exchange, Llc Method and apparatus for setting a price for a security on an automated exchange based on a comparison of prices on other exchanges
JP2000148348A (ja) 1998-11-13 2000-05-26 Internatl Business Mach Corp <Ibm> 起動中のアプリケーション・プログラムを容易に識別し、かつ終了させることができる方法およびシステム
DK1145541T3 (da) 1998-11-24 2013-03-11 Niksun Inc Apparat og fremgangsmåde til at indsamle og analysere kommunikationsdata
US6252594B1 (en) 1998-12-11 2001-06-26 International Business Machines Corporation Method and system for aiding a user in scrolling through a document using animation, voice cues and a dockable scroll bar
US6489975B1 (en) 1998-12-14 2002-12-03 International Business Machines Corporation System and method for improved navigation between open windows in an application program using window tabs
US6292233B1 (en) 1998-12-31 2001-09-18 Stmicroelectronics S.R.L. Device controller with low power standby mode
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7506252B2 (en) 1999-01-26 2009-03-17 Blumberg Marvin R Speed typing apparatus for entering letters of alphabet with at least thirteen-letter input elements
US6396962B1 (en) 1999-01-29 2002-05-28 Sony Corporation System and method for providing zooming video
US6512761B1 (en) 1999-02-02 2003-01-28 3Com Corporation System for adjusting billing for real-time media transmissions based on delay
US6272474B1 (en) 1999-02-08 2001-08-07 Crisostomo B. Garcia Method for monitoring and trading stocks via the internet displaying bid/ask trade bars
US6551357B1 (en) 1999-02-12 2003-04-22 International Business Machines Corporation Method, system, and program for storing and retrieving markings for display to an electronic media file
EP1028583A1 (de) 1999-02-12 2000-08-16 Hewlett-Packard Company Digitale Kamera mit Tonaufzeichnung
WO2000050974A2 (en) 1999-02-26 2000-08-31 Reveo, Inc. Globally time-synchronized systems, devices and methods
US20020026321A1 (en) 1999-02-26 2002-02-28 Sadeg M. Faris Internet-based system and method for fairly and securely enabling timed-constrained competition using globally time-sychronized client subsystems and information servers having microsecond client-event resolution
AU3247600A (en) 1999-03-01 2000-09-21 Wit Capital Corporation A system and method for conducting securities transactions over a computer network
US6408282B1 (en) 1999-03-01 2002-06-18 Wit Capital Corp. System and method for conducting securities transactions over a computer network
US7212999B2 (en) 1999-04-09 2007-05-01 Trading Technologies International, Inc. User interface for an electronic trading system
US6278982B1 (en) 1999-04-21 2001-08-21 Lava Trading Inc. Securities trading system for consolidation of trading on multiple ECNS and electronic exchanges
AU4369100A (en) 1999-04-22 2000-11-10 Trading Technologies, Inc. Electronic securities trading system
JP2001034775A (ja) 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd 履歴画像表示方法
AU5299700A (en) 1999-05-27 2000-12-18 America Online, Inc. Keyboard system with automatic correction
US6227743B1 (en) 1999-07-01 2001-05-08 Karl A. Robb Pen cap stylus for use with touch screens
US6904405B2 (en) 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6489978B1 (en) 1999-08-06 2002-12-03 International Business Machines Corporation Extending the opening time of state menu items for conformations of multiple changes
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
WO2001016852A2 (en) 1999-08-30 2001-03-08 Epit, Inc. User interface for semi-fungible trading
US7685048B1 (en) 1999-09-01 2010-03-23 Bloomberg L.P. Electronic trading system for forwards spread trades
JP2001078137A (ja) 1999-09-01 2001-03-23 Olympus Optical Co Ltd 電子カメラ
US6459442B1 (en) 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
US7181424B1 (en) 1999-09-23 2007-02-20 The Nasdaq Stock Market, Inc. Montage for automated market system
US8311926B1 (en) 1999-09-23 2012-11-13 The Nasdaq Omx Group, Inc. Montage for automated market system
US8239303B2 (en) 1999-09-23 2012-08-07 The Nasdaq Omx Group, Inc. Match-off of order flow in electronic market system
US6377636B1 (en) 1999-11-02 2002-04-23 Iospan Wirless, Inc. Method and wireless communications system using coordinated transmission and training for interference mitigation
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US20020023039A1 (en) 1999-12-03 2002-02-21 Fritsch Daniel Scott Computerized system and method for conducting an online virtual auction
US20020055899A1 (en) 1999-12-06 2002-05-09 Williams Joseph C. Display system and method for displaying and organizing financial information
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US7362331B2 (en) 2000-01-05 2008-04-22 Apple Inc. Time-based, non-constant translation of user interface objects between states
US6664991B1 (en) 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
JP2001202192A (ja) 2000-01-18 2001-07-27 Sony Corp 情報処理装置及びその方法並びにプログラム格納媒体
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US6512530B1 (en) 2000-01-19 2003-01-28 Xerox Corporation Systems and methods for mimicking an image forming or capture device control panel control element
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP3845738B2 (ja) 2000-02-09 2006-11-15 カシオ計算機株式会社 オブジェクト移動装置及び記録媒体
EP1287431A2 (de) 2000-02-14 2003-03-05 Geophoenix, Inc. System und verfahren für graphische programmierung
GB2366630A (en) 2000-02-17 2002-03-13 Gold On Line Trading Ltd Internet Trading System
US6772132B1 (en) 2000-03-02 2004-08-03 Trading Technologies International, Inc. Click based trading with intuitive grid display of market depth
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2001306207A (ja) 2000-04-27 2001-11-02 Just Syst Corp ドラッグアンドドロップ処理を支援するプログラムを記録した記録媒体
US20020035534A1 (en) 2000-05-04 2002-03-21 Buist Walter D. Method and apparatus for auctioning securities
US7246092B1 (en) 2000-05-12 2007-07-17 The Nasdaq Stock Market, Inc. Montage for an electronic market
US6831666B1 (en) 2000-06-14 2004-12-14 Canon Kabushiki Kaisha Application selection window in a windows operation system
JP2002041023A (ja) 2000-07-06 2002-02-08 Internatl Business Mach Corp <Ibm> コンピュータシステム、表示制御装置、ディスプレイ装置、表示制御方法、記憶媒体及びプログラム伝送装置
KR20020007860A (ko) 2000-07-19 2002-01-29 백승헌 인터넷상의 시간보정 방법 및 이를 이용한 상거래시점관리 방법
US6583798B1 (en) 2000-07-21 2003-06-24 Microsoft Corporation On-object user interface
JP4501243B2 (ja) 2000-07-24 2010-07-14 ソニー株式会社 テレビジョン受像機およびプログラム実行方法
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP3949912B2 (ja) 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
US8924277B2 (en) 2000-08-17 2014-12-30 Nyse Group, Inc. Method and system for automatic execution of a securities transaction
EP1314313A2 (de) * 2000-08-21 2003-05-28 Koninklijke Philips Electronics N.V. Verfahren und system zur aktiven änderung von videoinhalt in übereinstimmung mit prozessen und daten, die im videostrom beinhaltet sind
US6734882B1 (en) 2000-09-29 2004-05-11 Apple Computer, Inc. Combined menu-list control element in a graphical user interface
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6577296B2 (en) 2000-11-14 2003-06-10 Vega Vista, Inc. Fixed cursor
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
US6943778B1 (en) 2000-11-20 2005-09-13 Nokia Corporation Touch screen input technique
DE10059906A1 (de) 2000-12-01 2002-06-06 Bs Biometric Systems Gmbh Druckempfindliche Fläche eines Bildschirms oder Displays
US20020077117A1 (en) 2000-12-15 2002-06-20 Jocelyn Cloutier Synchronous transmission of data with network remote control
JP2002182855A (ja) 2000-12-19 2002-06-28 Totoku Electric Co Ltd タッチパネル装置
GB2370739A (en) 2000-12-27 2002-07-03 Nokia Corp Flashlight cursor for set-top boxes
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050183017A1 (en) 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US20020107748A1 (en) 2001-02-05 2002-08-08 International Business Machines Corporation Method and system for decentralized order matching among individual marketplaces
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120837A1 (en) 2001-02-28 2002-08-29 Maxemchuk Nicholas Frank Distributed internet multicast system for the stock market
CA2375844C (en) 2001-03-09 2008-12-30 Research In Motion Limited Advanced voice and data operations in a mobile data communication device
JP2002268867A (ja) 2001-03-13 2002-09-20 Sony Corp 表示装置及び表示方法、プログラム記録媒体並びにプログラム
US20020178102A1 (en) 2001-03-15 2002-11-28 Larry Scheinberg Margin release system for an electronic-based market
JP2002286489A (ja) 2001-03-28 2002-10-03 Clarion Co Ltd カーナビゲーション装置及び方法並びにカーナビゲーション用ソフトウェア
TW502180B (en) 2001-03-30 2002-09-11 Ulead Systems Inc Previewing method of editing multimedia effect
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
US20020149630A1 (en) 2001-04-16 2002-10-17 Parascript Llc Providing hand-written and hand-drawn electronic mail service
US7134093B2 (en) 2001-04-18 2006-11-07 International Business Machines Corporation Graphical user interface for direct control of display of data
US20020161693A1 (en) 2001-04-30 2002-10-31 Greenwald Jamie A. Automated over-the-counter derivatives trading system
US8125492B1 (en) 2001-05-18 2012-02-28 Autodesk, Inc. Parameter wiring
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US20020186257A1 (en) 2001-06-08 2002-12-12 Cadiz Jonathan J. System and process for providing dynamic communication access and information awareness in an interactive peripheral display
US7190379B2 (en) 2001-06-29 2007-03-13 Contex A/S Method for resizing and moving an object on a computer screen
US8001490B2 (en) 2001-07-10 2011-08-16 Nvidia International, Inc. System, method and computer program product for a content publisher for wireless devices
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP2003084744A (ja) 2001-09-10 2003-03-19 Sharp Corp エミュレーション装置、エミュレーション方法及びその方法を実行するプログラム並びにそのプログラムを記録した記録媒体
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US6965645B2 (en) 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US20030206169A1 (en) 2001-09-26 2003-11-06 Michael Springer System, method and computer program product for automatically snapping lines to drawing elements
US7439975B2 (en) 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
US6703550B2 (en) 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
US8001189B2 (en) 2001-10-16 2011-08-16 Microsoft Corporation Routing of network messages
WO2003038800A1 (en) 2001-11-01 2003-05-08 Immersion Corporation Method and apparatus for providing tactile sensations
JP2003157131A (ja) 2001-11-22 2003-05-30 Nippon Telegr & Teleph Corp <Ntt> 入力方法、表示方法、メディア情報合成表示方法、入力装置、メディア情報合成表示装置、入力プログラム、メディア情報合成表示プログラム、これらのプログラムを記録した記録媒体
JP2003162355A (ja) 2001-11-26 2003-06-06 Sony Corp タスクの表示切り替え方法及び携帯機器及び携帯通信機器
JP2003186597A (ja) 2001-12-13 2003-07-04 Samsung Yokohama Research Institute Co Ltd 携帯端末装置
US20030112269A1 (en) 2001-12-17 2003-06-19 International Business Machines Corporation Configurable graphical element for monitoring dynamic properties of a resource coupled to a computing environment
US7346855B2 (en) 2001-12-21 2008-03-18 Microsoft Corporation Method and system for switching between multiple computer applications
CN1356493A (zh) 2001-12-30 2002-07-03 王森 承压蒸汽锅炉的上锅筒
US7043701B2 (en) 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
US20030184574A1 (en) 2002-02-12 2003-10-02 Phillips James V. Touch screen interface with haptic feedback device
US6888537B2 (en) 2002-02-13 2005-05-03 Siemens Technology-To-Business Center, Llc Configurable industrial input devices that use electrically conductive elastomer
DE60305662T2 (de) 2002-03-08 2007-04-05 Revelations in Design, LP, Austin Steuerkonsole für elektrische geräte
US7114091B2 (en) 2002-03-18 2006-09-26 National Instruments Corporation Synchronization of distributed systems
TWI234115B (en) 2002-04-03 2005-06-11 Htc Corp Method and device of setting threshold pressure for touch panel
US20030189647A1 (en) * 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
JP2004062648A (ja) 2002-07-30 2004-02-26 Kyocera Corp 表示制御装置及びこれに用いられる表示制御プログラム
US20030222915A1 (en) 2002-05-30 2003-12-04 International Business Machines Corporation Data processor controlled display system with drag and drop movement of displayed items from source to destination screen positions and interactive modification of dragged items during the movement
US7801796B2 (en) 2002-06-05 2010-09-21 The Nasdaq Omx Group, Inc. Message prioritization process and method
US7259752B1 (en) 2002-06-28 2007-08-21 Microsoft Corporation Method and system for editing electronic ink
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004054861A (ja) 2002-07-16 2004-02-19 Sanee Denki Kk タッチ式マウス
US20040015662A1 (en) 2002-07-22 2004-01-22 Aron Cummings Memory card, memory card controller, and software therefor
US20040056849A1 (en) 2002-07-25 2004-03-25 Andrew Lohbihler Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen
US7549127B2 (en) 2002-08-01 2009-06-16 Realnetworks, Inc. Method and apparatus for resizing video content displayed within a graphical user interface
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
KR100486711B1 (ko) 2002-08-12 2005-05-03 삼성전기주식회사 개인용 정보 단말기의 페이지 넘김 장치 및 방법
JP4500485B2 (ja) 2002-08-28 2010-07-14 株式会社日立製作所 タッチパネルを備えた表示装置
US7739604B1 (en) 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
JP4234968B2 (ja) 2002-09-27 2009-03-04 富士フイルム株式会社 デジタルカメラ
US20040138849A1 (en) 2002-09-30 2004-07-15 Albrecht Schmidt Load sensing surface as pointing device
EP1406150A1 (de) 2002-10-01 2004-04-07 Sony Ericsson Mobile Communications AB Verfahren und Vorrichtung zur taktilen Rückkopplung und tragbares Gerät mit derselben
US7752115B2 (en) 2002-10-02 2010-07-06 Trading Technologies International, Inc. Method and apparatus for a fair exchange
US7770135B2 (en) 2002-10-18 2010-08-03 Autodesk, Inc. Tracking menus, system and method
JP4173718B2 (ja) 2002-10-31 2008-10-29 富士通株式会社 ウィンドウ切替装置及びウィンドウ切替プログラム
JP2004152217A (ja) 2002-11-01 2004-05-27 Canon Electronics Inc タッチパネル付き表示装置
US20040155752A1 (en) 2002-11-27 2004-08-12 Jory Radke Reading fingerprints
US20050114785A1 (en) 2003-01-07 2005-05-26 Microsoft Corporation Active content wizard execution with improved conspicuity
US20070128899A1 (en) 2003-01-12 2007-06-07 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US7453439B1 (en) 2003-01-16 2008-11-18 Forward Input Inc. System and method for continuous stroke word-based text input
US7224362B2 (en) 2003-01-30 2007-05-29 Agilent Technologies, Inc. Systems and methods for providing visualization and network diagrams
US7685538B2 (en) 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
US20040155909A1 (en) 2003-02-07 2004-08-12 Sun Microsystems, Inc. Scroll tray mechanism for cellular telephone
JP2005317041A (ja) 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP4367897B2 (ja) * 2003-02-27 2009-11-18 キヤノン株式会社 画像表示制御装置及び方法
US7185291B2 (en) 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7369102B2 (en) 2003-03-04 2008-05-06 Microsoft Corporation System and method for navigating a graphical user interface on a smaller display
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7380218B2 (en) 2003-03-27 2008-05-27 International Business Machines Corporation Method and apparatus for managing windows
US20040219968A1 (en) 2003-05-01 2004-11-04 Fiden Daniel P. Gaming machine with interactive pop-up windows
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US7516404B1 (en) 2003-06-02 2009-04-07 Colby Steven M Text correction
US7051282B2 (en) 2003-06-13 2006-05-23 Microsoft Corporation Multi-layer graphical user interface
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
DE202004009752U1 (de) 2003-06-20 2004-11-11 Apple Computer Inc., Cupertino Computersystem mit einer Benutzerschnittstelle, Datenträger und Signalfolge
US20040267823A1 (en) 2003-06-24 2004-12-30 Microsoft Corporation Reconcilable and undoable file system
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
JP2005031786A (ja) 2003-07-08 2005-02-03 Fujitsu Ten Ltd 文字入力装置
WO2005008444A2 (en) 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
US7036088B2 (en) 2003-07-24 2006-04-25 Sap Ag Multi-modal method for application swapping
US7721228B2 (en) 2003-08-05 2010-05-18 Yahoo! Inc. Method and system of controlling a context menu
KR100580174B1 (ko) 2003-08-21 2006-05-16 삼성전자주식회사 회전 가능한 디스플레이 장치 및 화면 조정 방법
JP4003742B2 (ja) 2003-08-21 2007-11-07 カシオ計算機株式会社 電子カメラ
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
US7500127B2 (en) 2003-09-18 2009-03-03 Vulcan Portals Inc. Method and apparatus for operating an electronic device in a low power mode
US7925298B2 (en) 2003-09-18 2011-04-12 Vulcan Portals Inc. User interface for a secondary display module of a mobile electronic device
US7702733B2 (en) 2003-09-18 2010-04-20 Vulcan Portals Inc. Low power email functionality for an electronic device
US7426647B2 (en) 2003-09-18 2008-09-16 Vulcan Portals Inc. Low power media player for an electronic device
KR100597588B1 (ko) 2003-10-02 2006-07-06 한국전자통신연구원 우선순위기반 능동 시험패킷을 이용한 노드간 경로특성측정방법
US7176902B2 (en) 2003-10-10 2007-02-13 3M Innovative Properties Company Wake-on-touch for vibration sensing touch input devices
US7554689B2 (en) 2003-10-15 2009-06-30 Canon Kabushiki Kaisha Document layout method
US20050091604A1 (en) 2003-10-22 2005-04-28 Scott Davis Systems and methods that track a user-identified point of focus
US6990637B2 (en) 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
JP2005135106A (ja) 2003-10-29 2005-05-26 Sony Corp 表示画像制御装置及び方法
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US20050110777A1 (en) 2003-11-25 2005-05-26 Geaghan Bernard O. Light-emitting stylus and user input device using same
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP2005157842A (ja) 2003-11-27 2005-06-16 Fujitsu Ltd ブラウザプログラム、ブラウジング方法、及びブラウジング装置
US7454713B2 (en) 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
WO2005055034A1 (en) 2003-12-01 2005-06-16 Research In Motion Limited Previewing a new event on a small screen device
EP1538821B1 (de) 2003-12-01 2007-08-22 Sony Ericsson Mobile Communications AB Kamera zur Aufnahme einer Bildsequenz
US20050125742A1 (en) 2003-12-09 2005-06-09 International Business Machines Corporation Non-overlapping graphical user interface workspace
US7774721B2 (en) 2003-12-15 2010-08-10 Microsoft Corporation Intelligent backward resource navigation
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
US7283120B2 (en) 2004-01-16 2007-10-16 Immersion Corporation Method and apparatus for providing haptic feedback having a position-based component and a predetermined time-based component
EP1557744B1 (de) 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptische tastengesteuerte Dateneingabe
US7966352B2 (en) 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
JP4790990B2 (ja) 2004-01-27 2011-10-12 京セラ株式会社 携帯端末
US7441204B2 (en) 2004-02-06 2008-10-21 Microsoft Corporation Method and system for automatically displaying content of a window on a display that has changed orientation
EP1723632A4 (de) 2004-02-25 2007-07-25 Xplore Technologies Corp Vorrichtung zur bereitstellung von digitalen eingaben mit mehreren betriebsarten
US20050190280A1 (en) 2004-02-27 2005-09-01 Haas William R. Method and apparatus for a digital camera scrolling slideshow
KR100611182B1 (ko) 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
US7180531B2 (en) 2004-02-27 2007-02-20 Microsoft Corporation Method and apparatus for enabling application program compatibility with display devices having improved pixel density
US7788595B2 (en) 2004-03-08 2010-08-31 Sap Ag Method and system for switching among management system applications
US20050204295A1 (en) 2004-03-09 2005-09-15 Freedom Scientific, Inc. Low Vision Enhancement for Graphic User Interface
GB2412831A (en) 2004-03-30 2005-10-05 Univ Newcastle Highlighting important information by blurring less important information
CN100437464C (zh) 2004-04-05 2008-11-26 松下电器产业株式会社 显示屏管理单元
US20050223338A1 (en) 2004-04-05 2005-10-06 Nokia Corporation Animated user-interface in electronic devices
US20050229112A1 (en) 2004-04-13 2005-10-13 Clay Timothy M Method and system for conveying an image position
US7694236B2 (en) 2004-04-23 2010-04-06 Microsoft Corporation Stack icons representing multiple objects
JP2005309933A (ja) 2004-04-23 2005-11-04 Canon Inc 拡張制御装置および画像処理システムおよびアプリケーションアイコン表示方法およびプログラムおよび記憶媒体
US7787026B1 (en) 2004-04-28 2010-08-31 Media Tek Singapore Pte Ltd. Continuous burst mode digital camera
WO2005106637A2 (en) 2004-05-05 2005-11-10 Koninklijke Philips Electronics N.V. Browsing media items organised using a ring based structure
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
US10074057B2 (en) 2004-05-21 2018-09-11 Pressco Technology Inc. Graphical re-inspection user setup interface
JP4869568B2 (ja) 2004-06-14 2012-02-08 ソニー株式会社 入力装置および電子機器
US8321786B2 (en) 2004-06-17 2012-11-27 Apple Inc. Routine and interface for correcting electronic text
US8453065B2 (en) 2004-06-25 2013-05-28 Apple Inc. Preview and installation of user interface elements in a display environment
US8281241B2 (en) 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8046712B2 (en) 2004-06-29 2011-10-25 Acd Systems International Inc. Management of multiple window panels with a graphical user interface
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060001657A1 (en) 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US20060012577A1 (en) 2004-07-16 2006-01-19 Nokia Corporation Active keypad lock for devices equipped with touch screen
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20080094367A1 (en) 2004-08-02 2008-04-24 Koninklijke Philips Electronics, N.V. Pressure-Controlled Navigating in a Touch Screen
CN100585546C (zh) 2004-08-02 2010-01-27 皇家飞利浦电子股份有限公司 数据处理系统、压力敏感触摸屏以及便于用户与数据处理系统相互作用的方法
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
GB2417176A (en) 2004-08-12 2006-02-15 Ibm Mouse cursor display
US8117542B2 (en) 2004-08-16 2012-02-14 Microsoft Corporation User interface for displaying selectable software functionality controls that are contextually relevant to a selected object
US20060041846A1 (en) 2004-08-19 2006-02-23 International Business Machines Corporation Method of window management for a windowing system
FR2874432A1 (fr) 2004-08-20 2006-02-24 Gervais Danone Sa Procede d'analyse de produits industriels alimentaires, cosmetiques et/ou d'hygiene, interface de mesure pour la mise en oeuvre du procede et systeme electronique de mise en oeuvre de l'interface
JP2006059238A (ja) 2004-08-23 2006-03-02 Denso Corp 情報入力表示装置
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
MX2007002958A (es) 2004-09-15 2007-04-27 Nokia Corp Manejo y desplazamiento de contenido en pantalla.
US20060067654A1 (en) 2004-09-24 2006-03-30 Magix Ag Graphical user interface adaptable to multiple display devices
JP2006091446A (ja) 2004-09-24 2006-04-06 Fuji Photo Film Co Ltd カメラ
JP4860625B2 (ja) 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
CN101308441B (zh) 2004-10-12 2010-09-22 日本电信电话株式会社 三维显示控制方法和三维显示控制装置
WO2006043209A1 (en) 2004-10-19 2006-04-27 Koninklijke Philips Electronics N.V. Master substrate and method of manufacturing a high-density relief structure
US8413271B2 (en) 2004-10-29 2013-04-09 Stryker Corporation Patient support apparatus
US8677274B2 (en) 2004-11-10 2014-03-18 Apple Inc. Highlighting items for search results
EP1815424B1 (de) 2004-11-16 2019-01-09 Koninklijke Philips N.V. Berührungslose manipulation von bildern für regionale verbesserung
US20060107226A1 (en) 2004-11-16 2006-05-18 Microsoft Corporation Sidebar autohide to desktop
FR2878344B1 (fr) 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US20060136834A1 (en) 2004-12-15 2006-06-22 Jiangen Cao Scrollable toolbar with tool tip on small screens
US7458038B2 (en) 2004-12-20 2008-11-25 Microsoft Corporation Selection indication fields
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US7629966B2 (en) 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
WO2006073020A1 (ja) 2005-01-05 2006-07-13 Matsushita Electric Industrial Co., Ltd. スクリーン表示装置
US8341541B2 (en) 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US7552397B2 (en) 2005-01-18 2009-06-23 Microsoft Corporation Multiple window behavior system
US8464176B2 (en) 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
US7574434B2 (en) 2005-02-25 2009-08-11 Sony Corporation Method and system for navigating and selecting media from large data sets
HK1122460A2 (en) 2005-03-04 2009-05-15 Apple Inc Multi-functional hand-held device
JP4166229B2 (ja) 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
US20060213754A1 (en) 2005-03-17 2006-09-28 Microsoft Corporation Method and system for computer application program task switching via a single hardware button
US8147248B2 (en) 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US7454702B2 (en) 2005-03-21 2008-11-18 Microsoft Corporation Tool for selecting ink and other objects in an electronic document
US7661069B2 (en) 2005-03-31 2010-02-09 Microsoft Corporation System and method for visually expressing user interface elements
US7478339B2 (en) 2005-04-01 2009-01-13 Microsoft Corporation Method and apparatus for application window grouping and management
US8014034B2 (en) 2005-04-13 2011-09-06 Acd Systems International Inc. Image contrast enhancement
US8023568B2 (en) * 2005-04-15 2011-09-20 Avid Technology, Inc. Capture, editing and encoding of motion pictures encoded with repeating fields or frames
US7355595B2 (en) 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US7471284B2 (en) 2005-04-15 2008-12-30 Microsoft Corporation Tactile scroll bar with illuminated document position indicator
US7673255B2 (en) 2005-04-22 2010-03-02 Microsoft Corporation Interface and system for manipulating thumbnails of live windows in a window manager
US9569093B2 (en) 2005-05-18 2017-02-14 Power2B, Inc. Displays and information input devices
US7609178B2 (en) 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US9785329B2 (en) 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US7797641B2 (en) 2005-05-27 2010-09-14 Nokia Corporation Mobile communications terminal and method therefore
JP4989637B2 (ja) * 2005-06-02 2012-08-01 ポリビジョン コーポレーション 仮想フリップチャート方法および装置
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
US9141718B2 (en) 2005-06-03 2015-09-22 Apple Inc. Clipview applications
JP2006345209A (ja) 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7903090B2 (en) 2005-06-10 2011-03-08 Qsi Corporation Force-based input device
TWI296395B (en) 2005-06-24 2008-05-01 Benq Corp Method for zooming image on touch screen
US20070004461A1 (en) 2005-06-30 2007-01-04 Bathina Sridhar N Terminal with messaging application
US20070004451A1 (en) 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
KR100649523B1 (ko) 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
US8542196B2 (en) 2005-07-22 2013-09-24 Move Mobile Systems, Inc. System and method for a thumb-optimized touch-screen user interface
JP4622727B2 (ja) 2005-07-29 2011-02-02 日本電気株式会社 適応送信タイミング制御方法、無線通信システムおよび無線通信装置
US8049731B2 (en) 2005-07-29 2011-11-01 Interlink Electronics, Inc. System and method for implementing a control function via a sensor having a touch sensitive control input surface
EP1920408A2 (de) 2005-08-02 2008-05-14 Ipifini, Inc. Eingabevorrichtung mit multifunktionstasten
US7680513B2 (en) 2005-08-08 2010-03-16 Palm, Inc. Contact-centric user-interface features for computing devices
US8483765B2 (en) 2005-08-26 2013-07-09 Kt Corporation User terminal for performing a plurality of applications simultaneously
CN101300621B (zh) 2005-09-13 2010-11-10 时空3D公司 用于提供三维图形用户界面的系统和方法
US20070152980A1 (en) 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
TW200715192A (en) 2005-10-07 2007-04-16 Elan Microelectronics Corp Method for a window to generate different moving speed
JP2007116384A (ja) 2005-10-20 2007-05-10 Funai Electric Co Ltd 電子番組情報表示装置
CN1955906A (zh) 2005-10-28 2007-05-02 华硕电脑股份有限公司 单键多程式的执行方法
US7725839B2 (en) 2005-11-15 2010-05-25 Microsoft Corporation Three-dimensional active file explorer
US8643605B2 (en) 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US7331245B2 (en) 2005-11-22 2008-02-19 Avago Technologies Ecbu Ip Pte Ltd Pressure distribution sensor and sensing method
JP2007148927A (ja) 2005-11-29 2007-06-14 Alps Electric Co Ltd 入力装置及びこれを用いたスクロール制御方法
JP4777055B2 (ja) 2005-11-29 2011-09-21 京セラ株式会社 表示装置、制御方法
US7834850B2 (en) 2005-11-29 2010-11-16 Navisense Method and system for object control
WO2007068091A1 (en) 2005-12-12 2007-06-21 Audiokinetic Inc. Method and system for multi-version digital authoring
JP2007163891A (ja) 2005-12-14 2007-06-28 Sony Corp 表示装置
US8325398B2 (en) 2005-12-22 2012-12-04 Canon Kabushiki Kaisha Image editing system, image management apparatus, and image editing program
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20070152959A1 (en) 2005-12-29 2007-07-05 Sap Ag Pressure-sensitive button
US7797642B1 (en) 2005-12-30 2010-09-14 Google Inc. Method, system, and graphical user interface for meeting-spot-related contact lists
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
CN101379461A (zh) 2005-12-30 2009-03-04 苹果公司 具有多重触摸输入的便携式电子设备
US20070168369A1 (en) 2006-01-04 2007-07-19 Companionlink Software, Inc. User interface for a portable electronic device
US7757185B2 (en) 2006-01-06 2010-07-13 Apple Inc. Enabling and disabling hotkeys
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7486282B2 (en) 2006-01-27 2009-02-03 Microsoft Corporation Size variant pressure eraser
US8510669B2 (en) 2006-02-06 2013-08-13 Yahoo! Inc. Method and system for presenting photos on a website
US7536654B2 (en) 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
US8139514B2 (en) 2006-02-24 2012-03-20 Yahoo! Inc. Method and system for communicating with multiple users via a map over the internet
US20110096174A1 (en) 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
KR100744400B1 (ko) 2006-03-07 2007-07-30 삼성전자주식회사 이동 통신 단말기의 메뉴 화면에서 빠른 메뉴 제공 방법 및장치
US7532837B2 (en) 2006-03-09 2009-05-12 Kabushiki Kaisha Toshiba Multifunction peripheral with template registration and template registration method
US8745526B2 (en) 2006-03-14 2014-06-03 Blackberry Limited Screen display in application switching
KR100746874B1 (ko) 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
GB0605587D0 (en) 2006-03-20 2006-04-26 British Broadcasting Corp Graphical user interface methods and systems
WO2007111909A2 (en) 2006-03-24 2007-10-04 Northwestern University Haptic device with indirect haptic feedback
US7925250B2 (en) 2006-03-27 2011-04-12 International Business Machines Corporation Reuse of a mobile device application in a desktop environment
US8780139B2 (en) 2006-03-27 2014-07-15 Adobe Systems Incorporated Resolution monitoring when using visual manipulation tools
JP2007264808A (ja) 2006-03-27 2007-10-11 Nikon Corp 表示入力装置及び撮像装置
US7656413B2 (en) 2006-03-29 2010-02-02 Autodesk, Inc. Large display attention focus system
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US7861176B2 (en) 2006-04-13 2010-12-28 Touchcommerce, Inc. Methods and systems for providing online chat
US7607088B2 (en) 2006-04-18 2009-10-20 International Business Machines Corporation Computer program product, apparatus and method for displaying a plurality of entities in a tooltip for a cell of a table
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8402382B2 (en) 2006-04-21 2013-03-19 Google Inc. System for organizing and visualizing display objects
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
JP4926533B2 (ja) * 2006-05-02 2012-05-09 キヤノン株式会社 動画像処理装置、動画像処理方法及びプログラム
JP4737539B2 (ja) 2006-05-03 2011-08-03 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置および背景画像表示方法
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US20070271513A1 (en) 2006-05-22 2007-11-22 Nike, Inc. User Interface for Remotely Controlling a Digital Music Player
US7921116B2 (en) * 2006-06-16 2011-04-05 Microsoft Corporation Highly meaningful multimedia metadata creation and associations
US20070299923A1 (en) 2006-06-16 2007-12-27 Skelly George J Methods and systems for managing messaging
KR101242030B1 (ko) 2006-06-22 2013-03-11 엘지디스플레이 주식회사 유기전계발광 소자
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
JP2008009759A (ja) 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
JP4751780B2 (ja) 2006-07-07 2011-08-17 株式会社エヌ・ティ・ティ・ドコモ キー入力装置
JP4583344B2 (ja) 2006-07-10 2010-11-17 シャープ株式会社 携帯電話機
EP1882902A1 (de) 2006-07-27 2008-01-30 Aisin AW Co., Ltd. Navigationsgerät und Verfahren zur Bereitstellung von Fahrzeugführung für einen Fahrzeugbenutzer mittels Berührungsbildschirm
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US20080024454A1 (en) 2006-07-31 2008-01-31 Paul Everest Three-dimensional touch pad input device
US8255815B2 (en) 2006-08-04 2012-08-28 Apple Inc. Motion picture preview icons
JP5028904B2 (ja) * 2006-08-10 2012-09-19 ソニー株式会社 電子機器、および起動方法
US20080051989A1 (en) 2006-08-25 2008-02-28 Microsoft Corporation Filtering of data layered on mapping applications
CN101356493A (zh) * 2006-09-06 2009-01-28 苹果公司 用于照片管理的便携式电子装置
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8106856B2 (en) * 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US7743338B2 (en) 2006-09-11 2010-06-22 Apple Inc. Image rendering with image artifact along a multidimensional path
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7930650B2 (en) 2006-09-11 2011-04-19 Apple Inc. User interface with menu abstractions and content abstractions
US7581186B2 (en) 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
US20080094398A1 (en) 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")
JP2008076818A (ja) 2006-09-22 2008-04-03 Fujitsu Ltd 携帯端末装置
JP5176300B2 (ja) 2006-09-22 2013-04-03 富士通株式会社 電子機器、その制御方法及びその制御プログラム
US8245154B2 (en) 2006-11-03 2012-08-14 International Business Machines Corporation Most-recently-used task switching among parent and child windows
US20080106523A1 (en) 2006-11-07 2008-05-08 Conrad Richard H Ergonomic lift-clicking method and apparatus for actuating home switches on computer input devices
WO2008064142A2 (en) 2006-11-20 2008-05-29 Pham Don N Interactive sequential key system to input characters on small keypads
KR20080048837A (ko) 2006-11-29 2008-06-03 삼성전자주식회사 촉각 피드백을 출력하는 장치 및 방법
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
JP2008146453A (ja) 2006-12-12 2008-06-26 Sony Corp 映像信号出力装置、操作入力処理方法
US8520866B2 (en) 2006-12-15 2013-08-27 Nokia Corporation Apparatus, method, and computer program product providing sound-produced tactile feedback
KR20080058121A (ko) 2006-12-21 2008-06-25 삼성전자주식회사 휴대단말기에서의 촉각형 사용자 인터페이스 제공 장치 및방법
US20080163119A1 (en) 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method for providing menu and multimedia device using the same
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8698727B2 (en) 2007-01-05 2014-04-15 Apple Inc. Backlight and ambient light sensor system
WO2008085874A2 (en) 2007-01-05 2008-07-17 Marvell World Trade Ltd. Methods and systems for improving low-resolution video
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US20080222545A1 (en) 2007-01-07 2008-09-11 Lemay Stephen O Portable Electronic Device with a Global Setting User Interface
US20080168395A1 (en) 2007-01-07 2008-07-10 Bas Ording Positioning a Slider Icon on a Portable Multifunction Device
US8091045B2 (en) 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US8082523B2 (en) 2007-01-07 2011-12-20 Apple Inc. Portable electronic device with graphical user interface supporting application switching
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US7978176B2 (en) 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US8793577B2 (en) 2007-01-11 2014-07-29 Koninklijke Philips N.V. Method and apparatus for providing an undo/redo mechanism
US8201087B2 (en) 2007-02-01 2012-06-12 Tegic Communications, Inc. Spell-check for a keyboard system with automatic correction
CN101241397B (zh) 2007-02-07 2012-03-07 罗伯特·博世有限公司 具有鼠标功能的键盘及其输入方法
JP2008191086A (ja) 2007-02-07 2008-08-21 Matsushita Electric Ind Co Ltd ナビゲーション装置
GB2446702A (en) 2007-02-13 2008-08-20 Qrg Ltd Touch Control Panel with Pressure Sensor
KR101450584B1 (ko) 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
US8650505B2 (en) 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
EP2129111B1 (de) 2007-03-06 2013-01-09 Panasonic Corporation Bildgebungseinrichtung, editiereinrichtung, bildverarbeitungsverfahren und programm
WO2008109172A1 (en) 2007-03-07 2008-09-12 Wiklof Christopher A Recorder with retrospective capture
US8352881B2 (en) 2007-03-08 2013-01-08 International Business Machines Corporation Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions
US7895533B2 (en) 2007-03-13 2011-02-22 Apple Inc. Interactive image thumbnails
JP4424364B2 (ja) 2007-03-19 2010-03-03 ソニー株式会社 画像処理装置、画像処理方法
US20080244448A1 (en) 2007-04-01 2008-10-02 Katharina Goering Generation of menu presentation relative to a given menu orientation
US20080259046A1 (en) 2007-04-05 2008-10-23 Joseph Carsanaro Pressure sensitive touch pad with virtual programmable buttons for launching utility applications
US7973778B2 (en) 2007-04-16 2011-07-05 Microsoft Corporation Visual simulation of touch pressure
CN101290553A (zh) 2007-04-17 2008-10-22 索尼(中国)有限公司 具有显示屏的电子设备
US8140996B2 (en) 2007-04-17 2012-03-20 QNX Software Systems Limtied System for endless loop scrolling and display
WO2008131544A1 (en) 2007-04-26 2008-11-06 University Of Manitoba Pressure augmented mouse
US20080270910A1 (en) 2007-04-30 2008-10-30 Lukasik Derek J User selection of a remote session
KR100807738B1 (ko) 2007-05-02 2008-02-28 삼성전자주식회사 이동 통신 단말기의 진동 생성 방법 및 장치
JP2008283629A (ja) 2007-05-14 2008-11-20 Sony Corp 撮像装置、撮像信号処理方法、プログラム
CN201107762Y (zh) 2007-05-15 2008-08-27 宏达国际电子股份有限公司 具有可切换使用者界面以及无阻碍触控操作的电子装置
US8621348B2 (en) 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
JPWO2008146784A1 (ja) 2007-05-29 2010-08-19 株式会社Access 端末装置、ヒストリ管理方法、およびヒストリ管理の為のコンピュータ使用可能な記憶媒体
US7801950B2 (en) 2007-06-01 2010-09-21 Clustrmaps Ltd. System for analyzing and visualizing access statistics for a web site
JP2008305174A (ja) 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
US20080307359A1 (en) 2007-06-08 2008-12-11 Apple Inc. Grouping Graphical Representations of Objects in a User Interface
US8423914B2 (en) 2007-06-08 2013-04-16 Apple Inc. Selection user interface
US8381122B2 (en) 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US8010900B2 (en) 2007-06-08 2011-08-30 Apple Inc. User interface for electronic backup
US8745535B2 (en) 2007-06-08 2014-06-03 Apple Inc. Multi-dimensional desktop
US8667418B2 (en) 2007-06-08 2014-03-04 Apple Inc. Object stack
US20080303795A1 (en) 2007-06-08 2008-12-11 Lowles Robert J Haptic display for a handheld electronic device
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8315482B2 (en) 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US20090015563A1 (en) 2007-07-11 2009-01-15 John Thomas Sadler Stylized interactive icon for portable mobile communications device
US7805681B2 (en) 2007-07-12 2010-09-28 Sony Ericsson Mobile Communications Ab System and method for generating a thumbnail image for an audiovisual file
JP4380746B2 (ja) 2007-07-23 2009-12-09 ヤマハ株式会社 ディジタルミキサ
US20090046110A1 (en) 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
KR20090019161A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
KR101424259B1 (ko) 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
US9477395B2 (en) 2007-09-04 2016-10-25 Apple Inc. Audio file interface
US8683378B2 (en) 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US8826132B2 (en) 2007-09-04 2014-09-02 Apple Inc. Methods and systems for navigating content on a portable device
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8825802B2 (en) 2007-09-04 2014-09-02 Sony Computer Entertainment America Llc System and method for identifying compatible users
US20110145068A1 (en) 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
US20090089293A1 (en) 2007-09-28 2009-04-02 Bccg Ventures, Llc Selfish data browsing
US8098235B2 (en) 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US8125458B2 (en) 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
TWI417764B (zh) 2007-10-01 2013-12-01 Giga Byte Comm Inc A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
DE202008018283U1 (de) 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
KR101570368B1 (ko) 2008-08-22 2015-11-20 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
KR20090036877A (ko) 2007-10-10 2009-04-15 삼성전자주식회사 다중 프로젝션 윈도우 환경에서 기준자 기반으로오브젝트를 관리하는 방법 및 그 시스템
KR100823871B1 (ko) 2007-10-11 2008-04-21 주식회사 자티전자 드래그 버튼을 이용하여 절전을 관리하는 휴대용 단말기 및그 동작방법
CN101414231B (zh) 2007-10-17 2011-09-21 鸿富锦精密工业(深圳)有限公司 触摸屏装置及其图像显示方法
US20090102805A1 (en) 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
DE102007052008A1 (de) 2007-10-26 2009-04-30 Andreas Steinhauser Single- oder multitouchfähiger Touchscreen oder Touchpad bestehend aus einem Array von Drucksensoren sowie Herstellung solcher Sensoren
JP4974236B2 (ja) 2007-10-30 2012-07-11 アズビル株式会社 情報連携ウィンドウシステムおよびプログラム
US8024670B1 (en) 2007-10-30 2011-09-20 Intuit Inc. Workflow management using live thumbnails
WO2009059062A2 (en) 2007-10-31 2009-05-07 Stratovan Corporation Resolution independent layout
JP2009129171A (ja) 2007-11-22 2009-06-11 Denso It Laboratory Inc 移動体に搭載される情報処理装置
TW200923758A (en) 2007-11-27 2009-06-01 Wistron Corp A key-in method and a content display method of an electronic device, and the application thereof
US8245155B2 (en) 2007-11-29 2012-08-14 Sony Corporation Computer implemented display, graphical user interface, design and method including scrolling features
US20090140985A1 (en) 2007-11-30 2009-06-04 Eric Liu Computing device that determines and uses applied pressure from user interaction with an input interface
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
US20090167507A1 (en) 2007-12-07 2009-07-02 Nokia Corporation User interface
US7839269B2 (en) 2007-12-12 2010-11-23 Immersion Corporation Method and apparatus for distributing haptic synchronous signals
US8140974B2 (en) 2007-12-14 2012-03-20 Microsoft Corporation Presenting secondary media objects to a user
JP4605214B2 (ja) 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
TW200930009A (en) 2007-12-21 2009-07-01 Inventec Appliances Corp Procedure of acting personally hot function setting
KR101456570B1 (ko) 2007-12-21 2014-10-31 엘지전자 주식회사 디지털 이퀄라이저를 구비한 이동 단말기 및 그 제어방법
US8233671B2 (en) 2007-12-27 2012-07-31 Intel-Ge Care Innovations Llc Reading device with hierarchal navigation
US9170649B2 (en) 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US8042190B2 (en) 2007-12-31 2011-10-18 Intel Corporation Pre-boot protected memory channel
US8373549B2 (en) 2007-12-31 2013-02-12 Apple Inc. Tactile feedback in an electronic device
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US8707215B2 (en) 2007-12-31 2014-04-22 Motorola Mobility Llc Hand-held device and method for operating a single pointer touch sensitive user interface
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
JP5001182B2 (ja) 2008-01-10 2012-08-15 パナソニック株式会社 表示制御装置、電子機器、表示制御方法、およびプログラム
US8196042B2 (en) 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
US9665197B2 (en) 2008-01-30 2017-05-30 Nokia Technologies Oy Apparatus and method for enabling user input
US20090195959A1 (en) 2008-01-31 2009-08-06 Research In Motion Limited Electronic device and method for controlling same
US8423076B2 (en) 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US8504945B2 (en) 2008-02-01 2013-08-06 Gabriel Jakobson Method and system for associating content with map zoom function
KR101467513B1 (ko) 2008-02-11 2014-12-01 삼성전자 주식회사 모바일 단말 제어장치 및 그 방법
US20090295713A1 (en) 2008-05-30 2009-12-03 Julien Piot Pointing device with improved cursor control in-air and allowing multiple modes of operations
JP2009200713A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
US8314801B2 (en) 2008-02-29 2012-11-20 Microsoft Corporation Visual state manager for control skinning
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US20090276730A1 (en) 2008-03-04 2009-11-05 Alexandre Aybes Techniques for navigation of hierarchically-presented data
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
JP4650699B2 (ja) 2008-03-06 2011-03-16 Necインフロンティア株式会社 入力装置、入力方法およびプログラム
KR101012300B1 (ko) 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
JP4670879B2 (ja) 2008-03-11 2011-04-13 ブラザー工業株式会社 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
US20090237374A1 (en) 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
JP4530067B2 (ja) 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
US8640040B2 (en) 2008-03-28 2014-01-28 Sprint Communications Company L.P. Persistent event-management access in a mobile communications device
JP2009245239A (ja) 2008-03-31 2009-10-22 Sony Corp ポインタ表示装置、ポインタ表示検出方法、ポインタ表示検出プログラム及び情報機器
US8612888B2 (en) 2008-04-01 2013-12-17 Litl, Llc Method and apparatus for managing digital media content
GB0806183D0 (en) 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
US20090251421A1 (en) 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications Ab Method and apparatus for tactile perception of digital images
JP5200641B2 (ja) 2008-04-10 2013-06-05 ソニー株式会社 リスト表示装置及びリスト表示方法
US8209628B1 (en) 2008-04-11 2012-06-26 Perceptive Pixel, Inc. Pressure-sensitive manipulation of displayed objects
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
JP5428189B2 (ja) 2008-04-17 2014-02-26 三洋電機株式会社 ナビゲーション装置
US20090267906A1 (en) 2008-04-25 2009-10-29 Nokia Corporation Touch sensitive apparatus
TW200945171A (en) 2008-04-25 2009-11-01 Htc Corp Operation method of user interface and computer readable and accessable medium and portable device
US20090267909A1 (en) 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
JP4792058B2 (ja) 2008-04-28 2011-10-12 株式会社東芝 情報処理装置、制御方法およびプログラム
US20150205775A1 (en) 2008-05-01 2015-07-23 Eric Berdahl Managing Documents and Document Workspaces
US8159469B2 (en) 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
KR101461954B1 (ko) 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
US20090280860A1 (en) 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Mobile phone with directional force feedback and method
US20090284478A1 (en) 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
US20100138780A1 (en) 2008-05-20 2010-06-03 Adam Marano Methods and systems for using external display devices with a mobile computing device
US7958447B2 (en) 2008-05-23 2011-06-07 International Business Machines Corporation Method and system for page navigating user interfaces for electronic devices
US20090295739A1 (en) 2008-05-27 2009-12-03 Wes Albert Nagara Haptic tactile precision selection
US8314859B2 (en) 2008-05-29 2012-11-20 Lg Electronics Inc. Mobile terminal and image capturing method thereof
ATE504155T1 (de) 2008-05-29 2011-04-15 Lg Electronics Inc Transparente anzeige und betriebsverfahren dafür
JP5287855B2 (ja) 2008-06-04 2013-09-11 富士通株式会社 情報処理装置および入力制御方法
US20090307633A1 (en) 2008-06-06 2009-12-10 Apple Inc. Acceleration navigation of media device displays
US8099332B2 (en) 2008-06-06 2012-01-17 Apple Inc. User interface for application management for a mobile device
KR101498623B1 (ko) 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8254902B2 (en) 2008-06-26 2012-08-28 Apple Inc. Apparatus and methods for enforcement of policies upon a wireless device
US8174372B2 (en) 2008-06-26 2012-05-08 Immersion Corporation Providing haptic feedback on a touch surface
WO2009155981A1 (en) 2008-06-26 2009-12-30 Uiq Technology Ab Gesture on touch sensitive arrangement
JP4896932B2 (ja) 2008-06-26 2012-03-14 京セラ株式会社 入力装置
US8504946B2 (en) 2008-06-27 2013-08-06 Apple Inc. Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document
WO2009158549A2 (en) 2008-06-28 2009-12-30 Apple Inc. Radial menu selection
JP4938733B2 (ja) 2008-06-30 2012-05-23 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示方法およびメニュー画面表示装置
US8477228B2 (en) * 2008-06-30 2013-07-02 Verizon Patent And Licensing Inc. Camera data management and user interface apparatuses, systems, and methods
EP3258361B1 (de) 2008-07-01 2020-08-12 LG Electronics Inc. -1- Mobiles endgerät mit drucksensor und verfahren zur steuerung des mobilen endgerätes
KR101540779B1 (ko) 2008-07-01 2015-07-29 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US20100013613A1 (en) 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US10095375B2 (en) 2008-07-09 2018-10-09 Apple Inc. Adding a contact to a home screen
JP4198190B1 (ja) 2008-07-11 2008-12-17 任天堂株式会社 画像通信システム、画像通信装置、および画像通信プログラム
JP2011528127A (ja) 2008-07-15 2011-11-10 ロラン・ゲヌー 指揮者中心の電子楽譜スタンドシステム
EP2741177B1 (de) 2008-07-15 2019-06-26 Immersion Corporation Systeme und Verfahren zur Übertragung von haptischen Nachrichten
US8274484B2 (en) 2008-07-18 2012-09-25 Microsoft Corporation Tracking input in a screen-reflective interface environment
KR101495559B1 (ko) 2008-07-21 2015-02-27 삼성전자주식회사 사용자 명령 입력 방법 및 그 장치
US9176620B2 (en) 2008-07-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method for displaying information list thereof
KR20100010302A (ko) 2008-07-22 2010-02-01 엘지전자 주식회사 이동단말기 및 그 메뉴 표시방법
US20100220065A1 (en) 2009-02-27 2010-09-02 Research In Motion Limited Touch-sensitive display including a force-sensor and portable electronic device including same
KR20100010860A (ko) 2008-07-23 2010-02-02 엘지전자 주식회사 이동 단말기 및 그의 이벤트 제어방법
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP5100556B2 (ja) 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US9280286B2 (en) 2008-08-07 2016-03-08 International Business Machines Corporation Managing GUI control auto-advancing
US8604364B2 (en) 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US8913176B2 (en) 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
JP4636146B2 (ja) 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
KR101505681B1 (ko) 2008-09-05 2015-03-30 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 이미지 촬상 방법
KR101482125B1 (ko) 2008-09-09 2015-01-13 엘지전자 주식회사 휴대 단말기 및 그 동작방법
WO2010032402A1 (ja) 2008-09-16 2010-03-25 パナソニック株式会社 データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体
WO2010032598A1 (ja) 2008-09-17 2010-03-25 日本電気株式会社 入力装置及びその制御方法並びに入力装置を備えた電子機器
US8000694B2 (en) 2008-09-18 2011-08-16 Apple Inc. Communications device having a commute time function and methods of use thereof
US20100070908A1 (en) 2008-09-18 2010-03-18 Sun Microsystems, Inc. System and method for accepting or rejecting suggested text corrections
US9041650B2 (en) 2008-09-18 2015-05-26 Apple Inc. Using measurement of lateral force for a tracking input device
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
KR101451667B1 (ko) 2008-09-24 2014-10-16 엘지전자 주식회사 단말기 및 그 제어 방법
CN101685370A (zh) 2008-09-26 2010-03-31 联想(北京)有限公司 一种进行浏览控制的方法、装置及电子设备
US8359547B2 (en) 2008-10-01 2013-01-22 Nintendo Co., Ltd. Movable user interface indicator of at least one parameter that is adjustable with different operations for increasing and decreasing the parameter and/or methods of providing the same
US8462107B2 (en) 2008-10-03 2013-06-11 International Business Machines Corporation Pointing device and method with error prevention features
EP3654141A1 (de) 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Verfahren und vorrichtung zur anzeige einer graphischen benutzerschnittstelle in abhängigkeit vom kontaktmuster eines benutzers
US20100088628A1 (en) 2008-10-07 2010-04-08 Sony Ericsson Mobile Communications Ab Live preview of open windows
US9442648B2 (en) 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
CA2680666A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
EP2175343A1 (de) 2008-10-08 2010-04-14 Research in Motion Limited Verfahren und tragbare elektronische Vorrichtung mit grafischer Benutzeroberfläche, die Symbole dynamisch anordnet
EP2175357B1 (de) 2008-10-08 2012-11-21 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerverfahren dafür
US9395867B2 (en) 2008-10-08 2016-07-19 Blackberry Limited Method and system for displaying an image on an electronic device
US20100085314A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited Portable electronic device and method of controlling same
JP2010097353A (ja) 2008-10-15 2010-04-30 Access Co Ltd 情報端末
KR100941512B1 (ko) 2008-10-15 2010-02-10 (주)엠쓰리모바일 스타일러스 펜
KR100961473B1 (ko) 2008-10-15 2010-06-08 주식회사 케이티 무선 인터넷 브라우저의 웹 페이지 내용을 메시징하는 이동단말 및 그 방법
KR101510738B1 (ko) 2008-10-20 2015-04-10 삼성전자주식회사 휴대단말의 대기화면 구성 방법 및 장치
US8497690B2 (en) 2008-10-27 2013-07-30 Microchip Technology Incorporated Automated capacitive touch scan
JP5540344B2 (ja) 2008-10-30 2014-07-02 シャープ株式会社 電子機器、メニューの選択方法、メニューの選択プログラム
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
WO2010051493A2 (en) 2008-10-31 2010-05-06 Nettoons, Inc. Web-based real-time animation visualization, creation, and distribution
CN101727268A (zh) 2008-11-03 2010-06-09 英业达股份有限公司 手持式电子装置与其程序显示切换方法
US8704775B2 (en) 2008-11-11 2014-04-22 Adobe Systems Incorporated Biometric adjustments for touchscreens
EP2863289A1 (de) 2008-11-18 2015-04-22 Studer Professional Audio GmbH Eingabevorrichtung und Verfahren zur Detektion einer Benutzereingabe mit einer Eingabevorrichtung
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US20100123686A1 (en) 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Ab Piezoresistive force sensor integrated in a display
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
EP2368170B1 (de) 2008-11-26 2017-11-01 BlackBerry Limited Berührungsempfindliches anzeigeverfahren und vorrichtung
US20100138776A1 (en) 2008-11-30 2010-06-03 Nokia Corporation Flick-scrolling
WO2010064423A1 (ja) 2008-12-04 2010-06-10 三菱電機株式会社 表示入力装置
CN102239470B (zh) 2008-12-04 2018-03-16 三菱电机株式会社 显示输入装置及导航装置
US8638311B2 (en) 2008-12-08 2014-01-28 Samsung Electronics Co., Ltd. Display device and data displaying method thereof
JP2010165337A (ja) 2008-12-15 2010-07-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2010071630A1 (en) 2008-12-15 2010-06-24 Hewlett-Packard Development Company, L.P. Gesture based edit mode
US8711011B2 (en) 2008-12-16 2014-04-29 Dell Products, Lp Systems and methods for implementing pressure sensitive keyboards
US9246487B2 (en) 2008-12-16 2016-01-26 Dell Products Lp Keyboard with user configurable granularity scales for pressure sensitive keys
US20100149096A1 (en) 2008-12-17 2010-06-17 Migos Charles J Network management using interaction with display surface
KR101453144B1 (ko) 2008-12-18 2014-10-27 닛본 덴끼 가부시끼가이샤 슬라이드바 디스플레이 제어 장치 및 슬라이드바 디스플레이 제어 방법
KR101352264B1 (ko) 2008-12-18 2014-01-17 엘지디스플레이 주식회사 멀티 터치 감지방법 및 장치
US8331992B2 (en) 2008-12-19 2012-12-11 Verizon Patent And Licensing Inc. Interactive locked state mobile communication device
US8289286B2 (en) 2008-12-19 2012-10-16 Verizon Patent And Licensing Inc. Zooming keyboard/keypad
JP4975722B2 (ja) 2008-12-22 2012-07-11 京セラ株式会社 入力装置および入力装置の制御方法
US8451236B2 (en) 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US8453057B2 (en) 2008-12-22 2013-05-28 Verizon Patent And Licensing Inc. Stage interaction for mobile device
US8547342B2 (en) 2008-12-22 2013-10-01 Verizon Patent And Licensing Inc. Gesture-based delivery from mobile device
US20100156823A1 (en) 2008-12-23 2010-06-24 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same to provide tactile feedback
US8686952B2 (en) 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
EP2202619A1 (de) 2008-12-23 2010-06-30 Research In Motion Limited Tragbare elektronische Vorrichtung, die eine taktile, berührungsempfindliche Eingabevorrichtung enthält, und Verfahren zu deren Steuerung
JP4746085B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置
JP4885938B2 (ja) 2008-12-25 2012-02-29 京セラ株式会社 入力装置
JP4683126B2 (ja) 2008-12-26 2011-05-11 ブラザー工業株式会社 入力装置
KR20100080429A (ko) 2008-12-30 2010-07-08 엘지전자 주식회사 영상표시기기 및 그 제어 방법
US8219927B2 (en) 2009-01-06 2012-07-10 Microsoft Corporation Revealing of truncated content on scrollable grid
US8446376B2 (en) 2009-01-13 2013-05-21 Microsoft Corporation Visual response to touch inputs
US20100180136A1 (en) 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Wake-On-Event Mode For Biometric Systems
JP2010171748A (ja) * 2009-01-23 2010-08-05 Casio Computer Co Ltd 撮像装置、及び撮像制御プログラム
JP2010176174A (ja) 2009-01-27 2010-08-12 Fujifilm Corp 電子機器および電子機器の操作入力制御方法、並びに電子機器の操作入力制御プログラム
JP5173870B2 (ja) 2009-01-28 2013-04-03 京セラ株式会社 入力装置
EP2214087B1 (de) 2009-01-30 2015-07-08 BlackBerry Limited Tragbare elektronische Vorrichtung mit einem Berührungsbildschirm und Verfahren zur Verwendung eines Berührungsbildschirms einer tragbaren elektronischen Vorrichtung
JP5261217B2 (ja) * 2009-01-30 2013-08-14 キヤノン株式会社 表示装置および表示方法
US20100194693A1 (en) 2009-01-30 2010-08-05 Sony Ericsson Mobile Communications Ab Electronic apparatus, method and computer program with adaptable user interface environment
JP5174704B2 (ja) 2009-02-03 2013-04-03 株式会社ゼンリンデータコム 画像処理装置および画像処理方法
JP4723656B2 (ja) 2009-02-03 2011-07-13 京セラ株式会社 入力装置
US9152292B2 (en) 2009-02-05 2015-10-06 Hewlett-Packard Development Company, L.P. Image collage authoring
US9176747B2 (en) 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
DE202010018601U1 (de) 2009-02-18 2018-04-30 Google LLC (n.d.Ges.d. Staates Delaware) Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung
US20100214239A1 (en) 2009-02-23 2010-08-26 Compal Electronics, Inc. Method and touch panel for providing tactile feedback
JP2010199688A (ja) 2009-02-23 2010-09-09 Nikon Corp 画像表示装置
DE102009010277A1 (de) 2009-02-24 2010-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Eingabevorrichtung und Verfahren zum Bereitstellen eines einer Sensorfeldbelegung zugeordneten Ausgangssignals
JP5734546B2 (ja) 2009-02-25 2015-06-17 京セラ株式会社 オブジェクト表示装置
US20100214135A1 (en) 2009-02-26 2010-08-26 Microsoft Corporation Dynamic rear-projected user interface
CN101498979B (zh) 2009-02-26 2010-12-29 苏州瀚瑞微电子有限公司 利用电容式触摸屏实现虚拟键盘的方法
KR100993064B1 (ko) 2009-03-02 2010-11-08 주식회사 팬택 터치 스크린 적용 음원 재생 장치에서의 음원 선택 재생 방법
US8077021B2 (en) 2009-03-03 2011-12-13 Empire Technology Development Llc Dynamic tactile interface
JP5157969B2 (ja) 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、閾値設定方法及びそのプログラム
JP5267229B2 (ja) 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
DE202010018551U1 (de) 2009-03-12 2017-08-24 Google, Inc. Automatische Bereitstellung von Inhalten, die mit erfassten Informationen, wie etwa in Echtzeit erfassten Informationen, verknüpft sind
WO2010105012A1 (en) 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for a texture engine
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
EP2406702B1 (de) 2009-03-12 2019-03-06 Immersion Corporation System und verfahren für schnittstellen mit auf der oberfläche basierenden haptischen effekten
US9262071B2 (en) 2009-03-16 2016-02-16 Microsoft Technology Licensing, Llc Direct manipulation of content
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9852761B2 (en) 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
US8756534B2 (en) 2009-03-16 2014-06-17 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
KR101549558B1 (ko) 2009-03-18 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
WO2010109849A1 (ja) 2009-03-23 2010-09-30 パナソニック株式会社 情報処理装置、情報処理方法、記録媒体、及び集積回路
US20100241955A1 (en) 2009-03-23 2010-09-23 Microsoft Corporation Organization and manipulation of content items on a touch-sensitive display
JP5252378B2 (ja) 2009-03-26 2013-07-31 ヤマハ株式会社 ミキサ装置のウィンドウ制御方法、ミキサ装置、およびミキサ装置のウィンドウ制御プログラム
JP5282627B2 (ja) 2009-03-30 2013-09-04 ソニー株式会社 電子機器、表示制御方法およびプログラム
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
JP4904375B2 (ja) 2009-03-31 2012-03-28 京セラ株式会社 ユーザインタフェース装置及び携帯端末装置
DE102009015991A1 (de) 2009-04-02 2010-10-07 Pi Ceramic Gmbh Keramische Technologien Und Bauelemente Vorrichtung zur Erzeugung einer haptischen Rückmeldung einer tastenlosen Eingabeeinheit
US9189124B2 (en) 2009-04-15 2015-11-17 Wyse Technology L.L.C. Custom pointer features for touch-screen on remote client devices
US20100271312A1 (en) 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
WO2010122813A1 (ja) 2009-04-24 2010-10-28 京セラ株式会社 入力装置
WO2010122814A1 (ja) 2009-04-24 2010-10-28 京セラ株式会社 入力装置
KR20100118458A (ko) 2009-04-28 2010-11-05 엘지전자 주식회사 이미지 처리 방법 및 이를 적용한 카메라가 장착된 이동 통신 단말기
US9354795B2 (en) 2009-04-29 2016-05-31 Lenovo (Singapore) Pte. Ltd Refining manual input interpretation on touch surfaces
US8418082B2 (en) 2009-05-01 2013-04-09 Apple Inc. Cross-track edit indicators and edit selections
US8627207B2 (en) 2009-05-01 2014-01-07 Apple Inc. Presenting an editing tool in a composite display area
US8739055B2 (en) 2009-05-07 2014-05-27 Microsoft Corporation Correction of typographical errors on touch displays
US8669945B2 (en) 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
US20100293460A1 (en) 2009-05-14 2010-11-18 Budelli Joe G Text selection method and system based on gestures
US8427503B2 (en) 2009-05-18 2013-04-23 Nokia Corporation Method, apparatus and computer program product for creating graphical objects with desired physical features for usage in animation
KR101640463B1 (ko) 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
KR101613838B1 (ko) 2009-05-19 2016-05-02 삼성전자주식회사 휴대 단말기의 홈 스크린 지원 방법 및 이를 지원하는 휴대 단말기
KR101601040B1 (ko) 2009-05-19 2016-03-09 삼성전자주식회사 휴대 단말기의 화면 표시 방법 및 이를 지원하는 휴대 단말기
US8473862B1 (en) 2009-05-21 2013-06-25 Perceptive Pixel Inc. Organizational tools on a multi-touch display device
US20140078318A1 (en) 2009-05-22 2014-03-20 Motorola Mobility Llc Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures
KR101560718B1 (ko) 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US9148618B2 (en) 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
US8549432B2 (en) 2009-05-29 2013-10-01 Apple Inc. Radial menus
KR20100129424A (ko) 2009-06-01 2010-12-09 한국표준과학연구원 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치
US9086875B2 (en) 2009-06-05 2015-07-21 Qualcomm Incorporated Controlling power consumption of a mobile device based on gesture recognition
US9372536B2 (en) 2009-06-05 2016-06-21 Empire Technology Development Llc Touch screen with tactile feedback
US8493344B2 (en) 2009-06-07 2013-07-23 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8612883B2 (en) 2009-06-08 2013-12-17 Apple Inc. User interface for managing the display of multiple display regions
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
US20100313158A1 (en) 2009-06-08 2010-12-09 Lg Electronics Inc. Method for editing data in mobile terminal and mobile terminal using the same
US8823749B2 (en) 2009-06-10 2014-09-02 Qualcomm Incorporated User interface methods providing continuous zoom functionality
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US8593415B2 (en) 2009-06-19 2013-11-26 Lg Electronics Inc. Method for processing touch signal in mobile terminal and mobile terminal using the same
US9330503B2 (en) 2009-06-19 2016-05-03 Microsoft Technology Licensing, Llc Presaging and surfacing interactivity within data visualizations
CN101609380A (zh) 2009-06-23 2009-12-23 苏州瀚瑞微电子有限公司 一种在触摸屏上文件操作的方法
US9626094B2 (en) 2009-06-26 2017-04-18 Kyocera Corporation Communication device and electronic device
US20100328229A1 (en) 2009-06-30 2010-12-30 Research In Motion Limited Method and apparatus for providing tactile feedback
JP5370754B2 (ja) 2009-06-30 2013-12-18 ソニー株式会社 入力装置および入力方法
JP5531467B2 (ja) * 2009-07-03 2014-06-25 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム
JP2012532384A (ja) 2009-07-03 2012-12-13 タクタス テクノロジー ユーザインターフェイス拡張システム
US20110010626A1 (en) 2009-07-09 2011-01-13 Jorge Fino Device and Method for Adjusting a Playback Control with a Finger Gesture
KR101608764B1 (ko) 2009-07-14 2016-04-04 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
WO2011011025A1 (en) 2009-07-24 2011-01-27 Research In Motion Limited Method and apparatus for a touch-sensitive display
JP2011028635A (ja) 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
JP5197521B2 (ja) 2009-07-29 2013-05-15 京セラ株式会社 入力装置
US9740340B1 (en) 2009-07-31 2017-08-22 Amazon Technologies, Inc. Visually consistent arrays including conductive mesh
KR101276749B1 (ko) 2009-08-03 2013-06-19 엘지디스플레이 주식회사 전기영동 표시장치 및 그 제조 방법
CN101630230A (zh) 2009-08-04 2010-01-20 苏州瀚瑞微电子有限公司 感应量控制缩放倍率的方法
JP5398408B2 (ja) 2009-08-07 2014-01-29 オリンパスイメージング株式会社 カメラ、カメラの制御方法、表示制御装置、および表示制御方法
KR101608532B1 (ko) 2009-08-11 2016-04-01 엘지전자 주식회사 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기
US20110039602A1 (en) 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
US20110037706A1 (en) 2009-08-14 2011-02-17 Research In Motion Limited Electronic device including tactile touch-sensitive input device and method of controlling same
US8243983B2 (en) 2009-08-14 2012-08-14 Microsoft Corporation Graphically encoded data copy and paste
JP5436975B2 (ja) 2009-08-21 2014-03-05 オリンパスイメージング株式会社 カメラ、カメラの表示制御方法、表示装置、及び表示方法
US8434153B2 (en) 2009-08-24 2013-04-30 Microsoft Corporation Application display on a locked device
JP2011048023A (ja) 2009-08-25 2011-03-10 Pioneer Electronic Corp 体感振動生成装置および体感振動生成方法
US20110055135A1 (en) 2009-08-26 2011-03-03 International Business Machines Corporation Deferred Teleportation or Relocation in Virtual Worlds
JP2011048669A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP2011048686A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
US8363020B2 (en) 2009-08-27 2013-01-29 Symbol Technologies, Inc. Methods and apparatus for pressure-based manipulation of content on a touch screen
JP5310389B2 (ja) 2009-08-27 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5304544B2 (ja) 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5593655B2 (ja) 2009-08-31 2014-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
JP5267388B2 (ja) 2009-08-31 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20110023977A (ko) 2009-09-01 2011-03-09 삼성전자주식회사 휴대단말기의 위젯 관리 방법 및 장치
JP2011053971A (ja) 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
JP5310403B2 (ja) 2009-09-02 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9262063B2 (en) 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
EP2473897A4 (de) 2009-09-02 2013-01-23 Amazon Tech Inc Benutzeroberfläche für berührungsbildschirme
JP5182260B2 (ja) 2009-09-02 2013-04-17 ソニー株式会社 操作制御装置、操作制御方法およびコンピュータプログラム
JP2011053974A (ja) 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
TW201109990A (en) 2009-09-04 2011-03-16 Higgstec Inc Touch gesture detecting method of a touch panel
KR101150545B1 (ko) * 2009-09-07 2012-06-11 주식회사 팬택앤큐리텔 이동통신단말기 및 그것의 화면 전환 방법
JP5278259B2 (ja) 2009-09-07 2013-09-04 ソニー株式会社 入力装置、入力方法及びプログラム
KR101691823B1 (ko) 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
EP2302496A1 (de) 2009-09-10 2011-03-30 Research In Motion Limited Dynamische Sortierung von Identifikator in einer berührungsempfindlichen Anzeige
US20110057886A1 (en) 2009-09-10 2011-03-10 Oliver Ng Dynamic sizing of identifier on a touch-sensitive display
KR20110028834A (ko) 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
JP5218353B2 (ja) 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
EP3260969B1 (de) 2009-09-22 2021-03-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten
US8264471B2 (en) 2009-09-22 2012-09-11 Sony Mobile Communications Ab Miniature character input mechanism
US8421762B2 (en) 2009-09-25 2013-04-16 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
JP5393377B2 (ja) 2009-09-25 2014-01-22 京セラ株式会社 入力装置
US8970507B2 (en) 2009-10-02 2015-03-03 Blackberry Limited Method of waking up and a portable electronic device configured to perform the same
US8436806B2 (en) 2009-10-02 2013-05-07 Research In Motion Limited Method of synchronizing data acquisition and a portable electronic device configured to perform the same
US8780055B2 (en) 2009-10-02 2014-07-15 Blackberry Limited Low power wakeup detection circuit and a portable electronic device having a low power wakeup detection circuit
US9141260B2 (en) 2009-10-08 2015-09-22 Red Hat, Inc. Workspace management tool
US20110084910A1 (en) 2009-10-13 2011-04-14 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
KR101092592B1 (ko) 2009-10-14 2011-12-13 주식회사 팬택 이동통신단말기 및 이의 터치 인터페이스 제공 방법
US10068728B2 (en) 2009-10-15 2018-09-04 Synaptics Incorporated Touchpad with capacitive force sensing
CA2680602C (en) 2009-10-19 2011-07-26 Ibm Canada Limited - Ibm Canada Limitee System and method for generating and displaying hybrid context menus
KR20110047349A (ko) 2009-10-30 2011-05-09 주식회사 팬택 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법
US20110102829A1 (en) 2009-10-30 2011-05-05 Jourdan Arlene T Image size warning
US8677284B2 (en) 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
JP5328611B2 (ja) 2009-11-05 2013-10-30 シャープ株式会社 携帯情報端末
US20110109617A1 (en) 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
JP2011107823A (ja) 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
AU2010320034B2 (en) 2009-11-13 2015-02-12 Google Llc Live wallpaper
KR101725888B1 (ko) * 2009-11-13 2017-04-13 삼성전자주식회사 카메라 또는 원격 제어 장치에서의 이미지 제공 방법 및 그 장치
KR101611440B1 (ko) * 2009-11-16 2016-04-11 삼성전자주식회사 이미지 처리 방법 및 장치
US8665227B2 (en) 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US8432367B2 (en) 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
KR101620058B1 (ko) 2009-11-23 2016-05-24 삼성전자주식회사 가상 머신 간 화면 전환 장치 및 방법
KR101073309B1 (ko) 2009-11-24 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 시스템 및 그 구동방법
US8799816B2 (en) 2009-12-07 2014-08-05 Motorola Mobility Llc Display interface and method for displaying multiple items arranged in a sequence
US9268466B2 (en) 2009-12-09 2016-02-23 Citrix Systems, Inc. Methods and systems for updating a dock with a user interface element representative of a remote application
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
US9557735B2 (en) 2009-12-10 2017-01-31 Fisher-Rosemount Systems, Inc. Methods and apparatus to manage process control status rollups
JP5490508B2 (ja) 2009-12-11 2014-05-14 京セラ株式会社 タッチセンサを有する装置、触感呈示方法及び触感呈示プログラム
US8358281B2 (en) 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US8381125B2 (en) 2009-12-16 2013-02-19 Apple Inc. Device and method for resizing user interface content while maintaining an aspect ratio via snapping a perimeter to a gridline
US20110154199A1 (en) 2009-12-17 2011-06-23 Flying Car Ltd. Method of Playing An Enriched Audio File
US9489073B2 (en) 2009-12-21 2016-11-08 Promethean Limited Multi-point contacts with pressure data on an interactive surface
US8274592B2 (en) 2009-12-22 2012-09-25 Eastman Kodak Company Variable rate browsing of an image collection
KR20110074024A (ko) 2009-12-24 2011-06-30 삼성전자주식회사 멀티미디어 기기
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8793611B2 (en) 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
US20110167339A1 (en) 2010-01-06 2011-07-07 Lemay Stephen O Device, Method, and Graphical User Interface for Attachment Viewing and Editing
US8525839B2 (en) 2010-01-06 2013-09-03 Apple Inc. Device, method, and graphical user interface for providing digital content products
KR101616875B1 (ko) 2010-01-07 2016-05-02 삼성전자주식회사 터치 패널 및 이를 구비한 전자기기
US9053098B2 (en) 2010-01-14 2015-06-09 Abbyy Development Llc Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense
US20110175826A1 (en) 2010-01-15 2011-07-21 Bradford Allen Moore Automatically Displaying and Hiding an On-screen Keyboard
US9715332B1 (en) 2010-08-26 2017-07-25 Cypress Lake Software, Inc. Methods, systems, and computer program products for navigating between visual components
US10007393B2 (en) 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
JP2011170834A (ja) 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
JP5636678B2 (ja) 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US20110179381A1 (en) 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
US8914732B2 (en) 2010-01-22 2014-12-16 Lg Electronics Inc. Displaying home screen profiles on a mobile terminal
KR101304321B1 (ko) 2010-01-22 2013-09-11 전자부품연구원 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US8683363B2 (en) 2010-01-26 2014-03-25 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements
JP2011176794A (ja) 2010-01-26 2011-09-08 Canon Inc 撮像装置及び撮像方法
US20110181521A1 (en) 2010-01-26 2011-07-28 Apple Inc. Techniques for controlling z-ordering in a user interface
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US10397639B1 (en) 2010-01-29 2019-08-27 Sitting Man, Llc Hot key systems and methods
US20110191675A1 (en) 2010-02-01 2011-08-04 Nokia Corporation Sliding input user interface
US8988367B2 (en) 2010-02-05 2015-03-24 Broadcom Corporation Systems and methods for providing enhanced touch sensing
US20110193881A1 (en) 2010-02-05 2011-08-11 Sony Ericsson Mobile Communications Ab Regulation of navigation speed among displayed items and tilt angle thereof responsive to user applied pressure
US8839150B2 (en) 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
KR101673918B1 (ko) 2010-02-11 2016-11-09 삼성전자주식회사 휴대단말에서 복수의 정보들을 제공하는 방법 및 장치
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US9417787B2 (en) 2010-02-12 2016-08-16 Microsoft Technology Licensing, Llc Distortion effects to indicate location in a movable data collection
KR101690786B1 (ko) 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
EP2362615A1 (de) 2010-02-15 2011-08-31 Research In Motion Limited Methode, Programm und System zur Darstellung eines Kontakt-Ikons und des entsprechenden Status des Kontakts auf einen oder mehrere Kommunikationsdienste in einer Anzeige eines mobilen Kommunikationsgeräts
US20110202879A1 (en) 2010-02-15 2011-08-18 Research In Motion Limited Graphical context short menu
JP2011170538A (ja) 2010-02-17 2011-09-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011197848A (ja) 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
EP2360507B1 (de) 2010-02-22 2014-11-05 DST Innovations Limited Anzeigeelemente
WO2011104709A2 (en) 2010-02-23 2011-09-01 Rami Parham A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
KR20120137371A (ko) 2010-02-23 2012-12-20 쿄세라 코포레이션 전자 기기
CN101798979B (zh) 2010-02-24 2011-12-14 力帆实业(集团)股份有限公司 进气歧管及燃油喷嘴安装系统
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
JPWO2011105091A1 (ja) 2010-02-26 2013-06-20 日本電気株式会社 制御装置、管理装置、制御装置のデータ処理方法、およびプログラム
US9535500B2 (en) 2010-03-01 2017-01-03 Blackberry Limited Method of providing tactile feedback and apparatus
EP2363790A1 (de) 2010-03-01 2011-09-07 Research In Motion Limited Procédé pour fournir une réponse tactile et appareil
US9361018B2 (en) 2010-03-01 2016-06-07 Blackberry Limited Method of providing tactile feedback and apparatus
KR101161943B1 (ko) 2010-03-04 2012-07-04 삼성전기주식회사 햅틱 피드백 디바이스 및 전자 장치
JP5413250B2 (ja) 2010-03-05 2014-02-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8941600B2 (en) 2010-03-05 2015-01-27 Mckesson Financial Holdings Apparatus for providing touch feedback for user input to a touch sensitive surface
US20110221684A1 (en) 2010-03-11 2011-09-15 Sony Ericsson Mobile Communications Ab Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
JP2011192215A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
JP2011192179A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
WO2011114630A1 (ja) 2010-03-18 2011-09-22 京セラ株式会社 電子機器
CA2734427C (en) 2010-03-19 2018-05-08 Xavier Pierre-Emmanuel Saynac Systems and methods for determining the location and pressure of a touchload applied to a touchpad
US8756522B2 (en) 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
US9335894B1 (en) 2010-03-26 2016-05-10 Open Invention Network, Llc Providing data input touch screen interface to multiple users based on previous command selections
US8725706B2 (en) 2010-03-26 2014-05-13 Nokia Corporation Method and apparatus for multi-item searching
US8996901B2 (en) 2010-03-31 2015-03-31 Lenovo (Singapore) Pte. Ltd. Power management of electronic device with display
CN102822784A (zh) 2010-03-31 2012-12-12 诺基亚公司 用于虚拟触笔的装置、方法和计算机程序
US8826184B2 (en) 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP2011221640A (ja) 2010-04-06 2011-11-04 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8881061B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
EP2375309A1 (de) 2010-04-08 2011-10-12 Research in Motion Limited Tragbare elektronische Vorrichtung mit lokalisierten Verzögerungen für taktile Rückmeldung
EP2375314A1 (de) 2010-04-08 2011-10-12 Research in Motion Limited Berührungsempfindlichen Vorrichtung und Steuerungsverfahren
US20110248948A1 (en) 2010-04-08 2011-10-13 Research In Motion Limited Touch-sensitive device and method of control
US9417695B2 (en) 2010-04-08 2016-08-16 Blackberry Limited Tactile feedback method and apparatus
JP5459031B2 (ja) 2010-04-13 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP2378406B1 (de) 2010-04-13 2018-08-22 LG Electronics Inc. Tragbares Endgerät und Verfahren zur Steuerung des Betriebs des tragbaren Endgeräts
US9026932B1 (en) 2010-04-16 2015-05-05 Amazon Technologies, Inc. Edge navigation user interface
KR101668240B1 (ko) 2010-04-19 2016-10-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9285988B2 (en) 2010-04-20 2016-03-15 Blackberry Limited Portable electronic device having touch-sensitive display with variable repeat rate
KR101704531B1 (ko) 2010-04-22 2017-02-08 삼성전자주식회사 휴대 단말기의 텍스트 정보 표시 방법 및 장치
JP2011242386A (ja) 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
US8631350B2 (en) 2010-04-23 2014-01-14 Blackberry Limited Graphical context short menu
US9134897B2 (en) 2010-04-26 2015-09-15 Via Technologies, Inc. Electronic system and method for operating touch screen thereof
JP2011232947A (ja) 2010-04-27 2011-11-17 Lenovo Singapore Pte Ltd 情報処理装置、そのウィンドウ表示方法、およびコンピュータが実行可能なプログラム
JP2011238125A (ja) 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
EP2386935B1 (de) 2010-05-14 2015-02-11 BlackBerry Limited Verfahren zur Bereitstellung taktiler Rückmeldung und elektronischen Vorrichtung
US8466889B2 (en) 2010-05-14 2013-06-18 Research In Motion Limited Method of providing tactile feedback and electronic device
US8451255B2 (en) 2010-05-14 2013-05-28 Arnett Ryan Weber Method of providing tactile feedback and electronic device
US20110285656A1 (en) 2010-05-19 2011-11-24 Google Inc. Sliding Motion To Change Computer Keys
JP4983961B2 (ja) 2010-05-25 2012-07-25 株式会社ニコン 撮像装置
US20110296333A1 (en) 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US8860672B2 (en) 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US20110296351A1 (en) 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US20130120280A1 (en) 2010-05-28 2013-05-16 Tim Kukulski System and Method for Evaluating Interoperability of Gesture Recognizers
KR101626301B1 (ko) 2010-05-28 2016-06-01 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5190560B2 (ja) 2010-05-28 2013-04-24 楽天株式会社 コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムが記録された記録媒体
US8669946B2 (en) 2010-05-28 2014-03-11 Blackberry Limited Electronic device including touch-sensitive display and method of controlling same
EP2390772A1 (de) 2010-05-31 2011-11-30 Sony Ericsson Mobile Communications AB Benutzerschnittstelle mit dreidimensionaler Benutzereingabe
CN102939578A (zh) 2010-06-01 2013-02-20 诺基亚公司 用于接收用户输入的方法、设备和系统
US9046999B1 (en) 2010-06-08 2015-06-02 Google Inc. Dynamic input at a touch-based interface based on pressure
JP2011257941A (ja) 2010-06-08 2011-12-22 Panasonic Corp 文字入力装置、文字装飾方法、及び文字装飾プログラム
US20120089951A1 (en) 2010-06-10 2012-04-12 Cricket Communications, Inc. Method and apparatus for navigation within a multi-level application
US20110307778A1 (en) 2010-06-10 2011-12-15 Acer Incorporated Mobile electronic apparatus and method of switching application programs thereof
US20110304577A1 (en) 2010-06-11 2011-12-15 Sp Controls, Inc. Capacitive touch screen stylus
US20110304559A1 (en) 2010-06-11 2011-12-15 Research In Motion Limited Portable electronic device including touch-sensitive display and method of changing tactile feedback
US9106194B2 (en) 2010-06-14 2015-08-11 Sony Corporation Regulation of audio volume and/or rate responsive to user applied pressure and related methods
US20110319136A1 (en) 2010-06-23 2011-12-29 Motorola, Inc. Method of a Wireless Communication Device for Managing Status Components for Global Call Control
US8477109B1 (en) 2010-06-24 2013-07-02 Amazon Technologies, Inc. Surfacing reference work entries on touch-sensitive displays
US8542205B1 (en) 2010-06-24 2013-09-24 Amazon Technologies, Inc. Refining search results based on touch gestures
KR20120002727A (ko) 2010-07-01 2012-01-09 주식회사 팬택 3d ui 표시 장치
US20120001856A1 (en) 2010-07-02 2012-01-05 Nokia Corporation Responding to tactile inputs
GB201011146D0 (en) 2010-07-02 2010-08-18 Vodafone Ip Licensing Ltd Mobile computing device
US8972903B2 (en) 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
JP5589625B2 (ja) 2010-07-08 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120013541A1 (en) 2010-07-14 2012-01-19 Research In Motion Limited Portable electronic device and method of controlling same
US8854316B2 (en) 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
US20120013542A1 (en) 2010-07-16 2012-01-19 Research In Motion Limited Portable electronic device and method of determining a location of a touch
KR20120009564A (ko) 2010-07-19 2012-02-02 삼성전자주식회사 3차원 마우스 포인터 생성방법 및 생성장치
EP2410413B1 (de) 2010-07-19 2018-12-12 Telefonaktiebolaget LM Ericsson (publ) Verfahren, Vorrichtung und Computerprogramm zur Texteingabe
US20120019448A1 (en) 2010-07-22 2012-01-26 Nokia Corporation User Interface with Touch Pressure Level Sensing
JP5529663B2 (ja) 2010-07-28 2014-06-25 京セラ株式会社 入力装置
JP2012027875A (ja) 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
JP5494337B2 (ja) 2010-07-30 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8402533B2 (en) 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US8593418B2 (en) 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
US9756163B2 (en) 2010-08-09 2017-09-05 Intelligent Mechatronic Systems, Inc. Interface between mobile device and computing device
US8698765B1 (en) 2010-08-17 2014-04-15 Amazon Technologies, Inc. Associating concepts within content items
JP5625612B2 (ja) 2010-08-19 2014-11-19 株式会社リコー 操作表示装置および操作表示方法
US8576184B2 (en) 2010-08-19 2013-11-05 Nokia Corporation Method and apparatus for browsing content files
JP5573487B2 (ja) 2010-08-20 2014-08-20 ソニー株式会社 情報処理装置、プログラム及び操作制御方法
JP5510185B2 (ja) 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
US8751838B2 (en) 2010-08-23 2014-06-10 Nokia Corporation Method, apparatus and computer program product for presentation of information in a low power mode
JP2011048832A (ja) 2010-08-27 2011-03-10 Kyocera Corp 入力装置
JP5813301B2 (ja) 2010-09-01 2015-11-17 京セラ株式会社 表示装置
JP5732783B2 (ja) 2010-09-02 2015-06-10 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
US20120060123A1 (en) 2010-09-03 2012-03-08 Hugh Smith Systems and methods for deterministic control of instant-on mobile devices with touch screens
US8954427B2 (en) 2010-09-07 2015-02-10 Google Inc. Search result previews
KR101739054B1 (ko) 2010-09-08 2017-05-24 삼성전자주식회사 디바이스상의 움직임 제어 방법 및 장치
US8593534B2 (en) * 2010-09-08 2013-11-26 Apple Inc. Auto-triggered camera self-timer based on recognition of subject's presence in scene
US10645344B2 (en) 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US20120062470A1 (en) 2010-09-10 2012-03-15 Chang Ray L Power Management
US20120066648A1 (en) 2010-09-14 2012-03-15 Xerox Corporation Move and turn touch screen interface for manipulating objects in a 3d scene
US9164670B2 (en) 2010-09-15 2015-10-20 Microsoft Technology Licensing, Llc Flexible touch-based scrolling
KR101657122B1 (ko) 2010-09-15 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP6049990B2 (ja) 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
US8311514B2 (en) 2010-09-16 2012-11-13 Microsoft Corporation Prevention of accidental device activation
EP2431870B1 (de) 2010-09-17 2019-11-27 LG Electronics Inc. Mobiles Endgerät und Steuerungsverfahren dafür
GB201015720D0 (en) 2010-09-20 2010-10-27 Gammons Richard Findability of data elements
CN102870076A (zh) 2010-09-24 2013-01-09 捷讯研究有限公司 便携式电子设备及其控制方法
EP2434368B1 (de) 2010-09-24 2018-08-01 BlackBerry Limited Verfahren zur Konservierung von Strom auf einer tragbaren elektronischen Vorrichtung, die dafür konfiguriert wurde
JP5959797B2 (ja) 2010-09-28 2016-08-02 京セラ株式会社 入力装置及び入力装置の制御方法
US9030419B1 (en) 2010-09-28 2015-05-12 Amazon Technologies, Inc. Touch and force user interface navigation
JP5725533B2 (ja) 2010-09-29 2015-05-27 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置および入力方法
US9323442B2 (en) 2010-09-30 2016-04-26 Apple Inc. Managing items in a user interface
US8817053B2 (en) 2010-09-30 2014-08-26 Apple Inc. Methods and systems for opening a file
KR101685991B1 (ko) 2010-09-30 2016-12-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20120084644A1 (en) 2010-09-30 2012-04-05 Julien Robert Content preview
US8713474B2 (en) 2010-10-05 2014-04-29 Citrix Systems, Inc. Providing user interfaces and window previews for hosted applications
EP2447818A1 (de) 2010-10-07 2012-05-02 Research in Motion Limited Verfahren und tragbares elektronisches Gerät zur Textdarstellung
US20120089942A1 (en) 2010-10-07 2012-04-12 Research In Motion Limited Method and portable electronic device for presenting text
JP5664103B2 (ja) 2010-10-08 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20130052743A (ko) 2010-10-15 2013-05-23 삼성전자주식회사 항목 선택 방법
JP5751934B2 (ja) 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
KR101726607B1 (ko) 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US20120092381A1 (en) 2010-10-19 2012-04-19 Microsoft Corporation Snapping User Interface Elements Based On Touch Input
US9043732B2 (en) 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
US20120102437A1 (en) 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
JP5710934B2 (ja) 2010-10-25 2015-04-30 シャープ株式会社 コンテンツ表示装置、およびコンテンツ表示方法
US8706172B2 (en) 2010-10-26 2014-04-22 Miscrosoft Corporation Energy efficient continuous sensing for communications devices
US8655085B2 (en) 2010-10-28 2014-02-18 Microsoft Corporation Burst mode image compression and decompression
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
JP2012099996A (ja) 2010-11-01 2012-05-24 Olympus Imaging Corp 再生装置、再生方法、および、再生プログラム
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9760241B1 (en) 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US20130215079A1 (en) 2010-11-09 2013-08-22 Koninklijke Philips Electronics N.V. User interface with haptic feedback
US9645722B1 (en) 2010-11-19 2017-05-09 A9.Com, Inc. Preview search results
JP5719205B2 (ja) 2010-11-22 2015-05-13 シャープ株式会社 電子機器および表示制御方法
US8560960B2 (en) 2010-11-23 2013-10-15 Apple Inc. Browsing and interacting with open windows
JP2012118825A (ja) 2010-12-01 2012-06-21 Fujitsu Ten Ltd 表示装置
US9069452B2 (en) 2010-12-01 2015-06-30 Apple Inc. Morphing a user-interface control object
US9223445B2 (en) 2010-12-02 2015-12-29 Atmel Corporation Position-sensing and force detection panel
US10503255B2 (en) 2010-12-02 2019-12-10 Immersion Corporation Haptic feedback assisted text manipulation
JP5700783B2 (ja) 2010-12-07 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
KR101645685B1 (ko) 2010-12-20 2016-08-04 애플 인크. 이벤트 인식
US9223471B2 (en) 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
KR101701852B1 (ko) 2010-12-29 2017-02-13 엘지전자 주식회사 이동단말기 및 그 제어방법
US9354804B2 (en) 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device
JP5698529B2 (ja) 2010-12-29 2015-04-08 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
TW201227393A (en) 2010-12-31 2012-07-01 Acer Inc Method for unlocking screen and executing application program
US20120179967A1 (en) 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20120180001A1 (en) 2011-01-06 2012-07-12 Research In Motion Limited Electronic device and method of controlling same
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR101892630B1 (ko) 2011-01-10 2018-08-28 삼성전자주식회사 터치 디스플레이 장치 및 그 디스플레이 방법
US20120185787A1 (en) 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US8713471B1 (en) 2011-01-14 2014-04-29 Intuit Inc. Method and system for providing an intelligent visual scrollbar position indicator
US20120183271A1 (en) 2011-01-17 2012-07-19 Qualcomm Incorporated Pressure-based video recording
US9519418B2 (en) 2011-01-18 2016-12-13 Nokia Technologies Oy Method and apparatus for providing a multi-stage device transition mechanism initiated based on a touch gesture
US20120192108A1 (en) 2011-01-26 2012-07-26 Google Inc. Gesture-based menu controls
WO2012108214A1 (ja) 2011-02-10 2012-08-16 京セラ株式会社 入力装置
EP3734406A1 (de) 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Tragbare vorrichtung mit einer berührungsbildschirmanzeige und verfahren zur steuerung davon
JP5537458B2 (ja) 2011-02-10 2014-07-02 シャープ株式会社 タッチ入力可能な画像表示装置、表示装置の制御装置、及びコンピュータプログラム
US20120218203A1 (en) 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
JP5452738B2 (ja) 2011-02-10 2014-03-26 京セラ株式会社 入力装置
KR101802522B1 (ko) 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
US8780140B2 (en) 2011-02-16 2014-07-15 Sony Corporation Variable display scale control device and variable playing speed control device
US8756503B2 (en) 2011-02-21 2014-06-17 Xerox Corporation Query generation from displayed text documents using virtual magnets
JP5654114B2 (ja) 2011-02-23 2015-01-14 京セラ株式会社 タッチセンサを備えた電子機器
US8593420B1 (en) 2011-03-04 2013-11-26 Amazon Technologies, Inc. Providing tactile output and interaction
US9195321B2 (en) 2011-03-17 2015-11-24 Intellitact Llc Input device user interface enhancements
US8479110B2 (en) 2011-03-20 2013-07-02 William J. Johnson System and method for summoning user interface objects
US20120242584A1 (en) 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US9489074B2 (en) 2011-03-23 2016-11-08 Kyocera Corporation Electronic device, operation control method, and operation control program
US11580155B2 (en) 2011-03-28 2023-02-14 Kodak Alaris Inc. Display device for displaying related digital images
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US9220062B2 (en) 2011-03-30 2015-12-22 Nokia Technologies Oy Method and apparatus for low-power browsing
US20120256829A1 (en) 2011-04-05 2012-10-11 Qnx Software Systems Limited Portable electronic device and method of controlling same
US20120256857A1 (en) 2011-04-05 2012-10-11 Mak Genevieve Elizabeth Electronic device and method of controlling same
US8872773B2 (en) 2011-04-05 2014-10-28 Blackberry Limited Electronic device and method of controlling same
US20120256846A1 (en) 2011-04-05 2012-10-11 Research In Motion Limited Electronic device and method of controlling same
WO2012137946A1 (ja) 2011-04-06 2012-10-11 京セラ株式会社 電子機器、操作制御方法および操作制御プログラム
KR101772979B1 (ko) 2011-04-06 2017-08-31 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US8736716B2 (en) 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
US20120260220A1 (en) 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
US20120260219A1 (en) 2011-04-08 2012-10-11 Piccolotto Jose P Method of cursor control
CN102752441A (zh) 2011-04-22 2012-10-24 比亚迪股份有限公司 一种具有触控屏的移动终端及其控制方法
US20120274578A1 (en) 2011-04-26 2012-11-01 Research In Motion Limited Electronic device and method of controlling same
US9110556B2 (en) 2011-04-28 2015-08-18 Nokia Technologies Oy Method and apparatus for increasing the functionality of an electronic device in a locked state
GB201107273D0 (en) 2011-04-28 2011-06-15 Inq Entpr Ltd Application control in electronic devices
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
CN103518176B (zh) 2011-05-12 2016-03-02 阿尔卑斯电气株式会社 输入装置及使用所述输入装置的多个点的载荷检测方法
US8952987B2 (en) 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
US9152288B2 (en) 2011-05-19 2015-10-06 Microsoft Technology Licensing, Llc Remote multi-touch
WO2012162158A1 (en) 2011-05-20 2012-11-29 Citrix Systems, Inc. Shell integration on a mobile device for an application executing remotely on a server
WO2012162399A2 (en) 2011-05-23 2012-11-29 Visible Market Inc. Dynamic visual statistical data display and navigation system and method for limited display device
CN103999028B (zh) 2011-05-23 2018-05-15 微软技术许可有限责任公司 不可见控件
KR101240406B1 (ko) 2011-05-24 2013-03-11 주식회사 미성포리테크 힘센서를 이용한 휴대형 정보통신 단말기의 프로그램 동작 제어 방법
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
JP5808404B2 (ja) 2011-05-27 2015-11-10 京セラ株式会社 電子機器
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US10180722B2 (en) 2011-05-27 2019-01-15 Honeywell International Inc. Aircraft user interfaces with multi-mode haptics
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9032338B2 (en) 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
KR101802759B1 (ko) 2011-05-30 2017-11-29 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101290145B1 (ko) 2011-05-31 2013-07-26 삼성전자주식회사 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치
US9092130B2 (en) 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US8508494B2 (en) 2011-06-01 2013-08-13 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US8587542B2 (en) 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US9310958B2 (en) 2011-06-02 2016-04-12 Lenovo (Singapore) Pte. Ltd. Dock for favorite applications
US9383820B2 (en) 2011-06-03 2016-07-05 Apple Inc. Custom vibration patterns
US20120311504A1 (en) 2011-06-03 2012-12-06 Van Os Marcel Extensible architecture for navigating a hierarchy
KR101838260B1 (ko) 2011-06-03 2018-03-13 구글 엘엘씨 텍스트를 선택하기 위한 제스처들
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
US8661337B2 (en) 2011-06-05 2014-02-25 Apple Inc. Techniques for use of snapshots with browsing transitions
US8823813B2 (en) * 2011-06-06 2014-09-02 Apple Inc. Correcting rolling shutter using image stabilization
KR20120135723A (ko) 2011-06-07 2012-12-17 김연수 터치패널 타입의 신호입력장치
CN105718192B (zh) 2011-06-07 2023-05-02 联想(北京)有限公司 移动终端及其触摸输入方法
WO2012167735A1 (zh) 2011-06-07 2012-12-13 联想(北京)有限公司 电子设备、触摸输入方法和控制方法
WO2012169176A1 (ja) 2011-06-07 2012-12-13 パナソニック株式会社 電子機器
US20120313847A1 (en) 2011-06-09 2012-12-13 Nokia Corporation Method and apparatus for contextual gesture recognition
TWI431516B (zh) 2011-06-21 2014-03-21 Quanta Comp Inc 觸覺回饋方法及其電子裝置
US9304668B2 (en) 2011-06-28 2016-04-05 Nokia Technologies Oy Method and apparatus for customizing a display screen of a user interface
US20130135243A1 (en) 2011-06-29 2013-05-30 Research In Motion Limited Character preview method and apparatus
US8932412B2 (en) 2011-06-29 2015-01-13 Whirlpool Corporation Method and apparatus for an appliance with a power saving mode
EP2713251A4 (de) 2011-07-04 2014-08-06 Huawei Device Co Ltd Verfahren und elektronische vorrichtung für virtuelle handgeschriebene eingabe
US20130014057A1 (en) 2011-07-07 2013-01-10 Thermal Matrix USA, Inc. Composite control for a graphical user interface
EP2733591B1 (de) 2011-07-11 2019-05-08 KDDI Corporation Benutzerschnittstellenvorrichtung zur durchführung von eingaben durch fingerkontakt in mehreren betriebsarten, verfahren zum testen von eingabevorgängen und programm dafür
US20130016042A1 (en) 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
JP5325943B2 (ja) 2011-07-12 2013-10-23 富士フイルム株式会社 情報処理装置、情報処理方法及びプログラム
US9158455B2 (en) 2011-07-12 2015-10-13 Apple Inc. Multifunctional environment for image cropping
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
JP5799628B2 (ja) 2011-07-15 2015-10-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20130212515A1 (en) 2012-02-13 2013-08-15 Syntellia, Inc. User interface for text input
WO2013015070A1 (ja) 2011-07-22 2013-01-31 Kddi株式会社 指の移動を伴うことなく画像スクロールが可能なユーザインタフェース装置、画像スクロール方法及びプログラム
CN102243662A (zh) 2011-07-27 2011-11-16 北京风灵创景科技有限公司 一种在移动设备上显示浏览器界面的方法
US8713482B2 (en) 2011-07-28 2014-04-29 National Instruments Corporation Gestures for presentation of different views of a system diagram
JP5295328B2 (ja) 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
KR101830965B1 (ko) 2011-08-03 2018-02-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN103797784A (zh) * 2011-08-05 2014-05-14 汤姆逊许可公司 视频偷看
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
US20130044062A1 (en) 2011-08-16 2013-02-21 Nokia Corporation Method and apparatus for translating between force inputs and temporal inputs
US20130047100A1 (en) 2011-08-17 2013-02-21 Google Inc. Link Disambiguation For Touch Screens
CN102354269B (zh) 2011-08-18 2013-06-12 宇龙计算机通信科技(深圳)有限公司 用于控制显示装置的方法和系统
US20130050131A1 (en) 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
JP2013046306A (ja) * 2011-08-25 2013-03-04 Sony Corp 情報処理装置、情報処理システムおよび情報処理方法
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
KR101351162B1 (ko) 2011-08-30 2014-01-14 주식회사 팬택 플리킹을 이용한 리스트 선택 지원 단말 장치 및 방법
US20130050143A1 (en) 2011-08-31 2013-02-28 Samsung Electronics Co., Ltd. Method of providing of user interface in portable terminal and apparatus thereof
WO2013029641A1 (en) 2011-08-31 2013-03-07 Sony Ericsson Mobile Communications Ab Method for operating a touch sensitive user interface
US8743069B2 (en) 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
CN102981659B (zh) 2011-09-06 2016-01-27 宸鸿光电科技股份有限公司 触控面板的控制系统与控制方法及其使用的触控笔
TWI475470B (zh) 2011-09-07 2015-03-01 Acer Inc 電子裝置及應用程式操作方法
US20130067411A1 (en) 2011-09-08 2013-03-14 Google Inc. User gestures indicating rates of execution of functions
JP5576841B2 (ja) 2011-09-09 2014-08-20 Kddi株式会社 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
US9071854B2 (en) 2011-09-12 2015-06-30 Disney Enterprises, Inc. System and method for transmitting a services list to a playback device
US9612670B2 (en) 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US8976128B2 (en) 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9069460B2 (en) 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9501213B2 (en) 2011-09-16 2016-11-22 Skadool, Inc. Scheduling events on an electronic calendar utilizing fixed-positioned events and a draggable calendar grid
US9519350B2 (en) 2011-09-19 2016-12-13 Samsung Electronics Co., Ltd. Interface controlling apparatus and method using force
US20130074003A1 (en) 2011-09-21 2013-03-21 Nokia Corporation Method and apparatus for integrating user interfaces
US8959430B1 (en) 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key
JP2013070303A (ja) 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
US20130076651A1 (en) 2011-09-28 2013-03-28 Robert Reimann Methods and apparatus to change control centexts of controllers
CN103019427B (zh) 2011-09-28 2017-06-27 联想(北京)有限公司 控制方法及电子设备
JP5762912B2 (ja) 2011-09-30 2015-08-12 京セラ株式会社 装置、方法、及びプログラム
US20130086056A1 (en) 2011-09-30 2013-04-04 Matthew G. Dyor Gesture based context menus
US20130082824A1 (en) 2011-09-30 2013-04-04 Nokia Corporation Feedback response
US9395800B2 (en) 2011-09-30 2016-07-19 Qualcomm Incorporated Enabling instant handwritten input on mobile computing devices
JP5771585B2 (ja) 2011-10-03 2015-09-02 京セラ株式会社 装置、方法、及びプログラム
JP2012027940A (ja) 2011-10-05 2012-02-09 Toshiba Corp 電子機器
EP2764427B1 (de) 2011-10-06 2020-07-29 Sony Corporation Verfahren und elektronische vorrichtung zur manipulation eines ersten oder zweiten benutzerschnittstellenobjekts
KR101924835B1 (ko) 2011-10-10 2018-12-05 삼성전자주식회사 터치 디바이스의 기능 운용 방법 및 장치
US10394441B2 (en) 2011-10-15 2019-08-27 Apple Inc. Device, method, and graphical user interface for controlling display of application windows
US8634807B2 (en) 2011-10-17 2014-01-21 Blackberry Limited System and method for managing electronic groups
US9170607B2 (en) 2011-10-17 2015-10-27 Nokia Technologies Oy Method and apparatus for determining the presence of a device for executing operations
CA2792895C (en) 2011-10-18 2020-04-28 Research In Motion Limited Method of rendering a user interface
US20130097534A1 (en) 2011-10-18 2013-04-18 Research In Motion Limited Method of rendering a user interface
CA2792685C (en) 2011-10-18 2017-08-22 Research In Motion Limited Method of modifying rendered attributes of list elements in a user interface
EP2584462B1 (de) 2011-10-18 2019-03-27 BlackBerry Limited Verfahren zur Darstellung einer Benutzeroberfläche
US8810535B2 (en) 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
CA2792188A1 (en) 2011-10-18 2013-04-18 Research In Motion Limited Method of animating a rearrangement of ui elements on a display screen of an electronic device
US9389707B2 (en) 2011-10-28 2016-07-12 Atmel Corporation Active stylus with configurable touch sensor
US20130111415A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
US20130111345A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
US20130111579A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Electronic device mode, associated apparatus and methods
US20130111378A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
DE102012110278A1 (de) 2011-11-02 2013-05-02 Beijing Lenovo Software Ltd. Verfahren und Vorrichtungen zur Fensterdarstellung und Verfahren und Vorrichtungen zur Berührungsbedienung von Anwendungen
JP5204286B2 (ja) 2011-11-02 2013-06-05 株式会社東芝 電子機器および入力方法
CN103092386A (zh) 2011-11-07 2013-05-08 联想(北京)有限公司 一种电子设备及其触控方法
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US20130113760A1 (en) 2011-11-07 2013-05-09 Google Inc. Techniques for providing localized tactile feedback to a user via an electro-acoustic touch display of a user device
JP2013101465A (ja) 2011-11-08 2013-05-23 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
US9588680B2 (en) 2011-11-09 2017-03-07 Blackberry Limited Touch-sensitive display method and apparatus
JP5884421B2 (ja) 2011-11-14 2016-03-15 ソニー株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
KR101888457B1 (ko) 2011-11-16 2018-08-16 삼성전자주식회사 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
JP5520918B2 (ja) 2011-11-16 2014-06-11 富士ソフト株式会社 タッチパネル操作方法及びプログラム
KR101652744B1 (ko) 2011-11-18 2016-09-09 센톤스 아이엔씨. 국소형 햅틱 피드백
KR101850680B1 (ko) 2011-11-18 2018-04-20 센톤스 아이엔씨. 터치 입력 힘 검출
KR101796481B1 (ko) * 2011-11-28 2017-12-04 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
US9372593B2 (en) 2011-11-29 2016-06-21 Apple Inc. Using a three-dimensional model to render a cursor
KR101873744B1 (ko) 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101824007B1 (ko) 2011-12-05 2018-01-31 엘지전자 주식회사 이동 단말기 및 그의 멀티 태스킹 방법
US8581870B2 (en) 2011-12-06 2013-11-12 Apple Inc. Touch-sensitive button with two levels
CN102566908A (zh) 2011-12-13 2012-07-11 鸿富锦精密工业(深圳)有限公司 电子设备及其页面缩放方法
US8633911B2 (en) 2011-12-14 2014-01-21 Synaptics Incorporated Force sensing input device and method for determining force information
EP2605129B1 (de) 2011-12-16 2019-03-13 BlackBerry Limited Verfahren zum Darstellen einer Benutzeroberfläche
CN102722312B (zh) 2011-12-16 2015-12-16 江南大学 一种基于压力传感器的动作趋势预测交互体验方法及系统
US20130159930A1 (en) 2011-12-19 2013-06-20 Nokia Corporation Displaying one or more currently active applications
US20130154959A1 (en) 2011-12-20 2013-06-20 Research In Motion Limited System and method for controlling an electronic device
US20130155018A1 (en) 2011-12-20 2013-06-20 Synaptics Incorporated Device and method for emulating a touch screen using force information
WO2013094371A1 (ja) 2011-12-22 2013-06-27 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
JP2013131185A (ja) 2011-12-22 2013-07-04 Kyocera Corp 装置、方法、及びプログラム
US9257098B2 (en) 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
CN103186329B (zh) 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 电子设备及其触摸输入控制方法
KR102006470B1 (ko) 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US9116611B2 (en) 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
US10248278B2 (en) 2011-12-30 2019-04-02 Nokia Technologies Oy Method and apparatus for intuitive multitasking
US8756511B2 (en) 2012-01-03 2014-06-17 Lg Electronics Inc. Gesture based unlocking of a mobile terminal
US9141262B2 (en) 2012-01-06 2015-09-22 Microsoft Technology Licensing, Llc Edge-based hooking gestures for invoking user interfaces
DE102012207931A1 (de) 2012-01-07 2013-07-11 Johnson Controls Gmbh Kameraanordnung zur Distanzmessung
CA2860569A1 (en) 2012-01-09 2013-07-18 Airbiquity Inc. User interface for mobile device
KR101710547B1 (ko) 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
US9058168B2 (en) 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
JP5410555B2 (ja) 2012-01-26 2014-02-05 京セラドキュメントソリューションズ株式会社 タッチパネル装置
JP2013153376A (ja) 2012-01-26 2013-08-08 Sony Corp 画像処理装置、画像処理方法および記録媒体
JP5885517B2 (ja) * 2012-01-27 2016-03-15 キヤノン株式会社 表示制御装置、表示制御装置の表示制御方法およびプログラム
JP5613187B2 (ja) * 2012-01-27 2014-10-22 オリンパスイメージング株式会社 撮像装置、撮像装置の制御方法、及び、撮像装置の制御をコンピュータに行わせるためのコードを備える持続性コンピュータ可読媒体
KR101973631B1 (ko) 2012-02-01 2019-04-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
US9524272B2 (en) 2012-02-05 2016-12-20 Apple Inc. Navigating among content items in a browser using an array mode
US9164779B2 (en) 2012-02-10 2015-10-20 Nokia Technologies Oy Apparatus and method for providing for remote user interaction
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US9146914B1 (en) 2012-02-17 2015-09-29 Google Inc. System and method for providing a context sensitive undo function
KR101356368B1 (ko) 2012-02-24 2014-01-29 주식회사 팬택 어플리케이션 전환 장치 및 방법
EP2631737A1 (de) 2012-02-24 2013-08-28 Research In Motion Limited Verfahren und Vorrichtung zur Bereitstellung einer kontextabhängigen Benutzerschnittstelle auf einer Vorrichtung
US9778706B2 (en) 2012-02-24 2017-10-03 Blackberry Limited Peekable user interface on a portable electronic device
TWI519155B (zh) 2012-02-24 2016-01-21 宏達國際電子股份有限公司 影像連續拍攝方法與相關影像擷取系統
KR101894567B1 (ko) 2012-02-24 2018-09-03 삼성전자 주식회사 락스크린 운용 방법 및 이를 지원하는 단말기
WO2013127055A1 (en) 2012-02-27 2013-09-06 Nokia Corporation Apparatus and associated methods
US9898174B2 (en) 2012-02-28 2018-02-20 Google Llc Previewing expandable content items
US9817568B2 (en) 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
KR20130099647A (ko) 2012-02-29 2013-09-06 한국과학기술원 사이드 인터페이스를 이용한 사용자 단말 컨텐츠 제어방법 및 제어장치
US9542013B2 (en) 2012-03-01 2017-01-10 Nokia Technologies Oy Method and apparatus for determining recipients of a sharing operation based on an indication associated with a tangible object
US20130232402A1 (en) 2012-03-01 2013-09-05 Huawei Technologies Co., Ltd. Method for Processing Sensor Data and Computing Node
US9158383B2 (en) 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
US9078208B1 (en) 2012-03-05 2015-07-07 Google Inc. Power modes of computing devices
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US20130234929A1 (en) 2012-03-07 2013-09-12 Evernote Corporation Adapting mobile user interface to unfavorable usage conditions
US9378581B2 (en) 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
WO2013135270A1 (en) 2012-03-13 2013-09-19 Telefonaktiebolaget L M Ericsson (Publ) An apparatus and method for navigating on a touch sensitive screen thereof
US8760425B2 (en) 2012-03-20 2014-06-24 Sony Corporation Method and apparatus for enabling touchpad gestures
US10331769B1 (en) 2012-03-23 2019-06-25 Amazon Technologies, Inc. Interaction based prioritized retrieval of embedded resources
US10673691B2 (en) 2012-03-24 2020-06-02 Fred Khosropour User interaction platform
CN102662573B (zh) 2012-03-24 2016-04-27 上海量明科技发展有限公司 通过触压获得选择项的方法及终端
US9063644B2 (en) 2012-03-26 2015-06-23 The Boeing Company Adjustment mechanisms for virtual knobs on a touchscreen interface
CN102662571B (zh) 2012-03-26 2016-05-25 华为技术有限公司 解锁屏幕保护的方法及用户设备
US9116571B2 (en) 2012-03-27 2015-08-25 Adonit Co., Ltd. Method and system of data input for an electronic device equipped with a touch screen
US11474645B2 (en) 2012-03-27 2022-10-18 Nokia Technologies Oy Method and apparatus for force sensing
JP5934537B2 (ja) 2012-03-27 2016-06-15 京セラ株式会社 電子機器および電子機器の制御方法
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
BR112014023286A8 (pt) 2012-03-28 2017-07-25 Sony Corp Aparelho e método de processamento de informação, e, programa
CN102662577B (zh) 2012-03-29 2016-08-10 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
KR101924095B1 (ko) 2012-04-06 2018-11-30 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9104260B2 (en) 2012-04-10 2015-08-11 Typesoft Technologies, Inc. Systems and methods for detecting a press on a touch-sensitive surface
TWI455011B (zh) 2012-04-11 2014-10-01 Wistron Corp 觸控顯示裝置及條件式改變顯示範圍之方法
US20130271355A1 (en) 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
WO2013156815A1 (en) 2012-04-18 2013-10-24 Nokia Corporation A display apparatus with haptic feedback
TWI459287B (zh) 2012-04-20 2014-11-01 Hon Hai Prec Ind Co Ltd 觸控操作方法及使用其的電子系統
US9552037B2 (en) 2012-04-23 2017-01-24 Google Inc. Switching a computing device from a low-power state to a high-power state
US9864483B2 (en) 2012-04-26 2018-01-09 Blackberry Limited Methods and apparatus for the management and viewing of calendar event information
JP6032657B2 (ja) 2012-04-27 2016-11-30 パナソニックIpマネジメント株式会社 触感呈示装置、触感呈示方法、駆動信号生成装置および駆動信号生成方法
US9727153B2 (en) 2012-05-02 2017-08-08 Sony Corporation Terminal apparatus, display control method and recording medium
KR102004262B1 (ko) * 2012-05-07 2019-07-26 엘지전자 주식회사 미디어 시스템 및 이미지와 연관된 추천 검색어를 제공하는 방법
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
DE112013002410T5 (de) 2012-05-09 2015-01-22 Apple Inc. Variieren der Ausgabe für eine rechnende Vorrichtung basierend auf Tracking-Fenstern
EP2847657B1 (de) 2012-05-09 2016-08-10 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zur anzeige von zusatzinformationen als rektion auf einen benutzerkontakt
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP3264252B1 (de) 2012-05-09 2019-11-27 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum ausführen einer operation gemäss eines ausgewählten operationsmodus
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
EP3410287B1 (de) 2012-05-09 2022-08-17 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP2013236298A (ja) 2012-05-10 2013-11-21 Olympus Corp 撮像装置
EP2662761B1 (de) 2012-05-11 2020-07-01 Samsung Electronics Co., Ltd Vorrichtung und Verfahren zur Bereitstellung von Mehrfachbildschirmfenstern
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9454303B2 (en) 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
US20130307790A1 (en) 2012-05-17 2013-11-21 Nokia Corporation Methods And Apparatus For Device Control
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US20130321306A1 (en) 2012-05-21 2013-12-05 Door Number 3 Common drawing model
US8816989B2 (en) 2012-05-22 2014-08-26 Lenovo (Singapore) Pte. Ltd. User interface navigation utilizing pressure-sensitive touch
US9251763B2 (en) 2012-05-25 2016-02-02 Picmonkey, Llc System and method for image collage editing
US11269486B2 (en) 2012-05-29 2022-03-08 Samsung Electronics Co., Ltd. Method for displaying item in terminal and terminal using the same
JP2013250602A (ja) 2012-05-30 2013-12-12 Seiko Epson Corp 端末装置、端末装置の制御方法、及び、プログラム
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
CN102799347B (zh) 2012-06-05 2017-01-04 北京小米科技有限责任公司 应用于触屏设备的用户界面交互方法、装置及触屏设备
KR101909030B1 (ko) 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
CN102819401A (zh) 2012-06-08 2012-12-12 中标软件有限公司 一种Android操作系统及其桌面图标布置方法
US9063595B2 (en) 2012-06-08 2015-06-23 Apple Inc. Devices and methods for reducing power usage of a touch-sensitive display
RU2503698C1 (ru) 2012-06-09 2014-01-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Волгоградский государственный технический университет" (ВолгГТУ) Композиция для покрытий
JP2013257657A (ja) 2012-06-11 2013-12-26 Fujitsu Ltd 情報端末装置及び表示制御方法
US9041667B2 (en) 2012-06-12 2015-05-26 Blackberry Limited Electronic device and method of control of displays
US20130339001A1 (en) 2012-06-19 2013-12-19 Microsoft Corporation Spelling candidate generation
KR20130142301A (ko) 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
US20140002374A1 (en) 2012-06-29 2014-01-02 Lenovo (Singapore) Pte. Ltd. Text selection utilizing pressure-sensitive touch
US20140013271A1 (en) 2012-07-05 2014-01-09 Research In Motion Limited Prioritization of multitasking applications in a mobile device interface
US9119156B2 (en) 2012-07-13 2015-08-25 Microsoft Technology Licensing, Llc Energy-efficient transmission of content over a wireless connection
US20140026098A1 (en) 2012-07-19 2014-01-23 M2J Think Box, Inc. Systems and methods for navigating an interface of an electronic device
EP3672227B1 (de) * 2012-07-20 2022-05-04 BlackBerry Limited Dynamische anpassung einer region von interesse und damit ausgestattete bildaufnahmevorrichtung
US9256351B2 (en) 2012-07-20 2016-02-09 Blackberry Limited Method and electronic device for facilitating user control of a menu
US9298295B2 (en) 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
US20140028554A1 (en) 2012-07-26 2014-01-30 Google Inc. Recognizing gesture on tactile input device
US9836213B2 (en) 2012-07-27 2017-12-05 Symbol Technologies, Llc Enhanced user interface for pressure sensitive touch screen
JP5482842B2 (ja) 2012-07-30 2014-05-07 カシオ計算機株式会社 情報処理装置およびその制御プログラム
KR102014775B1 (ko) 2012-07-30 2019-08-27 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US8896556B2 (en) 2012-07-31 2014-11-25 Verizon Patent And Licensing Inc. Time-based touch interface
US9280280B2 (en) 2012-07-31 2016-03-08 Nokia Technologies Oy Method, apparatus and computer program product for presenting designated information on a display operating in a restricted mode
JP2014032506A (ja) 2012-08-02 2014-02-20 Sharp Corp 情報処理装置、選択操作検出方法およびプログラム
US9264765B2 (en) 2012-08-10 2016-02-16 Panasonic Intellectual Property Corporation Of America Method for providing a video, transmitting device, and receiving device
KR101946365B1 (ko) 2012-08-20 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9280206B2 (en) 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
US9720586B2 (en) 2012-08-21 2017-08-01 Nokia Technologies Oy Apparatus and method for providing for interaction with content within a digital bezel
US9250783B2 (en) 2012-08-21 2016-02-02 Apple Inc. Toggle gesture during drag gesture
KR101946366B1 (ko) 2012-08-23 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
TWI484405B (zh) 2012-08-23 2015-05-11 Egalax Empia Technology Inc 圖形使用者界面的顯示方法及使用該方法的電子裝置
US9063731B2 (en) 2012-08-27 2015-06-23 Samsung Electronics Co., Ltd. Ultra low power apparatus and method to wake up a main processor
JP5883745B2 (ja) 2012-08-28 2016-03-15 京セラ株式会社 携帯端末、カーソル位置制御プログラムおよびカーソル位置制御方法
JP6077794B2 (ja) 2012-08-29 2017-02-08 キヤノン株式会社 情報処理装置及びその制御方法、並びにプログラム
KR20140029720A (ko) * 2012-08-29 2014-03-11 엘지전자 주식회사 이동단말 제어방법
KR101956170B1 (ko) * 2012-08-29 2019-03-08 삼성전자 주식회사 카메라의 이미지 저장 장치 및 방법
US20140067293A1 (en) 2012-09-05 2014-03-06 Apple Inc. Power sub-state monitoring
US8732613B2 (en) 2012-09-06 2014-05-20 Google Inc. Dynamic user interface for navigating among GUI elements
JP5977627B2 (ja) 2012-09-07 2016-08-24 シャープ株式会社 情報処理装置、情報処理方法およびプログラム
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
US20140071060A1 (en) 2012-09-11 2014-03-13 International Business Machines Corporation Prevention of accidental triggers of button events
US20140078343A1 (en) 2012-09-20 2014-03-20 Htc Corporation Methods for generating video and multiple still images simultaneously and apparatuses using the same
EP2712174B1 (de) * 2012-09-21 2019-11-20 BlackBerry Limited Verfahren und Vorrichtungen zum Steuern der Kamerabilderfassung
US9063563B1 (en) 2012-09-25 2015-06-23 Amazon Technologies, Inc. Gesture actions for interface elements
US9372538B2 (en) 2012-09-28 2016-06-21 Denso International America, Inc. Multiple-force, dynamically-adjusted, 3-D touch surface with feedback for human machine interface (HMI)
US9785217B2 (en) 2012-09-28 2017-10-10 Synaptics Incorporated System and method for low power input object detection and interaction
US9671943B2 (en) 2012-09-28 2017-06-06 Dassault Systemes Simulia Corp. Touch-enabled complex data entry
AU2013326854A1 (en) 2012-10-05 2015-04-30 Tactual Labs Co. Hybrid systems and methods for low-latency user input processing and feedback
US20140109016A1 (en) 2012-10-16 2014-04-17 Yu Ouyang Gesture-based cursor control
KR102032336B1 (ko) 2012-10-19 2019-11-08 한국전자통신연구원 압력 변화를 통한 촉각 피드백을 제공하는 터치 패널 및 그것의 동작 방법
US20140111670A1 (en) 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture
US20140118268A1 (en) 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
US9448694B2 (en) 2012-11-09 2016-09-20 Intel Corporation Graphical user interface for navigating applications
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
CN103019586B (zh) 2012-11-16 2017-03-15 小米科技有限责任公司 用户界面管理方法及装置
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
KR102108061B1 (ko) 2012-11-27 2020-05-08 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US20140152581A1 (en) 2012-11-30 2014-06-05 Lenovo (Singapore) Pte. Ltd. Force as a device action modifier
JP5786909B2 (ja) 2012-11-30 2015-09-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報の表示方法、制御方法、及びプログラム
KR20140071118A (ko) 2012-12-03 2014-06-11 삼성전자주식회사 가상 버튼을 디스플레이하기 위한 방법 및 그 전자 장치
US10282088B2 (en) 2012-12-06 2019-05-07 Samsung Electronics Co., Ltd. Configuration of application execution spaces and sub-spaces for sharing data on a mobile tough screen device
US9082348B2 (en) 2012-12-07 2015-07-14 Blackberry Limited Methods and devices for scrolling a display page
US9189131B2 (en) 2012-12-11 2015-11-17 Hewlett-Packard Development Company, L.P. Context menus
JP5794399B2 (ja) 2012-12-12 2015-10-14 株式会社村田製作所 タッチ式入力装置
US20140168093A1 (en) 2012-12-13 2014-06-19 Nvidia Corporation Method and system of emulating pressure sensitivity on a surface
US20140168153A1 (en) 2012-12-17 2014-06-19 Corning Incorporated Touch screen systems and methods based on touch location and touch force
CN103870190B (zh) 2012-12-17 2018-03-27 联想(北京)有限公司 一种控制电子设备的方法及电子设备
KR20140079110A (ko) 2012-12-18 2014-06-26 엘지전자 주식회사 이동 단말기 및 그 동작 방법
US9223403B2 (en) 2012-12-19 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Tactile input and output device
JP2014123809A (ja) * 2012-12-20 2014-07-03 Canon Inc 撮像装置、撮像システム、および、撮像装置の制御方法
CN104380231B (zh) 2012-12-20 2017-10-24 英特尔公司 包括压力传感器的触摸屏
KR101457632B1 (ko) 2012-12-20 2014-11-10 주식회사 팬택 프로그램 알림 기능을 갖는 휴대용 전자 기기 및 이를 위한 프로그램 알림 방법
US9244576B1 (en) 2012-12-21 2016-01-26 Cypress Semiconductor Corporation User interface with child-lock feature
WO2014100953A1 (en) 2012-12-24 2014-07-03 Nokia Corporation An apparatus and associated methods
JP6003626B2 (ja) * 2012-12-26 2016-10-05 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
KR101958517B1 (ko) 2012-12-29 2019-03-14 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
EP3564806B1 (de) 2012-12-29 2024-02-21 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur entscheidung über das scrollen oder auswählen von bildschirminhalten
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR102072582B1 (ko) 2012-12-31 2020-02-03 엘지전자 주식회사 듀얼 디스플레이 방법 및 장치
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
US10082949B2 (en) 2013-01-17 2018-09-25 Samsung Electronics Co., Ltd. Apparatus and method for application peel
JP6075854B2 (ja) * 2013-01-21 2017-02-08 キヤノン株式会社 表示制御装置、その制御方法、およびプログラム、並びに撮像装置および記憶媒体
US9141259B2 (en) 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface
KR20140097902A (ko) 2013-01-30 2014-08-07 삼성전자주식회사 햅틱 패턴을 생성하는 휴대 단말 및 방법
US20140210798A1 (en) 2013-01-31 2014-07-31 Hewlett-Packard Development Company, L.P. Digital Drawing Using A Touch-Sensitive Device To Detect A Position And Force For An Input Event
KR102133410B1 (ko) 2013-01-31 2020-07-14 삼성전자 주식회사 멀티태스킹 운용 방법 및 이를 지원하는 단말기
WO2014123756A1 (en) 2013-02-05 2014-08-14 Nokia Corporation Method and apparatus for a slider interface element
EP2767896B1 (de) 2013-02-14 2019-01-16 LG Electronics Inc. Mobiles Endgerät und Verfahren zur Steuerung des mobilen Endgerätes
US20140237408A1 (en) 2013-02-15 2014-08-21 Flatfrog Laboratories Ab Interpretation of pressure based gesture
KR101761190B1 (ko) 2013-02-22 2017-07-25 삼성전자 주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
CN103186345B (zh) 2013-02-25 2016-09-14 北京极兴莱博信息科技有限公司 一种文段选择方法及装置
JP2014165663A (ja) 2013-02-25 2014-09-08 Kyocera Corp 携帯端末装置、プログラムおよび携帯端末装置の制御方法
US8769431B1 (en) 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
CN104020868B (zh) 2013-02-28 2017-09-01 联想(北京)有限公司 一种信息处理的方法及电子设备
US9035752B2 (en) 2013-03-11 2015-05-19 Amazon Technologies, Inc. Force sensing input device under an unbroken exterior portion of a device
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR102039688B1 (ko) * 2013-03-14 2019-11-01 삼성전자주식회사 사용자 기기 및 그 동작 방법
US10203815B2 (en) 2013-03-14 2019-02-12 Apple Inc. Application-based touch sensitivity
EP2973406B1 (de) * 2013-03-14 2019-11-27 NIKE Innovate C.V. Bestimmung sportlicher merkmale aus bilddaten
US10055418B2 (en) 2014-03-14 2018-08-21 Highspot, Inc. Narrowing information search results for presentation to a user
US9225677B2 (en) 2013-03-15 2015-12-29 Facebook, Inc. Systems and methods for displaying a digest of messages or notifications without launching applications associated with the messages or notifications
CN110851034B (zh) 2013-03-15 2024-03-15 苹果公司 用于管理用户界面的方法和电子设备
US9500419B2 (en) 2013-03-15 2016-11-22 Hypersciences, Inc. Ram accelerator system
US9451230B1 (en) 2013-03-15 2016-09-20 Google Inc. Playback adjustments for digital media items
CN105051652B (zh) 2013-03-15 2019-04-05 Tk控股公司 用于在注意力分散的操作环境中的压敏控制的自适应人机界面及使用同类产品的方法
US9355472B2 (en) 2013-03-15 2016-05-31 Apple Inc. Device, method, and graphical user interface for adjusting the appearance of a control
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
CN104077014B (zh) 2013-03-28 2018-04-10 阿里巴巴集团控股有限公司 一种信息处理的方法和设备
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20140304646A1 (en) 2013-04-04 2014-10-09 Klip, Inc. Sliding side menu gui with menu items displaying indicia of updated content
US9389718B1 (en) 2013-04-04 2016-07-12 Amazon Technologies, Inc. Thumb touch interface
KR20140122000A (ko) * 2013-04-09 2014-10-17 옥윤선 모바일 메신저 기반의 드래그를 이용한 정보전달 방법, 그리고 모바일 메신저 기반의 드래그를 이용한 정보전달을 위한 모바일단말
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
KR102091235B1 (ko) 2013-04-10 2020-03-18 삼성전자주식회사 휴대 단말기에서 메시지를 편집하는 장치 및 방법
US20140306897A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
EP2992409A4 (de) 2013-04-30 2016-11-30 Hewlett Packard Development Co Inhaltsvorschauerzeugung
CN103279295A (zh) 2013-05-03 2013-09-04 广东欧珀移动通信有限公司 一种终端桌面图标切换方法及装置
KR20140132632A (ko) 2013-05-08 2014-11-18 삼성전자주식회사 휴대 장치 및 휴대 장치의 오브젝트 표시 방법
CN105324979A (zh) 2013-05-08 2016-02-10 诺基亚技术有限公司 一种装置和相关联的方法
CN104142798A (zh) 2013-05-10 2014-11-12 北京三星通信技术研究有限公司 启动应用程序的方法及触摸屏智能终端设备
CN103268184A (zh) 2013-05-17 2013-08-28 广东欧珀移动通信有限公司 一种移动文本光标的方法及装置
US20140344765A1 (en) 2013-05-17 2014-11-20 Barnesandnoble.Com Llc Touch Sensitive UI Pinch and Flick Techniques for Managing Active Applications
KR20140137509A (ko) 2013-05-22 2014-12-03 삼성전자주식회사 알림 기능 운용 방법 및 이를 지원하는 전자 장치
JP2014232347A (ja) 2013-05-28 2014-12-11 シャープ株式会社 文字入力装置および携帯端末装置
US9319589B2 (en) 2013-05-31 2016-04-19 Sony Corporation Device and method for capturing images and selecting a desired image by tilting the device
US9307112B2 (en) 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US10282067B2 (en) 2013-06-04 2019-05-07 Sony Corporation Method and apparatus of controlling an interface based on touch operations
US9626087B2 (en) 2013-06-09 2017-04-18 Apple Inc. Device, method, and graphical user interface for navigating between user interfaces
US9477393B2 (en) 2013-06-09 2016-10-25 Apple Inc. Device, method, and graphical user interface for displaying application status information
US10282083B2 (en) 2013-06-09 2019-05-07 Apple Inc. Device, method, and graphical user interface for transitioning between user interfaces
US10481769B2 (en) 2013-06-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing navigation and search functionalities
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
KR102113674B1 (ko) 2013-06-10 2020-05-21 삼성전자주식회사 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9405379B2 (en) 2013-06-13 2016-08-02 Microsoft Technology Licensing, Llc Classification of user input
CN104238904B (zh) 2013-06-17 2019-08-06 中兴通讯股份有限公司 一种显示界面滑动的方法及移动终端
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
US20150012861A1 (en) 2013-07-02 2015-01-08 Dropbox, Inc. Syncing content clipboard
CN103309618A (zh) 2013-07-02 2013-09-18 姜洪明 移动操作系统
US20150020033A1 (en) 2013-07-09 2015-01-15 Qualcomm Incorporated Method and apparatus for activating a user interface from a low power state
KR102136602B1 (ko) 2013-07-10 2020-07-22 삼성전자 주식회사 휴대단말기의 컨텐츠 처리 장치 및 방법
KR102080746B1 (ko) 2013-07-12 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CA2918459C (en) 2013-07-16 2019-06-04 Pinterest, Inc. Object based contextual menu controls
US9342228B2 (en) 2013-07-17 2016-05-17 Blackberry Limited Device and method for filtering messages using sliding touch input
US20150022482A1 (en) 2013-07-19 2015-01-22 International Business Machines Corporation Multi-touch management for touch screen displays
KR102187505B1 (ko) 2013-07-22 2020-12-08 삼성전자 주식회사 전자 디바이스의 표시 제어 방법 및 장치
KR20150013991A (ko) 2013-07-25 2015-02-06 삼성전자주식회사 휴대단말기의 어플리케이션 실행 방법 및 장치
US20150040065A1 (en) 2013-07-31 2015-02-05 Vonage Network Llc Method and apparatus for generating customized menus for accessing application functionality
CN104349124A (zh) 2013-08-01 2015-02-11 天津天地伟业数码科技有限公司 录像机上扩展多屏显示的结构及方法
US9335897B2 (en) 2013-08-08 2016-05-10 Palantir Technologies Inc. Long click display of a context menu
KR20150019165A (ko) 2013-08-12 2015-02-25 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10108310B2 (en) 2013-08-16 2018-10-23 Marvell World Trade Ltd Method and apparatus for icon based application control
KR102101741B1 (ko) 2013-08-16 2020-05-29 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20150023148A (ko) * 2013-08-23 2015-03-05 삼성전자주식회사 전자기기에서 이미지를 관리하는 방법 및 장치
US9740712B2 (en) 2013-08-26 2017-08-22 Ab Minenda Oy System for processing image data, storing image data and accessing image data
CN104423740B (zh) 2013-08-30 2018-07-13 唐山东唐电气股份有限公司 基于电容式触控装置的感测方法
KR102332675B1 (ko) 2013-09-02 2021-11-30 삼성전자 주식회사 전자 장치의 컨텐츠 공유 방법 및 장치
KR20150026649A (ko) 2013-09-03 2015-03-11 삼성전자주식회사 전자 장치에서 제스처를 설정하는 장치 및 방법
US20150066950A1 (en) 2013-09-05 2015-03-05 Sporting Vote, Inc. Sentiment scoring for sports entities and filtering techniques
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
US9798443B1 (en) 2013-09-10 2017-10-24 Amazon Technologies, Inc. Approaches for seamlessly launching applications
JP6138641B2 (ja) 2013-09-13 2017-05-31 株式会社Nttドコモ 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム
US10037130B2 (en) 2013-09-13 2018-07-31 Samsung Electronics Co., Ltd. Display apparatus and method for improving visibility of the same
US20150082238A1 (en) 2013-09-18 2015-03-19 Jianzhong Meng System and method to display and interact with a curve items list
DE112014004632T5 (de) 2013-10-08 2016-07-28 Tk Holdings Inc. Systeme und Verfahren zum Verriegeln eines mit der erkannten Berührungsposition in einem kraftbasierten Touchscreen verknüpften Eingabebereichs
US9407964B2 (en) 2013-10-25 2016-08-02 Verizon Patent And Licensing Inc. Method and system for navigating video to an instant time
KR20150049700A (ko) 2013-10-30 2015-05-08 삼성전자주식회사 전자 장치에서 입력을 제어하는 방법 및 장치
US10067651B2 (en) 2013-11-15 2018-09-04 Thomson Reuters Global Resources Unlimited Company Navigable layering of viewable areas for hierarchical content
CN103677632A (zh) 2013-11-19 2014-03-26 三星电子(中国)研发中心 一种虚拟键盘调整方法和移动终端
US9111076B2 (en) 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
JP6177669B2 (ja) 2013-11-20 2017-08-09 株式会社Nttドコモ 画像表示装置およびプログラム
US20150143294A1 (en) 2013-11-21 2015-05-21 UpTo, Inc. System and method for presenting a responsive multi-layered ordered set of elements
CN103699292B (zh) 2013-11-29 2017-02-15 小米科技有限责任公司 一种进入文本选择模式的方法和装置
US20150153897A1 (en) 2013-12-03 2015-06-04 Microsoft Corporation User interface adaptation from an input source identifier change
CN104714741A (zh) 2013-12-11 2015-06-17 北京三星通信技术研究有限公司 触控操作的方法及装置
JP2015114836A (ja) 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
CN103699295A (zh) 2013-12-12 2014-04-02 宇龙计算机通信科技(深圳)有限公司 终端和图标显示方法
US9483118B2 (en) 2013-12-27 2016-11-01 Rovi Guides, Inc. Methods and systems for selecting media guidance functions based on tactile attributes of a user input
US9753527B2 (en) 2013-12-29 2017-09-05 Google Technology Holdings LLC Apparatus and method for managing graphics buffers for a processor in sleep mode
US9804665B2 (en) 2013-12-29 2017-10-31 Google Inc. Apparatus and method for passing event handling control from a primary processor to a secondary processor during sleep mode
CN103793134A (zh) 2013-12-30 2014-05-14 深圳天珑无线科技有限公司 一种触摸屏终端多界面切换的方法及触摸屏终端
KR20150081125A (ko) 2014-01-03 2015-07-13 삼성전자주식회사 전자 장치 스크린에서의 입자 효과 디스플레이
CN103777850A (zh) 2014-01-17 2014-05-07 广州华多网络科技有限公司 菜单显示方法、装置和终端
CN104834456A (zh) 2014-02-12 2015-08-12 深圳富泰宏精密工业有限公司 触控界面多任务切换方法、系统及电子装置
US10126807B2 (en) 2014-02-18 2018-11-13 Cambridge Touch Technologies Ltd. Dynamic switching of power modes for touch screens using force touch
CN103838465B (zh) 2014-03-08 2018-03-02 广东欧珀移动通信有限公司 一种生动有趣的桌面图标显示方法及装置
US9436348B2 (en) 2014-03-18 2016-09-06 Blackberry Limited Method and system for controlling movement of cursor in an electronic device
US20150268802A1 (en) 2014-03-24 2015-09-24 Hideep Inc. Menu control method and menu control device including touch input device performing the same
US9829979B2 (en) 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
KR102129798B1 (ko) 2014-05-08 2020-07-03 엘지전자 주식회사 비히클 및 그 제어 방법
US20150332607A1 (en) 2014-05-13 2015-11-19 Viewplus Technologies, Inc. System for Producing Tactile Images
CN104020955B (zh) 2014-05-30 2016-05-11 深圳市爱培科技术股份有限公司 基于WinCE系统的触摸式设备桌面自定义方法及系统
CN103984501B (zh) 2014-05-30 2017-02-08 东莞市沃视界电子科技有限公司 一种基于触摸屏的文段复制粘贴方法、装置及其移动终端
US9032321B1 (en) 2014-06-16 2015-05-12 Google Inc. Context-based presentation of a user interface
CN104021021A (zh) 2014-06-19 2014-09-03 深圳市中兴移动通信有限公司 移动终端及其通过压力检测实现快捷启动的方法和装置
CN104038838A (zh) * 2014-06-24 2014-09-10 北京奇艺世纪科技有限公司 一种数据播放方法及装置
US9477653B2 (en) 2014-06-26 2016-10-25 Blackberry Limited Character entry for an electronic device using a position sensing keyboard
US9294719B2 (en) 2014-06-30 2016-03-22 Salesforce.Com, Inc. Systems, methods, and apparatuses for implementing in-app live support functionality
US20160004393A1 (en) 2014-07-01 2016-01-07 Google Inc. Wearable device user interface control
TW201602893A (zh) 2014-07-07 2016-01-16 欣興電子股份有限公司 附加資訊提供方法及使用其的觸控顯示裝置
US9990105B2 (en) 2014-07-08 2018-06-05 Verizon Patent And Licensing Inc. Accessible contextual controls within a graphical user interface
US20160019718A1 (en) 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment
US9363644B2 (en) 2014-07-16 2016-06-07 Yahoo! Inc. System and method for detection of indoor tracking units
CN104090979B (zh) 2014-07-23 2017-10-24 上海天脉聚源文化传媒有限公司 一种网页编辑方法及装置
US9600114B2 (en) 2014-07-31 2017-03-21 International Business Machines Corporation Variable pressure touch system
KR20160021524A (ko) 2014-08-18 2016-02-26 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10203858B2 (en) 2014-08-28 2019-02-12 Blackberry Limited Portable electronic device and method of controlling the display of information
CN104270565B (zh) * 2014-08-29 2018-02-02 小米科技有限责任公司 图像拍摄方法、装置及设备
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
CN104267902B (zh) 2014-09-22 2017-03-08 努比亚技术有限公司 一种应用程序交互控制方法、装置及终端
US20160124924A1 (en) 2014-10-09 2016-05-05 Wrap Media, LLC Displaying a wrap package of cards within an overlay window embedded in an application or web page
US20160132139A1 (en) 2014-11-11 2016-05-12 Qualcomm Incorporated System and Methods for Controlling a Cursor Based on Finger Pressure and Direction
CN104331239A (zh) 2014-11-26 2015-02-04 上海斐讯数据通信技术有限公司 单手操作手持设备的方法及系统
TW201624260A (zh) 2014-12-30 2016-07-01 富智康(香港)有限公司 資訊查看系統及方法
KR20150021977A (ko) 2015-01-19 2015-03-03 인포뱅크 주식회사 휴대용 단말기에서의 ui 구성 방법
US20160224220A1 (en) 2015-02-04 2016-08-04 Wipro Limited System and method for navigating between user interface screens
US10191614B2 (en) 2015-02-25 2019-01-29 Htc Corporation Panel displaying method, portable electronic device and recording medium using the method
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10101877B2 (en) 2015-04-16 2018-10-16 Blackberry Limited Portable electronic device including touch-sensitive display and method of providing access to an application
US9625987B1 (en) 2015-04-17 2017-04-18 Google Inc. Updating and displaying information in different power modes
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
DK179328B1 (en) 2015-06-07 2018-05-07 Apple Inc DEVICES, METHODS AND GRAPHICAL USER INTERFACES FOR PROVIDING AND INTERACTING WITH NOTIFICATIONS
US10319177B2 (en) 2015-07-31 2019-06-11 Novomatic Ag User interface with slider and popup window feature
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US20170046058A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Adjusting User Interface Objects
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9619113B2 (en) 2015-09-09 2017-04-11 Quixey, Inc. Overloading app icon touchscreen interaction to provide action accessibility
US10346510B2 (en) 2015-09-29 2019-07-09 Apple Inc. Device, method, and graphical user interface for providing handwriting support in document editing
KR102348670B1 (ko) 2015-09-30 2022-01-06 엘지디스플레이 주식회사 멀티 터치 감지형 표시장치와 그의 터치 식별코드 할당방법
US11182068B2 (en) 2015-10-27 2021-11-23 Verizon Patent And Licensing Inc. Method and system for interacting with a touch screen
US10506165B2 (en) 2015-10-29 2019-12-10 Welch Allyn, Inc. Concussion screening system
JP6685695B2 (ja) 2015-10-30 2020-04-22 キヤノン株式会社 端末及び撮像装置
KR101749933B1 (ko) 2015-11-12 2017-06-22 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20170085419A (ko) 2016-01-14 2017-07-24 삼성전자주식회사 터치 입력에 기반한 동작 방법 및 그 전자 장치
CN107329602A (zh) 2016-04-28 2017-11-07 珠海金山办公软件有限公司 一种触摸屏轨迹识别方法及装置
US10402042B2 (en) 2016-06-13 2019-09-03 Lenovo (Singapore) Pte. Ltd. Force vector cursor control
US10613673B2 (en) 2016-08-25 2020-04-07 Parade Technologies, Ltd. Signal conditioning on touch-enabled devices using 3D touch
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US10445935B2 (en) 2017-05-26 2019-10-15 Microsoft Technology Licensing, Llc Using tracking to simulate direct tablet interaction in mixed reality
US20180364898A1 (en) 2017-06-14 2018-12-20 Zihan Chen Systems, Devices, and/or Methods for Managing Text Rendering
US10908783B2 (en) 2018-11-06 2021-02-02 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects and providing feedback
US10785591B2 (en) 2018-12-04 2020-09-22 Spotify Ab Media content playback based on an identified geolocation of a target venue
US11544928B2 (en) * 2019-06-17 2023-01-03 The Regents Of The University Of California Athlete style recognition system and method
US20210191975A1 (en) * 2019-12-20 2021-06-24 Juwei Lu Methods and systems for managing image collection

Also Published As

Publication number Publication date
AU2022202892A1 (en) 2022-05-26
JP2019126026A (ja) 2019-07-25
AU2023226703A1 (en) 2023-09-21
NL2016801A (en) 2016-12-12
NL2019215B1 (en) 2018-04-16
NL2016801B1 (en) 2017-07-21
CN111475086B (zh) 2023-09-12
AU2016100647B4 (en) 2017-02-23
JP6462160B2 (ja) 2019-01-30
US20220070359A1 (en) 2022-03-03
DK201500585A1 (en) 2017-01-02
CN111475086A (zh) 2020-07-31
JP2021048592A (ja) 2021-03-25
WO2016200587A1 (en) 2016-12-15
NL2019215A (en) 2017-09-20
US20160360098A1 (en) 2016-12-08
CN111475084A (zh) 2020-07-31
US11240424B2 (en) 2022-02-01
AU2019200872A1 (en) 2019-02-28
DK201500582A1 (en) 2017-01-02
JP7034233B2 (ja) 2022-03-11
CN111475084B (zh) 2023-09-12
KR20190130059A (ko) 2019-11-20
KR20220066198A (ko) 2022-05-23
US20160357387A1 (en) 2016-12-08
KR20170139621A (ko) 2017-12-19
AU2020244406A1 (en) 2020-10-29
US9860451B2 (en) 2018-01-02
US20160360116A1 (en) 2016-12-08
AU2020244406B2 (en) 2022-02-03
US11681429B2 (en) 2023-06-20
KR20210124503A (ko) 2021-10-14
KR102045991B1 (ko) 2019-11-18
KR102358650B1 (ko) 2022-02-08
US20230133870A1 (en) 2023-05-04
US20200396375A1 (en) 2020-12-17
CN111475085A (zh) 2020-07-31
KR102120906B1 (ko) 2020-06-09
NL2019214B1 (en) 2018-04-10
KR20190077128A (ko) 2019-07-02
JP7427040B2 (ja) 2024-02-02
US9706127B2 (en) 2017-07-11
AU2019257437B2 (en) 2020-10-08
AU2019257437A1 (en) 2019-11-21
AU2016100647A4 (en) 2016-06-23
KR102432729B1 (ko) 2022-08-16
US11835985B2 (en) 2023-12-05
JP2024054150A (ja) 2024-04-16
JP6818735B2 (ja) 2021-01-20
JP2018515860A (ja) 2018-06-14
KR102166944B1 (ko) 2020-10-16
NL2019214A (en) 2017-08-24
AU2016276030A1 (en) 2017-11-30
EP3591953A1 (de) 2020-01-08
CN111475085B (zh) 2023-09-15
CN106227441B (zh) 2020-05-12
US20240126425A1 (en) 2024-04-18
JP2022088383A (ja) 2022-06-14
AU2022202892B2 (en) 2023-06-29
EP3304270A1 (de) 2018-04-11
KR102090768B1 (ko) 2020-03-18
CN106227441A (zh) 2016-12-14
AU2019200872B2 (en) 2019-10-10
KR20200119909A (ko) 2020-10-20
KR20220021004A (ko) 2022-02-21
EP3304270B1 (de) 2019-10-09
KR102308933B1 (ko) 2021-10-05
KR101994825B1 (ko) 2019-07-01
KR102397968B1 (ko) 2022-05-16
AU2016276030B2 (en) 2018-11-08
KR20200031701A (ko) 2020-03-24
US9602729B2 (en) 2017-03-21
KR20200067931A (ko) 2020-06-12

Similar Documents

Publication Publication Date Title
DE202016002529U1 (de) Vorrichtungen zum Einfangen von und Interagieren mit erweiterten digitalen Bildern
DE202016003234U1 (de) Vorrichtung zum Einfangen von und Interagieren mit erweiterten digitalen Bildern
DE112016000085B4 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
US10455146B2 (en) Devices and methods for capturing and interacting with enhanced digital images
DE202016006323U1 (de) Vorrichtung zum Navigieren zwischen Benutzerschnittstellen
DE202016002907U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202016003250U1 (de) Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years