DE202016003233U1 - Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt - Google Patents

Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt Download PDF

Info

Publication number
DE202016003233U1
DE202016003233U1 DE202016003233.0U DE202016003233U DE202016003233U1 DE 202016003233 U1 DE202016003233 U1 DE 202016003233U1 DE 202016003233 U DE202016003233 U DE 202016003233U DE 202016003233 U1 DE202016003233 U1 DE 202016003233U1
Authority
DE
Germany
Prior art keywords
user interface
interface object
display
current focus
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202016003233.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202016003233U1 publication Critical patent/DE202016003233U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/36Monitoring, i.e. supervising the progress of recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47211End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting pay-per-view content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Information Transfer Between Computers (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

Elektronisches Gerät, das aufweist: einen oder mehrere Prozessoren; Speicher (Memory); und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und dazu ausgestaltet sind, von dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Anweisungen aufweisen zum: Bereitstellen von Daten für eine Anzeige in Kommunikation mit dem elektronischen Gerät zur Darstellung einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten, wobei: die mehreren Benutzerschnittstellenobjekte beinhalten: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeige befindet; und ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeige die Benutzerschnittstelle darstellt Empfangen einer ersten Eingabe; und in Reaktion auf den Empfang der ersten Eingabe Bereitstellen von Daten für die Anzeige zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeige zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt, und Bewegen des ersten Benutzerschnittstellenobjekts zurück an die erste Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Anmeldung bezieht sich im Allgemeinen auf elektronische Geräte in Kommunikation mit Anzeigegeräten, einschließlich, ohne darauf beschränkt zu sein, auf elektronische Geräte in Kommunikation mit Anzeigegeräten, die Medieninhalt bereitstellen.
  • HINTERGRUND
  • Fernsehgeräte sind als Quellen der Information und Unterhaltung weitverbreitet. Zum Beispiel werden Fernsehgeräte in der Regel zum Ansehen von Filmen und Fernsehprogrammen verwendet. Fernbedienungen werden in der Regel zur Steuerung der Wiedergabe des Medieninhalts verwendet. Zum Beispiel enthält eine herkömmliche Fernbedienung eine Wiedergabetaste, eine Pausentaste, eine Stopptaste, eine Schnellvorlauftaste und eine Rücklauftaste, um dem Benutzer die Steuerung der Wiedergabe des Medieninhalts zu ermöglichen.
  • Die bestehenden Geräte und Verfahren zur Steuerung der Navigation durch die Inhalte und deren Wiedergabe sind jedoch umständlich und ineffizient.
  • ÜBERSICHT
  • Demgemäß werden im vorliegenden Dokument elektronische Geräte, eingerichtet mit schnelleren, effizienteren Verfahren, und Schnittstellen zur Steuerung der Navigation durch Medieninhalt und deren Wiedergabe offenbart. Solche Verfahren und Schnittstellen ergänzen oder ersetzen optional herkömmliche Verfahren zur Steuerung der Navigation durch Medieninhalt und der Wiedergabe davon. Solche Verfahren und Schnittstellen verringern Anzahl, Umfang und/oder Natur der Eingaben von Benutzern und bilden eine effizientere Mensch-Maschinen-Schnittstelle.
  • Die obigen Schwachpunkte und andere Probleme bei Benutzerschnittstellen für elektronische Geräte werden durch die offengelegten Geräte verringert oder beseitigt. In einigen Ausführungsformen ist das Gerät ein digitales Medienwiedergabegerät (bzw. digitaler Medienplayer). In einigen Ausführungsformen ist das Gerät ein Fernsehgerät oder eine Set-Top-Box. In einigen Ausführungsformen ist das Gerät ein Desktop-Computer. In einigen Ausführungsformen ist das Gerät tragbar (z. B. ein Notebook-Computer, ein Tablet-Computer oder ein in der Hand tragbares Gerät). In einigen Ausführungsformen ist das Gerät ein persönliches elektronisches Gerät (z. B. ein tragbares elektronisches Gerät, wie eine Uhr). In einigen Ausführungsformen verfügt das Gerät über ein Touchpad oder steht in Kommunikation mit einem Touchpad. In einigen Ausführungsformen verfügt das Gerät über eine berührungsempfindliche Oberfläche oder eine berührungsempfindliche Anzeige (auch als „Touchscreen” oder „Touchscreen-Anzeige” bezeichnet) oder steht in Kommunikation mit einer berührungsempfindlichen Oberfläche oder berührungsempfindlichen Anzeige. In einigen Ausführungsformen verfügt das Gerät über eine grafische Benutzerschnittstelle (GUI, Graphical User Interface), einen oder mehrere Prozessoren, Speicher (Memory) und ein oder mehrere Module, Programme oder Gruppen von Anweisungen, die im Speicher zur Durchführung von mehreren Funktionen gespeichert sind. In einigen Ausführungsformen interagiert der Benutzer mit der GUI vor allem über einen Stylus und/oder Fingerkontakte und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen umfassen die Funktionen optional das Bearbeiten von Bildern, das Zeichnen, die Präsentation, die Textverarbeitung, das Erstellen von Arbeitsblättern, das Spielen von Spielen, das Telefonieren, Videokonferenzen, E-Mails, Instant Messaging, Workout-Unterstützung, digitale Fotografie, digitale Videos, das Browsen im Web, die Wiedergabe digitaler Musik, das Erstellen von Notizen und/oder die Wiedergabe digitaler Videos. Ausführbare Anweisungen zur Durchführung dieser Funktionen sind optional in einem nicht-flüchtigen computerlesbaren Speichermedium oder anderem Computerprogrammprodukt enthalten, das zur Ausführung durch einen oder mehrere Prozessoren ausgestaltet ist. Ausführbare Anweisungen zur Durchführung dieser Funktionen sind optional in einem flüchtigen computerlesbaren Speichermedium oder anderem Computerprogrammprodukt enthalten, das zur Ausführung durch einen oder mehrere Prozessoren ausgestaltet ist.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige und einem entfernten Benutzereingabegerät. Das Verfahren beinhaltet, während das elektronische Gerät in einem Bildschirmschonermodus arbeitet, das Bereitstellen von Daten für die Anzeige zur Präsentation eines ersten Mediums, das einen ersten visuellen Bewegungseffekt aufweist; und während die Anzeige das erste Medium präsentiert, das den ersten visuellen Bewegungseffekt aufweist, das Empfangen einer Benutzereingabe auf dem entfernten Benutzereingabegerät. Das Verfahren beinhaltet auch in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät: Bestimmen eines Typs der Benutzereingabe auf dem entfernten Benutzereingabegerät; und gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines ersten Typs ist, Bereitstellen von Daten für die Anzeige zur Präsentation des ersten Mediums, das einen zweiten visuellen Bewegungseffekt aufweist, ohne den Bildschirmschonermodus zu verlassen. Der zweite visuelle Bewegungseffekt unterscheidet sich vom ersten visuellen Bewegungseffekt. Das Verfahren beinhaltet weiterhin gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines zweiten Typs ist, die sich vom ersten Typ unterscheidet, das Beenden des Bildschirmschonermodus.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige. Das Verfahren beinhaltet das Bereitstellen von Daten für die Anzeige zur Präsentation einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten. Die mehreren Benutzerschnittstellenobjekte beinhalten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich auf der Anzeige neben dem ersten Benutzerschnittstellenobjekt befindet. Ein aktueller Fokus liegt auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte. Das Verfahren beinhaltet auch, während die Anzeige die Benutzerschnittstelle darstellt, den Empfang einer ersten Eingabe, die einer Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht; und in Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, Bereitstellen von Daten für die Anzeige zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige. Das Verfahren beinhaltet das Bereitstellen von Daten für die Anzeige zur Darstellung einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten. Die mehreren Benutzerschnittstellenobjekte beinhalten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich auf der Anzeige neben dem ersten Benutzerschnittstellenobjekt befindet. Ein aktueller Fokus liegt auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte. Das Verfahren beinhaltet ebenso, während die Anzeige die Benutzerschnittstelle darstellt, das Empfangen einer ersten Eingabe; und in Reaktion auf den Empfang der ersten Eingabe Bereitstellen von Daten für die Anzeige zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts. Das Verfahren beinhaltet weiterhin nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium des ersten aktuellen Fokus erfüllt, das Bereitstellen von Daten für die Anzeige zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige. Das Verfahren beinhaltet das Bereitstellen von Daten für die Anzeige zur Darstellung einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten. Die mehreren Benutzerschnittstellenobjekte umfassen ein erstes Benutzerschnittstellenobjekt. Ein aktueller Fokus liegt auf dem ersten Benutzerschnittstellenobjekt. Das Verfahren beinhaltet auch, während die Anzeige die Benutzerschnittstelle darstellt, das Bestimmen, ob Inaktivitätskriterien erfüllt werden; und in Reaktion auf die Bestimmung, dass Inaktivitätskriterien erfüllt werden, Bereitstellen von Daten für die Anzeige zur visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in einer ersten Weise von den anderen Benutzerschnittstellenobjekten in den mehreren Benutzerschnittstellenobjekten. Das Verfahren beinhaltet weiterhin, nach dem Bereitstellen von Daten für die Anzeige zur visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise, das Erfassen einer Interaktion durch einen Benutzer mit dem elektronischen Gerät oder mit einem anderen Gerät, das in Kommunikation mit dem elektrischen Gerät steht; und in Reaktion auf das Erfassen der Interaktion vom Benutzer mit dem elektronischen Gerät oder einem anderen mit dem elektronischen Gerät in Kommunikation stehenden Gerät Bereitstellen von Daten für die Anzeige zum Beenden der visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise von den anderen Benutzerschnittstellenobjekten in den mehreren Benutzerschnittstellenobjekten.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige. Das Verfahren beinhaltet das Bereitstellen von Daten für die Anzeige zur Darstellung einer Medieninformations-Benutzerschnittstelle für ein erstes Medieninhaltselement. Die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst: mehrere Medienquellobjekte, die jeweiligen Medienquellen für das erste Medieninhaltselement entsprechen, wobei ein erstes Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des ersten Medienquellobjekts anzuzeigen, wobei das erste Medienquellobjekt einer ersten Medienquelle entspricht; und eine erste Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement. Die erste Gruppe von Medienverwaltungsobjekten umfasst ein oder mehrere Medienpräsentations-Optionsobjekte, die dem ersten Medieninhaltselement und der ersten Medienquelle entsprechen. Das Verfahren beinhaltet ebenso, während die Anzeige die Medieninformations-Benutzerschnittstelle darstellt, das Empfangen einer Benutzereingabe; und in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts in der ersten Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement entspricht, Initiieren der Bereitstellung von Daten für die Anzeige zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von Daten, die aus der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption, die dem ersten Medienpräsentations-Optionsobjekt entspricht.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige. Das Verfahren beinhaltet das Bereitstellen von Daten für die Anzeige zur Darstellung einer ersten Medieninformations-Benutzerschnittstelle für ein erstes Medienprogramm. Die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm enthält mehrere Medienquellobjekte. Ein entsprechendes Medienquellobjekt der mehreren Medienquellobjekte entspricht einer jeweiligen Medienquelle für das erste Medienprogramm. Ein erstes Medienquellobjekt der mehreren Medienquellobjekte wird visuell unterschieden, um die Auswahl des ersten Medienquellobjekts anzuzeigen. Das erste Medienquellobjekt entspricht einer ersten Medienquelle. Die erste Medieninformations-Benutzerschnittstelle für das erste Medienprogramm enthält auch ein oder mehrere Episodenobjekte, das/die einer oder mehreren Episoden für das aus der ersten Medienquelle verfügbare erste Medienprogramm entspricht/entsprechen. Ein erstes Episodenobjekt des einen oder der mehreren Episodenobjekte wird visuell unterschieden, um die Auswahl des ersten Episodenobjekts anzuzeigen. Das erste Episodenobjekt entspricht einer ersten Episode des ersten Medienprogramms. Die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm umfasst eine erste Gruppe von Medienverwaltungsobjekten für die erste Episode. Die erste Gruppe von Medienverwaltungsobjekten umfasst ein oder mehrere Medienpräsentations-Optionsobjekte, die der ersten Episode und der ersten Medienquelle entsprechen. Das Verfahren beinhaltet ebenso, während die Anzeige die Medieninformations-Benutzerschnittstelle darstellt, das Empfangen einer Benutzereingabe; und in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts in der ersten Gruppe von Medienverwaltungsobjekten entspricht, Initiieren der Bereitstellung von Daten für die Anzeige zur Wiedergabe der ersten Episode unter Verwendung von Daten, die aus der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption, die dem ersten Medienpräsentations-Optionsobjekt entspricht.
  • Gemäß einigen Ausführungsformen ist ein Gerät eingerichtet um ein Verfahren mit einem oder mehreren Prozessoren und Speicher durchzuführen. Das elektronische Gerät steht in Kommunikation mit einer Anzeige. Das Verfahren beinhaltet, während das elektronische Gerät in einem ersten Wiedergabe-Navigationsmodus arbeitet, das Bereitstellen von ersten Videoinformationen für die Anzeige zur Anzeige; und das Empfangen einer Eingabe, die einer Anforderung von einem Benutzer zum Wechseln in einen zweiten Wiedergabe-Navigationsmodus entspricht. Die ersten Videoinformationen umfassen Informationen, die einem oder mehreren Frames (Rahmen) eines Videos entsprechen, eine Scrubber-Leiste, die eine Zeitleiste des Videos darstellt, einen ersten Wiedergabekopf, der eine aktuelle Wiedergabeposition in der Scrubber-Leiste angibt, und mehrere vom ersten Wiedergabekopf unterschiedene Wiedergabe-Positionsmarkierungen, die bestimmte Wiedergabepositionen im Video angeben. Das Verfahren beinhaltet auch in Reaktion auf den Empfang der Eingabe, die der Anforderung des Benutzers zum Wechseln in den zweiten Wiedergabe-Navigationsmodus entspricht, den Übergang vom Betrieb im ersten Wiedergabe-Navigationsmodus auf den Betrieb im zweiten Wiedergabe-Navigationsmodus; und während das elektronische Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet: Bereitstellen für die Anzeige von zweiten Videoinformationen zur Anzeige; und Beenden des Bereitstellens von Informationen, die der Mehrzahl von Wiedergabe-Positionsmarkierungen entspricht, die die bestimmten Wiedergabepositionen im Video angeben. Die zweiten Videoinformationen umfassen Informationen, die einem oder mehreren Frames des Videos, der Scrubber-Bildleiste und dem ersten Wiedergabekopf entsprechen.
  • Gemäß einigen Ausführungen weist ein elektronisches Gerät eine Verarbeitungseinheit auf. Das elektronische Gerät steht in Kommunikation mit einer Anzeigeeinheit und einem entfernten Benutzereingabegerät. Die Verarbeitungseinheit ist dazu ausgestaltet: während das Gerät in einem Bildschirmschonermodus arbeitet, der Anzeigeeinheit Daten zur Präsentation eines ersten Mediums bereitzustellen, das einen ersten visuellen Bewegungseffekt aufweist; während die Anzeigeeinheit das erste Medium präsentiert, das den ersten visuellen Bewegungseffekt aufweist, eine Benutzereingabe auf dem entfernten Benutzereingabegerät zu empfangen; und in Reaktion auf das Empfangen der Benutzereingabe auf dem entfernten Benutzergerät: einen Typ der Benutzereingabe auf dem entfernten Benutzereingabegerät zu bestimmen; gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines ersten Typs ist, der Anzeigeeinheit Daten zur Präsentation des ersten Mediums bereitzustellen, das einen zweiten visuellen Bewegungseffekt aufweist, ohne den Bildschirmschonermodus zu verlassen, wobei der zweite visuelle Bewegungseffekt sich vom ersten visuellen Bewegungseffekt unterscheidet; und gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines zweiten Typs ist, der sich vom ersten Typ unterscheidet, den Bildschirmschonermodus zu beenden.
  • Gemäß einigen Ausführungen weist ein elektronisches Gerät eine Verarbeitungseinheit auf. Das elektronische Gerät steht in Kommunikation mit einer Anzeigeeinheit. Die Anzeigeeinheit ist dazu ausgestaltet, eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten anzuzeigen. Die Verarbeitungseinheit ist dazu ausgestaltet: der Anzeigeeinheit Daten zur Darstellung der Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereitzustellen, wobei: die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeigeeinheit befindet; ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeigeeinheit die Benutzerschnittstelle darstellt, Empfangen einer ersten Eingabe, die einer Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht; und in Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, Bereitstellen von Daten für die Anzeigeeinheit zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  • Gemäß einigen Ausführungen weist ein elektronisches Gerät eine Verarbeitungseinheit auf. Das elektronische Gerät steht in Kommunikation mit einer Anzeigeeinheit. Die Anzeigeeinheit ist dazu ausgestaltet, eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten anzuzeigen. Die Verarbeitungseinheit ist dazu ausgestaltet: der Anzeigeeinheit Daten zur Darstellung der Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereitzustellen, wobei: die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeigeeinheit befindet; ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeigeeinheit die Benutzerschnittstelle darstellt, Empfangen einer ersten Eingabe; und in Reaktion auf den Empfang der ersten Eingabe Bereitstellen von Daten für die Anzeigeeinheit zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Daten für die Anzeigeeinheit bereitzustellen zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  • Gemäß einigen Ausführungen weist ein elektronisches Gerät eine Verarbeitungseinheit auf. Das elektronische Gerät steht in Kommunikation mit einer Anzeigeeinheit. Die Anzeigeeinheit ist dazu ausgestaltet, eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten anzuzeigen. Die Verarbeitungseinheit ist dazu ausgestaltet: der Anzeigeeinheit Daten zur Darstellung der Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereitzustellen, wobei: die mehreren Benutzerschnittstellenobjekte ein erstes Benutzerschnittstellenobjekt umfassen und ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt liegt; während die Anzeigeeinheit die Benutzerschnittstelle darstellt, Inaktivitätskriterien erfüllt werden; in Reaktion auf die Bestimmung, dass die Inaktivitätskriterien erfüllt sind, Bereitstellen von Daten für die Anzeigeeinheit zur visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in einer ersten Weise von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte; und nach dem Bereitstellen von Daten für die Anzeigeeinheit zur visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise: eine Interaktion von einem Benutzer mit dem elektronischen Gerät oder einem anderen Gerät in Kommunikation mit dem elektronischen Geräts zu erfassen; und in Reaktion auf das Erfassen der Interaktion von dem Benutzer mit dem elektronischen Gerät oder mit einem anderen Gerät in Kommunikation mit dem elektronischen Gerät der Anzeigeeinheit Daten bereitzustellen, um die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte zu beenden.
  • Gemäß einigen Ausführungsformen umfasst ein elektronisches Gerät eine Verarbeitungseinheit in Kommunikation mit einer Anzeigeeinheit, die dazu ausgestaltet ist, Benutzerschnittstellen anzuzeigen. Das elektronische Gerät steht in Kommunikation mit einer Anzeigeeinheit. Die Verarbeitungseinheit ist dazu ausgestaltet, der Anzeigeeinheit Daten zur Darstellung einer Medieninformations-Benutzerschnittstelle für ein erstes Medieninhaltselement bereitzustellen, wobei die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst: mehrere Medienquellobjekte, die jeweiligen Medienquellen für das erste Medieninhaltselement entsprechen, wobei ein erstes Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des ersten Medienquellobjekts anzuzeigen, wobei das erste Medienquellobjekt einer ersten Medienquelle entspricht; und eine erste Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement, wobei die erste Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienpräsentations-Optionsobjekte beinhaltet, die dem ersten Medieninhaltselement und der ersten Medienquelle entsprechen. Die Verarbeitungseinheit ist ebenso dazu ausgestaltet, während die Anzeigeeinheit die Medieninformations-Benutzerschnittstelle darstellt, eine Benutzereingabe zu empfangen; und in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts in der ersten Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement entspricht, die Bereitstellung von Daten für die Anzeigeeinheit zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von Daten, die aus der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption zu initiieren, die dem ersten Medienpräsentations-Optionsobjekt entspricht.
  • Gemäß einigen Ausführungsformen umfasst ein elektronisches Gerät eine Verarbeitungseinheit in Kommunikation mit einer Anzeigeeinheit. Das elektronische Gerät steht in Kommunikation mit der Anzeigeeinheit. Die Verarbeitungseinheit ist dazu ausgestaltet, der Anzeigeeinheit Daten zur Präsentation einer Medieninformations-Benutzerschnittstelle für ein erstes Medienprogramm bereitzustellen, wobei die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst: mehrere Medienquellobjekte, wobei ein entsprechendes Medienquellobjekt der mehreren Medienquellobjekte jeweils einer jeweiligen Medienquelle für das erste Medienprogramm entspricht, ein erstes Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des ersten Medienquellobjekts anzugeben, wobei das erste Medienquellobjekt einer ersten Medienquelle entspricht; ein oder mehrere Episodenobjekte, das/die einer oder mehreren Episoden für das erste Medienprogramm entspricht/entsprechen, das aus der ersten Medienquelle verfügbar ist, wobei ein erstes Episodenobjekt von dem einen oder den mehreren Episodenobjekten visuell unterschieden wird, um die Auswahl des ersten Episodenobjekts anzugeben, wobei das erste Episodenobjekt einer ersten Episode des ersten Medienprogramms entspricht; und eine erste Gruppe von Medienverwaltungsobjekten für die erste Episode, wobei die erste Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienpräsentations-Optionsobjekte enthält, das/die der ersten Episode und der ersten Medienquelle entspricht/entsprechen. Die Verarbeitungseinheit ist ebenso dazu ausgestaltet, während die Anzeigeeinheit die Medieninformations-Benutzerschnittstelle darstellt, eine Benutzereingabe zu empfangen; und in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts in der ersten Gruppe von Medienverwaltungsobjekten entspricht, die Bereitstellung von Daten für die Anzeigeeinheit zur Wiedergabe der ersten Episode unter Verwendung von Daten, die von der ersten Medienquelle empfangen wurden, gemäß einer dem ersten Medienpräsentations-Optionsobjekt entsprechenden Medienpräsentationsoption zu initiieren.
  • Gemäß einigen Ausführungsformen steht ein elektronisches Gerät in Kommunikation mit einer Anzeigeeinheit, die dazu ausgestaltet ist, Medieninhalt anzuzeigen. Das elektronische Gerät enthält eine Verarbeitungseinheit. Die Verarbeitungseinheit ist dazu ausgestaltet, während das Gerät in einem ersten Wiedergabe-Navigationsmodus arbeitet: der Anzeigeeinheit erste Videoinformationen zur Anzeige bereitzustellen, wobei die ersten Videoinformationen Informationen umfassen, die einem oder mehreren Frames eines Videos entsprechen, eine Scrubber-Leiste, die eine Zeitleiste des Videos darstellt, einen ersten Wiedergabekopf, der eine aktuelle Wiedergabeposition in der Scrubber-Leiste angibt, und mehrere vom ersten Wiedergabekopf unterschiedene Wiedergabe-Positionsmarkierungen, die bestimmte Wiedergabepositionen im Video angeben; und eine Eingabe zu empfangen, die einer Anforderung des Benutzers zum Wechsel in einen zweiten Wiedergabe-Navigationsmodus entspricht; in Reaktion auf den Empfang der Eingabe, die der Anforderung des Benutzers zum Wechsel in den zweiten Wiedergabe-Navigationsmodus entspricht, vom Betrieb im ersten Wiedergabe-Navigationsmodus zum Betrieb im zweiten Wiedergabe-Navigationsmodus überzugehen; und während das Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet: der Anzeigeeinheit zweite Videoinformationen zur Anzeige bereitzustellen, wobei die zweiten Videoinformationen Informationen umfassen, die einem oder mehreren Frames des Videos, der Scrubber-Zeitleiste und dem ersten Wiedergabekopf entsprechen; und die Bereitstellung von Informationen, die den mehreren Wiedergabe-Positionsmarkierungen entsprechen, die die bestimmten Wiedergabepositionen im Video angeben, zu beenden.
  • Gemäß einigen Ausführungsformen umfasst ein elektronisches Gerät eine Anzeige, eine berührungsempfindliche Oberfläche, optional einen oder mehrere Sensoren zum Erfassen der Intensität der Kontakte auf der berührungsempfindlichen Oberfläche, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme; wobei das eine oder die mehreren Programme im Speicher gespeichert sind und dazu ausgestaltet sind, von dem einen oder den mehreren Prozessoren ausgeführt zu werden, und wobei das eine oder die mehreren Programme Anweisungen zur Durchführung oder zur Veranlassung der Durchführung der Operationen von beliebigen der hier beschriebenen Verfahren umfassen. Gemäß einigen Ausführungsformen weist ein computerlesbares Speichermedium (z. B. ein nicht-flüchtiges computerlesbares Speichermedium oder alternativ ein flüchtiges computerlesbares Speichermedium) darauf gespeicherte Anweisungen auf, die bei Ausführung durch ein elektronisches Gerät mit einer Anzeige, einer berührungsempfindlichen Oberfläche und optional einem oder mehrere Sensoren zum Erfassen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche das Gerät zur Durchführung der Operationen bzw. die Durchführung von beliebigen der hier beschriebenen Verfahren veranlassen. Gemäß einigen Ausführungsformen weist eine grafische Benutzerschnittstelle auf einem elektronischen Gerät mit einer Anzeige, einer berührungsempfindlichen Oberfläche, optional einem oder mehrere Sensoren zum Erfassen der Intensität der Kontakte auf der berührungsempfindlichen Oberfläche, einen Speicher und einen oder mehrere Prozessoren zur Ausführung des einen oder der mehreren im Speicher gespeicherten Programme, ein oder mehrere der Elemente auf, die in einem beliebigen der oben beschriebenen Verfahren angezeigt werden, die in Reaktion auf Eingaben aktualisiert werden, wie in beliebigen der hier beschriebenen Verfahren beschrieben wird. Gemäß einigen Ausführungsformen weist ein elektronisches Gerät auf: eine Anzeige, eine berührungsempfindliche Oberfläche und optional einen oder mehrere Sensoren zum Erfassen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche; und Mittel zum Durchführen oder zum Veranlassen der Durchführung von Operationen von beliebigen der hier beschriebenen Verfahren. Gemäß einigen Ausführungsformen weist eine Informationsverarbeitungsvorrichtung zur Verwendung in einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche und optional einem oder mehreren Sensoren zum Erfassen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche Mittel zum Durchführen oder zum Veranlassen des Durchführens der Operationen von beliebigen der hier beschriebenen Verfahren auf.
  • Somit werden elektronische Geräte in Kommunikation mit Anzeigen mit schnelleren, effizienteren Verfahren und Schnittstellen zur Navigation und Wiedergabe von Medieninhalt bereitgestellt, wodurch sich die Effektivität, Effizienz und Benutzerzufriedenheit bei solchen Geräten erhöhen. Solche Verfahren und Schnittstellen können herkömmliche Verfahren zur Navigation und Wiedergabe von Medieninhalt ergänzen oder ersetzen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der verschiedenen beschriebenen Ausführungsformen ist auf die Beschreibung der Ausführungsformen im Folgenden in Verbindung mit den folgenden Zeichnungen Bezug zu nehmen, bei denen sich in den Figuren ähnliche Referenzbezugsziffern auf übereinstimmende Komponenten beziehen.
  • 1A ist ein Blockdiagramm, das ein tragbares Multifunktionsgerät mit einer berührungsempfindlichen Anzeige gemäß einigen Ausführungsformen darstellt.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung gemäß einigen Ausführungsformen darstellt.
  • 2 veranschaulicht ein tragbares Multifunktionsgerät mit einem Touchscreen gemäß einigen Ausführungsformen.
  • 3 ist ein Blockdiagramm eines beispielhaften Multifunktionsgeräts mit einer Anzeige und einer berührungsempfindlichen Oberfläche gemäß einigen Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Anwendungsmenü auf einem tragbaren Multifunktionsgerät gemäß einigen Ausführungsformen.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Multifunktionsgerät mit einer berührungsempfindlichen Oberfläche, die von der Anzeige getrennt ist, gemäß einigen Ausführungsformen.
  • 4C veranschaulicht gemäß einigen Ausführungsformen beispielhafte elektronische Geräte, die in Kommunikation mit einer Anzeige und einer berührungsempfindlichen Oberfläche stehen, wobei für wenigstens eine Teilmenge der elektronischen Geräte die Anzeige und/oder die berührungsempfindlichen Oberfläche in das elektronische Gerät integriert sind/ist.
  • 5A5ZZZZ veranschaulichen beispielhafte Benutzerschnittstellen zur Navigation durch Medieninhalt gemäß einigen Ausführungsformen.
  • 6A6C sind Ablaufdiagramme, die ein Verfahren zum Bereitstellen eines interaktiven Bildschirmschoners gemäß einigen Ausführungsformen veranschaulichen.
  • 7A7C sind Ablaufdiagramme, die ein Verfahren zum Versetzen eines aktuellen Fokus gemäß einigen Ausführungsformen veranschaulichen.
  • 8A8C sind Ablaufdiagramme, die ein Verfahren zum Versetzen eines aktuellen Fokus gemäß einigen Ausführungsformen veranschaulichen.
  • 9A9B sind Ablaufdiagramme, die ein Verfahren zum Aktualisieren einer Benutzerschnittstelle basierend auf Inaktivitätskriterien gemäß einigen Ausführungsformen veranschaulichen.
  • 10A10C sind Ablaufdiagramme, die ein Verfahren zur Auswahl einer Medienpräsentationsoption gemäß einigen Ausführungsformen veranschaulichen.
  • 11A11D sind Ablaufdiagramme, die ein Verfahren zur Auswahl einer Medienpräsentationsoption gemäß einigen Ausführungsformen veranschaulichen.
  • 12A12E sind Ablaufdiagramme, die ein Verfahren zum Navigieren durch Medieninhalt gemäß einigen Ausführungsformen veranschaulichen
  • 1319 sind Funktionsblockdiagramme von elektronischen Geräten gemäß einigen Ausführungsformen.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Viele Fernsehgeräte werden über Fernbedienungen gesteuert. Wenn ein Benutzer zum Beispiel von einem ersten Bereich (z. B. ein bestimmter Frame oder Zeitstempel) des Medieninhalts (z. B. ein Video- oder Fernsehprogramm) zu einem anderen Bereich des Medieninhalts gehen möchte, muss der Benutzer eine Schnellvorlauftaste drücken und halten, um durch den Medieninhalt zu navigieren, bis der Benutzer einen für ihn interessanten Bereich findet. Wenn der Benutzer den für den Benutzer interessanten Bereich übersieht, muss der Benutzer eine Rücklauftaste drücken und halten, um zurückzugehen, bis der Benutzer den für den Benutzer interessanten Bereich findet. Aufgrund der Geschwindigkeit der Schnellvorlauf- und Rücklaufoperationen kann der Benutzer wiederholte Benutzereingaben bereitstellen müssen, bis der gewünschte Bereich gefunden wird. Darüber hinaus, wenn sich der Benutzer entscheidet, zum ersten Bereich zurückzugehen, muss der Benutzer die Rücklauftaste drücken, um durch den Medieninhalt zurückzugehen, bis der Benutzer den ersten Bereich findet. Auch hier, wenn der Benutzer den ersten Bereich übersieht, muss der Benutzer die Schnellvorlauftaste drücken, um durch den Medieninhalt einen Schnellvorlauf durchzuführen, bis der Benutzer den ersten Bereich findet. In manchen Fällen ist es für den Benutzer frustrierend, durch den Medieninhalt vor und zurück navigieren zu müssen. In den im Folgenden beschriebenen Ausführungsformen wird ein verbessertes Verfahren zur Navigation durch Medieninhalt durch Bereitstellen mehrerer Wiedergabe-Navigationsmodi erzielt. Während das Gerät in einem Navigationsmodus bei laufender Wiedergabe arbeitet, kann der Benutzer durch den Medieninhalt mit einer hohen Auflösung navigieren, wodurch die Navigation exakt gesteuert wird. Während das Gerät im Kapitel-Wiedergabe-Navigationsmodus arbeitet, kann der Benutzer durch den Medieninhalt von Kapitel zu Kapitel navigieren, wodurch eine schnelle Navigation durch den Medieninhalt erzielt wird. Indem der Benutzer einfach zwischen verschiedenen Wiedergabe-Navigationsmodi wechseln kann, kann der Benutzer schnell den für den Benutzer interessanten Bereich finden, wodurch die Erfordernis zusätzlicher, eigener Eingaben für die Navigation durch den Medieninhalt entfällt.
  • Im Folgenden bieten die 1A1B, 2 und 3 eine Beschreibung von beispielhaften Geräten. 4A4C und 5A5ZZZZ veranschaulichen beispielhafte Benutzerschnittstellen zur Auswahl und Wiedergabe von Medieninhalt. 6A6C veranschaulichen Ablaufdiagramme für die Bereitstellung eines interaktiven Bildschirmschoners. 7A7C veranschaulichen Ablaufdiagramme für das Versetzen eines aktuellen Fokus. 8A8C veranschaulichen ein Ablaufdiagramm für das Versetzen eines aktuellen Fokus. 9A9B veranschaulichen ein Ablaufdiagramm der Aktualisierung einer Benutzerschnittstelle basierend auf Inaktivitätskriterien. 10A10C veranschaulichen ein Ablaufdiagramm zur Bereitstellung einer Medieninformations-Benutzerschnittstelle mit Medienpräsentations-Optionsobjekten. 11A11D veranschaulichen ein Ablaufdiagramm für die Bereitstellung einer Medieninformations-Benutzerschnittstelle mit Medienpräsentationsoptionen. 12A12E veranschaulichen ein Ablaufdiagramm eines Navigationsverfahrens durch Medieninhalt. Die Benutzerschnittstellen in 5A5ZZZZ dienen zur Veranschaulichung der Prozesse in 6A6C, 7A7C, 8A8C, 9A9B, 10A10C, 11A11D und 12A12E.
  • BEISPIELGERÄTE
  • Im Folgenden wird nun detailliert auf Ausführungsformen eingegangen, wobei Beispiele davon in den Zeichnungen im Anhang veranschaulicht sind. In der folgenden detaillierten Beschreibung werden viele spezielle Details dargelegt, um ein fundiertes Verständnis der verschiedenen beschriebenen Ausführungsformen zu ermöglichen. Es ist jedoch für Fachleute offensichtlich, dass die verschiedenen beschriebenen Ausführungsformen ohne diese speziellen Details ausgeübt werden können. In anderen Fällen wurden bekannte Verfahren, Prozeduren, Komponenten, Schaltkreise und Netzwerke nicht im Detail beschrieben, um Aspekte der Ausführungsformen nicht in unnötiger Weise unklar zu machen.
  • Es versteht sich auch, dass, obwohl die Begriffe erste, zweite usw. in einigen Fällen zur Beschreibung verschiedener Elemente verwendet werden, diese Elemente nicht durch diese Begriffe beschränkt sein sollen. Diese Begriffe werden nur zur Unterscheidung eines Elements von einem anderen verwendet. Zum Beispiel kann eine erste Videoinformation auch als zweite Videoinformation bezeichnet werden und ebenso kann eine zweite Videoinformation auch als erste Videoinformation bezeichnet werden, ohne vom Umfang der verschiedenen beschriebenen Ausführungsformen abzuweichen. Die erste Videoinformation und die zweite Videoinformation sind beides Videoinformationen, sie sind jedoch nicht die gleiche Videoinformation, außer der Kontext gibt dies anderweitig klar an.
  • Die hier zur Beschreibung der verschiedenen beschriebenen Ausführungsformen verwendete Terminologie dient nur dem Zweck, bestimmte Ausführungsformen zu beschreiben, und ist nicht als Einschränkung gedacht. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den Ansprüchen im Anhang verwendet, sind die Singularformen „ein”, „eine” und „der”, „die”, „das” dazu gedacht, auch die Pluralformen einzuschließen, sofern dies im Kontext nicht eindeutig anderweitig angegeben ist. Es versteht sich auch, dass der Begriff „und/oder”, wie im vorliegenden Dokument verwendet, sich auf beliebige und alle möglichen Kombinationen von einem oder mehreren der zugehörigen aufgeführten Elemente bezieht und diese beinhaltet. Es versteht sich weiterhin, dass die Begriffe
    „enthält/beinhaltet/umfasst/aufweist” (includes),
    „enthaltend/beinhaltend/umfassend/aufweisend” (including),
    „aufweist/umfasst” (comprises) und/oder
    „aufweisend/umfassend” (comprising) bei der Verwendung in der vorliegenden Beschreibung das Vorhandensein angegebener Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Komponenten angeben, dies aber nicht das Vorhandensein oder das Hinzufügen eines oder mehrerer anderer Merkmale, einer oder mehrerer anderer Ganzzahlen, eines oder mehrerer anderer Schritte, einer oder mehrerer anderer Operationen, eines oder mehrerer anderer Elemente, einer oder mehrerer anderer Komponenten und/oder Gruppen hiervon ausschließt.
  • Wie im vorliegenden Dokument verwendet, kann der Begriff „wenn” abhängig vom Kontext dazu ausgelegt werden, „wenn” oder „bei” oder „in Reaktion auf die Bestimmung” oder „in Reaktion auf das Erfassen” zu bedeuten. Ebenso können in Abhängigkeit vom Kontext die Ausdrücke „wenn bestimmt wird” oder „wenn [eine angegebene Bedingung oder Ereignis] erfasst wird”, optional „bei der Bestimmung” oder „in Reaktion auf die Bestimmung” oder „bei Erfassen der/des [angegebenen Bedingung oder Ereignisses]” oder „in Reaktion auf das Erfassen der/des [angegebenen Bedingung oder Ereignisses]” bedeuten.
  • Ausführungsformen der elektronischen Geräte, Benutzerschnittstellen für solche Geräte und zugehörige Prozesse zur Verwendung solcher Geräte werden beschrieben. In einigen Ausführungsformen ist das Gerät ein digitales Medienwiedergabegerät, wie Apple TV® von Apple Inc. mit Sitz in Cupertino, Kalifornien. In einigen Ausführungsformen ist das Gerät ein tragbares Kommunikationsgerät, wie ein Mobiltelefon, das auch andere Funktionen, wie einen PDA und/oder Musikwiedergabefunktionen enthält. Zu beispielhaften Ausführungsformen von tragbaren Multifunktionsgeräten gehören, ohne darauf beschränkt zu sein, die Geräte iPhone®, iPod Touch® und iPad® der Apple Inc. mit Sitz in Cupertino, Kalifornien. Weitere portable elektronische Geräte, wie Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Touchscreen-Anzeigen und/oder Touchpads) werden optional verwendet. Es versteht sich ebenso, dass in einigen Ausführungsformen das Gerät kein tragbares Kommunikationsgerät, sondern ein Desktop-Computer ist. In einigen Ausführungsformen verfügt der Desktop-Computer über eine berührungsempfindliche Oberfläche (z. B. eine Touchscreen-Anzeige und/oder ein Touchpad).
  • In der folgenden Erörterung wird ein elektronisches Gerät, das mit einer Anzeige und einer berührungsempfindlichen Oberfläche kommuniziert und/oder eine Anzeige und eine berührungsempfindliche Oberfläche enthält, beschrieben. Es versteht sich jedoch, dass das elektronische Gerät optional eine oder mehrere andere physische Benutzerschnittstellengeräte, wie eine physische Tastatur, eine Maus und/oder einen Joystick, enthält.
  • Das Gerät unterstützt in der Regel verschiedene Anwendungen, wie eine oder mehrere der folgenden: eine Notizanwendung, eine Zeichenanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Anwendung zur Erstellung einer Website, ein Disk-Authoring-Anwendung, eine Tabellenkalkulationsanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine E-Mail-Anwendung, eine Instant Messaging-Anwendung, eine Workout-Support-Anwendung, eine Fotoverwaltungsanwendung, eine Digitalkamera-Anwendung, eine digitale Videokamera-Anwendung, eine Webbrowser-Anwendung, eine digitale Musikwiedergabe-Anwendung und/oder eine digitale Videowiedergabe-Anwendung.
  • Die verschiedenen Anwendungen, die auf dem Gerät optional ausgeführt werden, verwenden wenigstens eine gemeinsame physische Benutzerschnittstelleneinrichtung, wie die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche wie auch auf dem Gerät angezeigte jeweilige Informationen werden optional von einer Anwendung zur nächsten und/oder in einer entsprechenden Anwendung angepasst und/oder variiert. Auf diese Weise unterstützt eine gängige physische Architektur (wie die berührungsempfindliche Oberfläche) des Geräts optional die Vielzahl der Anwendungen mit Benutzerschnittstellen, die für den Benutzer intuitiv und transparent sind.
  • Es wird nun auf Ausführungsformen von tragbaren Geräten mit berührungsempfindlichen Anzeigen eingegangen. 1A ist ein Blockdiagramm, das ein tragbares Multifunktionsgerät 100 mit einem berührungsempfindlichen Anzeigesystem 112 gemäß einigen Ausführungsformen darstellt. Das berührungsempfindliche Anzeigesystem 112 wird manchmal nur als „Touchscreen” bezeichnet und es wird manchmal auch einfach als berührungsempfindliche Anzeige bezeichnet. Das Gerät 100 enthält einen Speicher (Memory) 102 (der optional ein oder mehrere nicht-flüchtige computerlesbare Speichermedien enthält), einen Speichercontroller 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, eine Peripheriegeräteschnittstelle 118, einen HF-Schaltkreis 108, einen Audioschaltkreis 110, Lautsprecher 111, ein Mikrofon 113, ein Eingabe-/Ausgabe-(I/O, Input/Output-)Subsystem 106, weitere Eingabe- oder Steuerungseinrichtungen 116 und einen externen Port 124. Das Gerät 100 weist optional einen oder mehrere optische Sensoren 164 auf. Das Gerät 100 weist optional einen oder mehrere Intensitätssensoren 165 auf, um auf dem Gerät 100 die Intensität von Kontakten zu erfassen (z. B. eine berührungsempfindliche Oberfläche, wie das berührungsempfindliche Anzeigesystem 112 von Gerät 100). Das Gerät 100 weist optional einen oder mehrere taktile Ausgabegeneratoren 167 auf, um auf dem Gerät 100 taktile Ausgaben zu generieren (z. B. Generieren von taktilen Ausgaben auf einer berührungsempfindlichen Oberfläche, wie dem berührungsempfindlichen Anzeigesystem 112 von Gerät 100 oder dem Touchpad 355 von Gerät 300). Diese Komponenten kommunizieren optional über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Begriff „taktile Ausgabe” auf eine physische Versetzung eines Geräts bezüglich einer vorhergehenden Position des Geräts, eine physische Versetzung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) eines Geräts bezüglich einer anderen Komponente (z. B. Gehäuse) des Geräts oder eine Versetzung der Komponente relativ zu einem Massenmittelpunkt des Geräts, der von einem Benutzer mit dem Tastsinn des Benutzers erfasst wird. Beispielsweise wird in Situationen, in denen sich das Gerät oder die Komponente des Geräts in Kontakt mit einer berührungsempfindlichen Oberfläche eines Benutzers (z. B. ein Finger, eine Handfläche oder ein anderer Teil der Hand des Benutzers) befindet, die von der physischen Versetzung generierte taktile Ausgabe vom Benutzer als eine taktile Empfindung gemäß einer wahrgenommenen Veränderung der physischen Eigenschaften des Geräts oder der Komponenten des Geräts interpretiert. Zum Beispiel wird eine Bewegung auf einer berührungsempfindlichen Oberfläche (z. B. einer berührungsempfindlichen Anzeige oder eines Trackpads) optional von dem Benutzer als ein „Herunterdrücken” oder „Zurücksetzen” einer physischen Betätigungstaste interpretiert. In einigen Fällen fühlt der Benutzer eine taktile Empfindung wie ein „Herunterdrücken” oder ein „Zurücksetzen”, selbst dann, wenn keine Bewegung einer mit der berührungsempfindlichen Oberfläche verknüpften physischen Betätigungstaste vorliegt, die durch die Bewegungen des Benutzers physisch gedrückt (z. B. versetzt) wird. Als weiteres Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche optional von dem Benutzer als „Rauigkeit” der berührungsempfindlichen Oberfläche interpretiert oder erfühlt, selbst wenn keine Veränderung in der Glattheit der berührungsempfindlichen Oberfläche vorliegt. Während solche Interpretationen der Berührung durch einen Benutzer den individuellen Sinneswahrnehmungen des Benutzers unterliegen, gibt es viele Sinneswahrnehmungen bei Berührungen, die einer großen Mehrzahl von Benutzern gemeinsam sind. Wenn somit eine taktile Ausgabe als einer bestimmten Sinneswahrnehmung eines Benutzers entsprechend unterliegend (z. B. ein „Zurücksetzen”, ein „Herunterdrücken”, „Rauigkeit”) beschrieben wird, entspricht die generierte taktile Ausgabe, sofern nicht anders angegeben, der physischen Versetzung des Geräts oder einer Komponente davon, die die beschriebene Sinneswahrnehmung für einen typischen (oder durchschnittlichen) Benutzer generiert.
  • Es versteht sich, dass das Gerät 100 nur ein Beispiel eines tragbaren Multifunktionsgeräts ist und dass das Gerät 100 optional mehr oder weniger Komponenten als dargestellt aufweist, optional zwei oder mehr Komponenten kombiniert oder optional eine andere Konfiguration oder Anordnung der Komponenten aufweist. Die verschiedenen in 1A dargestellten Komponenten werden in Hardware, Software, Firmware oder als eine Kombination davon implementiert, einschließlich eines oder mehrerer Signalverarbeitungs- und/oder anwendungsspezifischer integrierter Schaltkreise.
  • Der Speicher 102 enthält optional Hochgeschwindigkeits-Direktzugriffsspeicher und enthält ebenso nicht-flüchtigen Speicher, wie ein oder mehrere Magnetplatten-Speichergeräte, Flash-Speichergeräte oder andere nicht-flüchtige Solid-State-Speichergeräte. Der Zugriff auf den Speicher 102 durch andere Komponenten von Gerät 100, wie die CPU(s) 120 und die Peripheriegeräteschnittstelle 118, wird optional durch den Speichercontroller 122 gesteuert.
  • Die Peripheriegeräteschnittstelle 118 kann zur Verbindung der Eingabe- und Ausgabe-Peripheriegeräte des Geräts mit der/den CPU(s) 120 und dem Speicher 102 verwendet werden. Der eine oder die mehreren Prozessoren 120 führt/führen verschiedene im Speicher 102 gespeicherte Softwareprogramme und/oder Befehlsgruppen aus, um verschiedene Funktionen für das Gerät 100 durchzuführen und um Daten zu verarbeiten.
  • In einigen Ausführungsformen sind die Peripheriegeräteschnittstelle 118, die CPU(s) 120 und der Speichercontroller 122 optional auf einem einzelnen Chip, wie dem Chip 104, implementiert. In einigen anderen Ausführungsformen werden sie optional auf getrennten Chips implementiert.
  • Ein HF-(Hochfrequenz)Schaltkreis 108 empfängt und sendet HF-Signale, die auch als elektromagnetische Signale bezeichnet werden. Der HF-Schaltkreis 108 konvertiert elektrische Signale in elektromagnetische Signale/aus elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationseinrichtungen über die elektromagnetischen Signale. Der HF-Schaltkreis 108 weist optional einen wohlbekannten Schaltkreis zur Durchführung dieser Funktionen auf, darunter, ohne darauf beschränkt zu sein, ein Antennensystem, einen HF-Transceiver (Sende-/Empfangsgerät), einen oder mehrere Verstärker, eine Abstimmvorrichtung (Tuner), einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC-Chipsatz, eine Subscriber Identity Module-(SIM)-Karte, Speicher usw. Der HF-Schaltkreis 108 kommuniziert optional mit Netzwerken, wie dem Internet, das auch als World Wide Web (WWW) bezeichnet wird, einem Intranet und/oder einem Funknetzwerk, wie einem Mobilfunknetzwerk, einem lokalen Funknetzwerk (LAN) und/oder einem regionalen Netzwerk (MAN, Metropolitan Area Network) und anderen Einrichtungen über Funkkommunikation. Die Funkkommunikation verwendet optional einen beliebigen von mehreren Kommunikationsstandards, -protokollen und -technologien, einschließlich, ohne darauf beschränkt zu sein, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High-Speed Uplink Packet Access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), Long Term Evolution (LTE), Near Field Communication (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11ac, IEEE 802.11ax, IEEE 802.11b, IEEE 802.11g, und/oder IEEE 802.11n), Voice-over-Internet-Protokoll (VoIP), Wi-MAX, ein E-Mail-Protokoll (wie das Internet Message Access-Protokoll (IMAP) und/oder Post Office-Protokoll (POP)), Instant Messaging (z. B. Extensible Messaging and Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)) und/oder Short Message Service (SMS) oder jedes andere geeignete Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, die zum Zeitpunkt der Einreichung des vorliegenden Dokuments noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und dem Gerät 100 bereit. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripheriegeräteschnittstelle 118, konvertiert die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 konvertiert das elektrische Signal in für den Menschen hörbare Klangwellen. Der Audioschaltkreis 110 empfängt ebenso vom Mikrofon 113 aus Klangwellen umgewandelte elektrische Signale. Der Audioschaltkreis 110 wandelt das elektrische Signal in Audiodaten um und überträgt die Audiodaten an die Peripheriegeräteschnittstelle 118 zur Verarbeitung. Audiodaten werden optional aus dem Speicher 102 und/oder dem HF-Schaltkreis 108 über die Peripheriegeräteschnittstelle 118 abgerufen und/oder übertragen. In einigen Ausführungsformen weist der Audioschaltkreis 110 auch eine Kopfhörerbuchse auf (z. B. 212 in 2). Die Kopfhörerbuchse stellt eine Schnittstelle zwischen einem Audioschaltkreis 110 und entfernbaren Audio-Ein-/Ausgabe-Peripheriegeräten bereit, wie nur für die Ausgabe gedachte Kopfhörer oder ein Headset mit sowohl Ausgabe-(z. B. ein Kopfhörer für ein Ohr oder beide Ohren) als auch Eingabefunktion (z. B. ein Mikrofon).
  • Das E/A-Subsystem 106 verbindet die Ein-/Ausgabe-Peripheriegeräte im Gerät 100, wie ein berührungsempfindliches Anzeigesystem 112 und andere Eingabe- oder Steuerungseinrichtungen 116, mit der Peripheriegeräteschnittstelle 118. Das E/A-Subsystem 106 weist optional einen Anzeige-Controller 156, einen optischen Sensor-Controller 158, einen Intensitätssensor-Controller 159, einen haptischen Feedback-Controller 161 und einen oder mehrere Eingabecontroller 160 für andere Eingabe- oder Steuereinrichtungen auf. Der eine oder die mehreren Eingabecontroller 160 empfangen/senden elektrische Signale von anderen/an andere Eingabe- oder Steuerungseinrichtungen 116. Die anderen Eingabe- oder Steuerungseinrichtungen 116 beinhalten optional physische Tasten (z. B. Drucktasten, Wipptasten usw.), Wähltasten, Schiebeschalter, Joysticks, Klickräder usw. In einigen alternativen Ausführungsformen ist der/sind die Eingabecontroller 160 optional mit einem (oder keinem) der folgenden gekoppelt: einer Tastatur, einem Infrarot-Port, einem USB-Port, einem Stylus und/oder einem Zeigegerät wie einer Maus. Die eine oder mehreren Tasten (z. B. 208 in 2) weisen optional eine Nach-oben-/Nach-unten-Taste zur Lautstärkensteuerung des Lautsprechers 1i1 und/oder des Mikrofons 113 auf. Die eine oder mehreren Tasten weisen optional eine Drucktaste (z. B. 206 in 2) auf.
  • Das berührungsempfindliche Anzeigesystem 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen dem Gerät und einem Benutzer bereit. Der Anzeige-Controller 156 empfängt und/oder sendet elektrische Signale von/zum berührungsempfindlichen Anzeigesystem 112. Das berührungsempfindliche Anzeigesystem 112 zeigt dem Benutzer eine visuelle Ausgabe an. Die visuelle Ausgabe kann Grafik, Text, Symbole, Video und beliebige Kombinationen davon enthalten (die insgesamt als „Grafiken” bezeichnet werden). In einigen Ausführungsformen können einige oder alle der visuellen Ausgaben Benutzerschnittstellenobjekten entsprechen.
  • Das berührungsempfindliche Anzeigesystem 112 weist eine berührungsempfindliche Oberfläche, einen Sensor oder eine Gruppe von Sensoren auf, der/die Eingaben vom Benutzer basierend auf einem haptischen und/oder taktilen Kontakt annimmt/annehmen. Das berührungsempfindliche Anzeigesystem 112 und der Anzeige-Controller 156 (zusammen mit beliebigen zugeordneten Modulen und/oder Gruppen von Anweisungen im Speicher 102) erfassen einen Kontakt (und alle Bewegungen oder Kontaktunterbrechungen) auf dem berührungsempfindlichen Anzeigesystem 112 und wandeln den erfassten Kontakt in eine Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Symbole, Webseiten oder Bilder) um, die auf dem berührungsempfindlichen Anzeigesystem 112 angezeigt werden. In einigen Ausführungsformen entspricht ein Kontaktpunkt zwischen dem berührungsempfindlichen Anzeigesystem 112 und dem Benutzer einem Finger des Benutzers oder einem Stylus.
  • Das berührungsempfindliche Anzeigesystem 112 verwendet optional eine LCD-(Liquid Crystal Display, Flüssigkristallanzeige-)Technologie, LPD-(Light Emitting Polymer Display, lichtausstrahlende Polymer-Anzeige-)Technologie oder LED-(Light Emitting Diode, lichtausstrahlende Dioden-)Technologie, obwohl in anderen Ausführungsformen andere Anzeigetechnologien verwendet werden. Das berührungsempfindliche Anzeigesystem 112 und der Anzeige-Controller 156 erfassen optional einen Kontakt und jede beliebige Bewegung oder Unterbrechung davon mithilfe einer beliebigen von mehreren Berührungserfassungstechnologien, die derzeit bekannt sind oder in Zukunft entwickelt werden, einschließlich, ohne darauf beschränkt zu sein, kapazitive, resistive, Infrarot- und akustische Oberflächenwellentechnologien, wie auch andere Näherungssensor-Arrays oder andere Elemente zum Bestimmen von einem oder mehreren Kontaktpunkten auf dem berührungsempfindlichen Anzeigesystem 112. In einigen Ausführungsformen wird eine projizierte Mutual-Capacitance-Erfassungstechnologie verwendet, wie sie im iPhone®, iPod Touch® und iPad® der Apple Inc. mit Sitz in Cupertino, Kalifornien, zum Einsatz kommt.
  • Das berührungsempfindliche Anzeigesystem 112 hat optional eine Videoauflösung über 100 dpi. In einigen Ausführungsformen liegt die Videoauflösung des Touchscreens über 400 dpi (z. B. 500 dpi, 800 dpi oder höher). Der Benutzer stellt den Kontakt mit dem berührungsempfindlichen Anzeigesystem 112 mit einem jeden geeigneten Gegenstand oder Körperglied her, wie einem Stylus, einem Finger usw. In einigen Ausführungsformen ist die Benutzerschnittstelle dazu ausgelegt, mit fingerbasierten Kontakten und Gesten zu arbeiten, die aufgrund der größeren Kontaktfläche eines Fingers auf dem Touchscreen weniger präzise sein können als eine Eingabe mit einem Stylus. In einigen Ausführungsformen übersetzt das Gerät die grobe fingerbasierte Eingabe in eine präzise Zeiger-/Cursorposition oder einen Befehl zum Durchführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsformen umfasst das Gerät 100 zusätzlich zum Touchscreen optional ein Touchpad (nicht dargestellt) zum Aktivieren oder Deaktivieren bestimmter Funktionen. In einigen Ausführungsformen ist das Touchpad ein berührungsempfindlicher Bereich des Geräts, der im Unterschied zum Touchscreen keine visuelle Ausgabe anzeigt. Das Touchpad ist optional eine berührungsempfindliche Oberfläche, die vom berührungsempfindlichen Anzeigesystem 112 getrennt ist, oder eine Erweiterung der durch den Touchscreen ausgebildeten berührungsempfindlichen Oberfläche.
  • Das Gerät 100 weist auch ein Stromversorgungssystem 162 zur Stromversorgung der verschiedenen Komponenten auf. Das Stromversorgungssystem 162 kann ein Strommanagementsystem, eine oder mehrere Stromquellen (z. B. einen Akku, Wechselstrom, ein Ladesystem, einen Schaltkreis zum Erfassen von Stromausfällen, einen Leistungswandler oder Wechselrichter, eine Stromstatusanzeige (z. B. eine lichtausstrahlende Diode (LED)) und beliebige andere Komponenten enthalten, die mit der Generierung, der Verwaltung und der Verteilung von Strom in tragbaren Geräten in Zusammenhang stehen.
  • Das Gerät 100 weist optional auch einen oder mehrere optische Sensoren 164 auf. 1A zeigt einen optischen Sensor, der mit einem optischen Sensor-Controller 158 im E/A-Subsystem 106 verbunden ist. Der/die optische(n) Sensor(en) 164 enthält bzw. enthalten optional ladungsträgergekoppelte Schaltungs-(CCD, Charge-coupled Device-) oder komplementäre Metalloxid-Halbleiter-(CMOS, Complementary Metal-oxide Semiconductor-)Phototransistoren. Der/die optische(n) Sensor(en) 164 empfängt bzw. empfangen Licht aus der Umgebung, das durch eine oder mehrere Linsen projiziert wird, und wandelt/wandeln das Licht in Daten um, die ein Bild darstellen. Zusammen mit einem Bildgebungsmodul 143 (das auch als Kameramodul bezeichnet wird) erfasst/erfassen der/die optische(n) Sensor(en) 164 optional Standbilder und/oder Videos. In einigen Ausführungsformen befindet sich ein optischer Sensor an der Rückseite des Geräts 100 gegenüberliegend zum berührungsempfindlichen Anzeigesystem 112 an der Vorderseite des Geräts, sodass der Touchscreen auch als Sucher zum Aufnehmen von Stand- und/oder Videobildern verwendet werden kann. In einigen Ausführungsformen befindet sich ein weiterer optischer Sensor an der Vorderseite des Geräts, sodass das Bild des Benutzers aufgenommen wird (z. B. für Selfies, für Videokonferenzen, während der Benutzer die anderen Teilnehmer der Videokonferenz auf dem Touchscreen betrachtet usw.).
  • Das Gerät 100 weist optional auch einen oder mehrere Kontaktintensitätssensoren 165 auf. 1A stellt einen Kontaktintensitätssensor dar, der mit einem Intensitätssensor-Controller 159 im E/A-Subsystem 106 verbunden ist. Der/die Kontaktintensitätssensor(en) 165 weist bzw. weisen optional einen oder mehrere piezoresistive Messstreifen, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren auf (z. B. Sensoren, die zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet werden). Der/die Kontaktintensitätssensor(en) 165 empfängt/empfangen Kontaktintensitätsinformationen (z. B. Druckinformationen oder einen Ersatz für Druckinformationen) von der Umgebung. In einigen Ausführungsformen befindet sich wenigstens ein Kontaktintensitätssensor an oder in der Nähe einer berührungsempfindlichen Oberfläche (z. B. des berührungsempfindlichen Anzeigesystems 112). In einigen Ausführungsformen befindet sich wenigstens ein Kontaktintensitätssensor an der Rückseite des Geräts 100 gegenüberliegend zum Touchscreen-Anzeigesystem 112, das sich an der Vorderseite des Geräts 100 befindet.
  • Das Gerät 100 enthält optional auch einen oder mehrere Näherungssensoren 166. 1A zeigt den Näherungssensor 166, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ ist der Näherungssensor 166 mit dem Eingabecontroller 160 im E/A-Subsystem 106 verbunden. In einigen Ausführungsformen schaltet der Näherungssensor das berührungsempfindliche Anzeigesystem 112 aus und deaktiviert es, wenn das Multifunktionsgerät in der Nähe des Ohrs des Benutzers positioniert wird (z. B. wenn der Benutzer telefoniert).
  • Das Gerät 100 weist optional auch einen oder mehrere Generatoren 167 von taktilen Ausgaben auf. 1A stellt einen Generator von taktilen Ausgaben dar, der mit einem haptischen Feedback-Controller 161 im E/A-Subsystem 106 verbunden ist. Der/die taktile(n) Ausgabegenerator(en) 167 weist/weisen optional eine oder mehrere elektroakustische Einrichtungen wie Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Einrichtungen auf, die Energie in lineare Bewegung übertragen, wie einen Motor, einen Solenoid, ein elektroaktives Polymer, einen piezoelektrischen Aktuator, einen elektrostatischen Aktuator oder eine andere Komponente zum Generieren von taktilen Ausgaben (z. B. eine Komponente, die elektrische Signale in taktile Ausgaben auf dem Gerät konvertiert). In einigen Ausführungsformen empfängt bzw. empfangen der/die taktile(n) Ausgabengenerator(en) 167 Anweisungen zum Generieren von taktilem Feedback vom haptischen Feedback-Modul 133 und generiert bzw. generieren taktile Ausgaben auf dem Gerät 100, die dazu ausgestaltet sind, von einem Benutzer des Geräts 100 wahrgenommen zu werden. In einigen Ausführungsformen ist wenigstens ein taktiler Ausgabengenerator zusammen an oder in der Nähe einer berührungsempfindlichen Oberfläche (z. B. ein berührungsempfindliches Anzeigesystem 112) angeordnet und generiert optional eine taktile Ausgabe durch Versetzen der berührungsempfindlichen Oberfläche in der vertikalen (z. B. in/aus einer Fläche des Geräts 100) oder seitlichen Richtung (z. B. auf der gleichen Ebene wie eine Fläche von Gerät 100 nach hinten und vorne). In einigen Ausführungsformen befindet sich wenigstens ein Sensor eines Generators von taktilen Ausgaben an der Rückseite des Geräts 100 gegenüberliegend zum berührungsempfindlichen Anzeigesystem 112, das sich an der Vorderseite des Geräts 100 befindet.
  • Das Gerät 100 kann optional einen oder mehrere Beschleunigungsmesser 168 aufweisen. 1A zeigt den Beschleunigungsmesser 168, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ ist optional ein Beschleunigungsmesser 168 mit einem Eingabecontroller 160 im E/A-Subsystem 106 verbunden. In einigen Ausführungsformen werden Informationen auf der Touchscreen-Anzeige basierend auf einer Analyse der von einem oder mehreren Beschleunigungsmessern empfangenen Daten in einer Hochformatansicht oder einer Querformatansicht angezeigt. Das Gerät 100 weist optional, zusätzlich zu dem/den Beschleunigungsmesser(n) 168, ein Magnetometer (nicht dargestellt) und einen GPS-(oder GLONASS oder anderen globalen Navigationssystem-)Empfänger (nicht dargestellt) zum Erhalt von Informationen bezüglich der Position und Ausrichtung (z. B. Hochformat oder Querformat) des Geräts 100 auf.
  • In einigen Ausführungsformen weisen die im Speicher 102 gespeicherten Softwarekomponenten ein Betriebssystem 126, ein Kommunikationsmodul (oder eine Gruppe von Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Gruppe von Anweisungen) 130, ein Grafikmodul (oder Gruppe von Anweisungen) 132, ein haptisches Feedback-Modul (oder Gruppe von Anweisungen) 133, ein Texteingabemodul (oder Gruppe von Anweisungen) 134, ein Globales-Positionierungssystem-(GPS-)Modul (oder Gruppe von Anweisungen) 135 und Anwendungen (oder Gruppe von Anweisungen) 136 auf. Darüber hinaus speichert in einigen Ausführungsformen der Speicher 102 den Gerätezustand/globalen internen Zustand 157, wie in 1A und 3 dargestellt. Der Gerätezustand/globale interne Zustand 157 weist eines oder mehrere auf von: einem aktiven Anwendungszustand, der angibt, welche Anwendungen, sofern vorhanden, derzeit aktiv sind; einem Anzeigezustand, der angibt, welche Anwendungen, Ansichten oder andere Informationen die verschiedenen Bereiche der Touchscreen-Anzeige 112 belegen; einem Sensorzustand, der Informationen enthält, die von den verschiedenen Sensoren des Geräts und anderen Eingabe- oder Steuerungseinrichtungen 116 erhalten wurden; und Orts- und/oder Positionsinformationen bezüglich der Position und/oder der Lage des Geräts.
  • Das Betriebssystem 126 (z. B. iOS, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem wie VxWorks) weist verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben auf (z. B. Speicherverwaltung, Steuerung der Speichergeräte, Stromverwaltung usw.) und ermöglicht die Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht die Kommunikation mit anderen Geräten über einen oder mehrere externe Ports 124 und weist auch verschiedene Softwarekomponenten zum Verarbeiten von Daten auf, die vom HF-Schaltkreis 108 und/oder dem externen Port 124 empfangen wurden. Der externe Port 124 (z. B. Universal Serial Bus (USB), FIREWIRE usw.) ist dazu ausgebildet, andere Geräte direkt oder indirekt über ein Netzwerk (z. B. das Internet, WLAN usw.) zu verbinden. In einigen Ausführungsformen ist der externe Port ein Multi-Pin-(z. B. 30-Pin-)Stecker, der der gleiche oder ähnlich zu und/oder kompatibel ist zu dem 30-Pin-Stecker, der in iPhone®-, iPod Touch®- und iPad®-Geräten der Apple Inc. mit Sitz in Cupertino, Kalifornien, verwendet wird. In einigen Ausführungsformen ist der externe Port ein Lightning-Stecker, der der gleiche oder ähnlich zu und/oder kompatibel ist zu dem Lightning-Stecker, der in iPhone®-, iPod Touch®- und iPad®-Geräten der Apple Inc. mit Sitz in Cupertino, Kalifornien, verwendet wird.
  • Das Kontakt-/Bewegungsmodul 130 erfasst optional einen Kontakt auf dem berührungsempfindlichen Anzeigesystem 112 (zusammen mit dem Anzeige-Controller 156) und anderen berührungsempfindlichen Geräten (wie einem Touchpad oder einem physischen Klickrad). Das Kontakt-/Bewegungsmodul 130 enthält verschiedene Softwarekomponenten zum Durchführen verschiedener Operationen bezüglich der Kontakterfassung (z. B. durch einen Finger oder einen Stylus), wie die Bestimmung, ob ein Kontakt erfolgt ist (z. B. das Erfassen eines Fingerabsetz-Ereignisses), das Bestimmen einer Intensität des Kontakts (z. B. die Kraft oder der Druck des Kontakts oder einem Ersatz für die Kraft oder den Druck des Kontakts), die Bestimmung, ob eine Bewegung des Kontakts vorliegt, und das Verfolgen der Bewegung über die berührungsempfindliche Oberfläche (z. B. Erfassen von Ziehereignissen mit einem oder mehreren Fingern) und die Bestimmung, ob der Kontakt beendet wurde (z. B. Erfassen eines Abhebeereignisses eines Fingers oder einer Kontaktunterbrechung). Das Kontakt-/Bewegungsmodul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Die Bestimmung der Bewegung des Kontaktpunkts, die durch eine Serie von Kontaktdaten dargestellt wird, beinhaltet optional die Bestimmung einer Schnelligkeit (Größenordnung), einer Geschwindigkeit (Größenordnung und Richtung) und/oder einer Beschleunigung (eine Änderung in der Größenordnung und/oder der Richtung) des Kontaktpunkts. Diese Operationen werden optional auf einzelne Kontakte (z. B. Kontakte eines Fingers oder Stylus) oder auf mehrere gleichzeitige Kontakte (z. B. „Mehrfachberührung” (Multitouch)/mehrere Fingerkontakte) angewendet. In einigen Ausführungsformen erfassen das Kontakt-/Bewegungsmodul 130 und der Anzeige-Controller 156 einen Kontakt auf einem Touchpad.
  • Das Kontakt-/Bewegungsmodul 130 erfasst optional eine Gesteneingabe eines Benutzers. Unterschiedliche Gesten auf der berührungsempfindlichen Oberfläche weisen verschiedene Kontaktmuster auf (z. B. verschiedene Bewegungen, Timings und/oder Intensitäten der erfassten Kontakte). Somit wird eine Geste optional durch Erfassen eines bestimmten Kontaktmusters erfasst. Zum Beispiel weist das Erfassen einer Fingerantippgeste das Erfassen eines Fingerabsetz-Ereignisses gefolgt von einem Fingerabhebe-(Hochhebe-)Ereignis an der gleichen Position (oder im Wesentlichen der gleichen Position) wie das Fingerabsetz-Ereignis auf (z. B. an der Position eines Symbols). Als weiteres Beispiel umfasst das Erfassen einer Fingerstreichgeste auf der berührungsempfindlichen Oberfläche das Erfassen eines Fingerabsetz-Ereignisses gefolgt von dem Erfassen von einem oder mehreren Fingerzieh-Ereignissen und dann gefolgt vom Erfassen eines Fingerabhebe-(Fingerhochhebe-)Ereignisses. Ebenso werden das Antippen, Streichen, Ziehen und andere Gesten optional für einen Stylus erfasst, indem ein bestimmtes Kontaktmuster für den Stylus erfasst wird.
  • Das Grafikmodul 132 weist verschiedene bekannte Softwarekomponenten zum Darstellen und Anzeigen von Grafiken auf dem berührungsempfindlichen Anzeigesystem 112 oder einer anderen Anzeige auf, einschließlich Komponenten zum Ändern der visuellen Präsentation (z. B. der Helligkeit, Transparenz, Sättigung, des Kontrasts oder einer anderen visuellen Eigenschaft) der angezeigten Grafiken. Wie im vorliegenden Dokument verwendet, umfasst der Begriff „Grafik” jedes beliebige einem Benutzer anzeigbare Objekt, einschließlich ohne Einschränkung, Text, Webseiten, Symbole (wie Benutzerschnittstellenobjekte einschließlich Softtasten), digitale Bilder, Videos, Animationen und Ähnliches.
  • In einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die zu verwendende Grafiken darstellen. Jeder Grafik wird optional ein zugehöriger Code zugewiesen. Das Grafikmodul 132 empfängt von Anwendungen usw. einen oder mehrere Codes, die anzuzeigende Grafiken, gegebenenfalls zusammen mit Koordinatendaten und anderen Daten von Grafikeigenschaften angeben, und generiert dann Bildschirm-Bilddaten zur Ausgabe auf dem Anzeige-Controller 156.
  • Das haptische Feedback-Modul 133 weist verschiedene Softwarekomponenten zum Generieren von Anweisungen auf, mit denen (z. B. vom haptischen Feedback-Controller 161 verwendete Anweisungen) unter Verwendung von Generator(en) 167 taktiler Ausgaben taktile Ausgaben an einer oder mehreren Positionen auf dem Gerät 100 in Reaktion auf Benutzerinteraktionen mit dem Gerät 100 erzeugt werden.
  • Das Texteingabemodul 134, das optional eine Komponente eines Grafikmoduls 132 ist, stellt Softtastaturen zur Eingabe von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, IM 141, Browser 147 und beliebige andere Anwendungen, die zur Texteingabe benötigt werden).
  • Das GPS-Modul 135 bestimmt die Position des Geräts und stellt diese Informationen zur Verwendung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in Anrufen basierend auf dem Standort; der Kamera 143 als Bild-/Video-Metadaten; und für Anwendungen, die standortbasierte Services, wie Wetter-Widgets, lokale Telefonbuch-Widgets und Karten-/Navigation-Widgets bereitstellen).
  • Die Anwendung 136 enthält optional die folgenden Module (oder Gruppe von Anweisungen) oder eine Teilmenge oder eine Obermenge davon:
    • • Kontaktmodul 137 (manchmal auch als Adressbuch oder Kontaktliste bezeichnet);
    • • Telefonmodul 138;
    • • Videokonferenzmodul 139;
    • • E-Mail-Client-Modul 140;
    • • Instant Messaging(IM)-Modul 141;
    • • Workout-Support-Modul 142;
    • • Kameramodul 143 für Stand- und/oder Videobilder;
    • • Bildverwaltungsmodul 144;
    • • Browsermodul 147;
    • • Kalendermodul 148;
    • • Widget-Module 149, die optional eines oder mehrere umfassen von einem: Wetter-Widget 149-1, Aktien-Widget 149-2, Taschenrechner-Widget 149-3, Uhr-Widget 149-4 mit Alarmfunktion, Wörterbuch-Widget 149-5 und anderen Widgets, die vom Benutzer bezogen werden, wie auch vom Benutzer erstellte Widgets 149-6;
    • • Widget-Erstellungsmodul 150 zum Erstellen von durch den Benutzer erstellten Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikwiedergabemodul 152, das optional aus einem Videowiedergabemodul und einem Musikwiedergabemodul besteht;
    • • Notizmodul 153;
    • • Kartenmodul 154; und/oder
    • • Online-Video-Modul 155.
  • Zu den Beispielen anderer Anwendungen 136, die optional im Speicher 102 gespeichert sind, gehören andere Textverarbeitungsanwendungen, andere Bildverarbeitungsanwendungen, Zeichenanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, die Verwaltung digitaler Rechte, Spracherkennung und Sprachwiedergabe.
  • Zusammen mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 enthält das Kontaktmodul 137 ausführbare Anweisungen zur Verwaltung eines Adressbuchs oder einer Kontaktliste (z. B. im internen Anwendungszustand 192 des Kontaktmoduls 137 im Speicher 102 oder im Speicher 370 gespeichert), darunter zum: Hinzufügen von Namen in das Adressbuch; Löschen von Namen aus dem Adressbuch; Zuweisen von Telefonnummer(n), E-Mail-Adresse(n), Postadresse(n) oder anderen Informationen für einen Namen; Zuweisen eines Bilds zu einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern und/oder E-Mail-Adressen zum Initiieren und/oder Ermöglichen der Kommunikation per Telefon 138, Videokonferenz 139, E-Mail 140 oder IM 141 usw.
  • Zusammen mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 enthält das Telefonmodul 138 ausführbare Anweisungen, um eine Folge von Zeichen einzugeben, die einer Telefonnummer entsprechen, um auf eine oder mehrere Telefonnummern im Adressbuch 137 zuzugreifen, um eine eingegebene Telefonnummer zu bearbeiten, um eine jeweilige Telefonnummer zu wählen, um ein Gespräch zu führen und das Gespräch am Ende des Gesprächs zu beenden bzw. aufzulegen. Wie oben beschrieben, verwendet die Funkkommunikation optional beliebige von mehreren Kommunikationsstandards, -protokollen und -technologien.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem/den optischen Sensor(en) 164, dem optischen Sensor-Controller 158, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, der Kontaktliste 137 und dem Telefonmodul 138 weist das Videokonferenzmodul 139 ausführbare Anweisungen auf, um eine Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern gemäß den Anweisungen des Benutzers zu initiieren, durchzuführen und zu beenden.
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das E-Mail-Client-Modul 140 ausführbare Anweisungen auf, um als Reaktion auf Benutzeranweisungen E-Mails zu erstellen, zu senden, zu empfangen und zu verwalten. Zusammen mit dem Bildverwaltungsmodul 144 vereinfacht das E-Mail-Client-Modul 140 das Erstellen und Senden von E-Mails von mit dem Kameramodul 143 aufgenommenen Stand- oder Videobildern erheblich.
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Instant Messaging-Modul 141 ausführbare Anweisungen auf, um eine Folge von Zeichen einzugeben, die einer Instant Message entsprechen, um zuvor eingegebene Zeichen zu bearbeiten, um eine jeweilige Instant Message zu senden (z. B. unter Verwendung eines Short Message Service-(SMS-) oder Multimedia Message Service-(MMS-)Protokolls für telefoniebasierte Instant Messages oder unter Verwendung von XMPP, SIMPLE, Apple Push Notification Service (APNs) oder IMPS für internetbasierte Instant Messages), um Instant Messages zu empfangen und empfangene Instant Messages anzuzeigen. In einigen Ausführungsformen umfassen gesendete und/oder empfangene Instant Messages optional Grafiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie in einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden. Gemäß der Verwendung in dem vorliegenden Dokument bezieht sich „Instant Messaging” sowohl auf telefoniebasierte Nachrichten (z. B. Nachrichten, die mittels SMS oder MMS gesendet wurden) als auch auf internetbasierte Nachrichten (z. B. Nachrichten, die mittels XMPP, SIMPLE, APNs oder IMPS gesendet wurden).
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musikwiedergabemodul 146 weist das Workout-Support-Modul 142 ausführbare Anweisungen auf, um Workouts zu erstellen (z. B. mit Zeit-, Distanz- und/oder Kalorienverbrennungszielen); um mit Workout-Sensoren zu kommunizieren (in Sportgeräten und Smart Watches), um Workout-Sensordaten zu empfangen; um zur Überwachung eines Workouts verwendete Sensoren zu kalibrieren; um Musik für einen Workout auszuwählen und wiederzugeben; und um Workout-Daten anzuzeigen, zu speichern und zu übertragen.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem bzw. den optischen Sensor(en) 164, dem optischen Sensor-Controller 158, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Bildverwaltungsmodul 144 weist das Kameramodul 143 ausführbare Anweisungen auf, um Standbilder oder Videos (einschließlich eines Videostreams) zu erfassen und diese im Speicher 102 zu speichern, die Eigenschaften eines Standbilds oder Videos zu bearbeiten und/oder ein Standbild oder Video aus dem Speicher 102 zu löschen.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 weist das Bildverarbeitungsmodul 144 ausführbare Anweisungen auf, um Stand- und/oder Videobilder anzuordnen, zu ändern (z. B. bearbeiten) oder anderweitig zu manipulieren, zu benennen, zu löschen, darzustellen (z. B. in einer digitalen Diashow oder einem Album) und zu speichern.
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Browsermodul 147 ausführbare Anweisungen auf, um gemäß Benutzeranweisungen im Internet zu browsen, einschließlich der Suche, des Verlinkens mit, des Empfangens und Anzeigens von Webseiten oder Teilen davon, wie auch von Anhängen und anderen Dateien, die mit Webseiten verlinkt sind.
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browsermodul 147 weist das Kalendermodul 148 ausführbare Anweisungen auf, um Kalender und Kalendern zugeordnete Daten (z. B. Kalendereinträge, To-Do-Listen usw.) gemäß Benutzeranweisungen zu erstellen, anzuzeigen, zu bearbeiten und zu speichern.
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browser-Modul 147 sind die Widget-Module 149 Minianwendungen, die von einem Benutzer optional heruntergeladen und verwendet werden (z. B. Wetter-Widget 149-1, Aktien-Widget 149-2, Rechner-Widget 149-3, Uhr-Widget 149-4 mit Alarmfunktion und das Wörterbuch-Widget 149-5) oder vom Benutzer erstellt werden (z. B. vom Benutzer erstelltes Widget 149-6). In einigen Ausführungsformen weist ein Widget eine HTML(Hypertext Markup Language)-Datei, eine CSS-(Cascading Style Sheets-)Datei und eine JavaScript-Datei auf. In einigen Ausführungsformen weist ein Widget eine XML (Extensible Markup Language)-Datei und eine JavaScript-Datei auf (z. B. Yahoo!-Widgets).
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browser-Modul 147 enthält das Widget-Erstellungsmodul 150 ausführbare Anweisungen zum Erstellen von Widgets (z. B. Umwandlung eines von einem Benutzer angegebenen Bereichs einer Webseite in ein Widget).
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Suchmodul 151 ausführbare Anweisungen auf, um Text-, Musik-, Sound-, Bild-, Video- und/oder andere Dateien im Speicher 102 gemäß Benutzeranweisungen zu suchen, die einem oder mehreren Suchkriterien entsprechen (z. B. einem oder mehreren vom Benutzer angegebenen Suchbegriffen).
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem HF-Schaltkreis 108 und dem Browser-Modul 147 weist das Video- und Musikwiedergabemodul 152 ausführbare Anweisungen auf, die dem Benutzer das Herunterladen und die Wiedergabe von aufgezeichneten Musik- und anderen Sounddateien ermöglichen, die in einem oder mehreren Dateiformaten gespeichert sind, wie MP3- oder AAC-Dateien, und ausführbare Anweisungen, um Videos anzuzeigen, darzustellen oder anderweitig wiederzugeben (z. B. auf dem berührungsempfindlichen Anzeigesystem 112 oder auf einer über Funk oder den externen Port 124 angeschlossenen externen Anzeige). In einigen Ausführungsformen weist das Gerät 100 optional die Funktionalität eines MP3-Players auf, wie eines iPod (Markenzeichen der Apple Inc.).
  • Zusammen mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeige-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 weist das Notizmodul 153 ausführbare Anweisungen auf, um gemäß Anweisung eines Benutzers Notizen, To-Do-Listen und Ähnliches zu erstellen und zu verwalten.
  • In Verbindung mit dem HF-Schaltkreis 108, dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browser-Modul 147 umfasst das Kartenmodul 154 ausführbare Anweisungen zum Empfangen, Anzeigen, Bearbeiten und Speichern von Karten und zu Karten gehörenden Daten (z. B. Fahrrichtungen, Daten zu Einkaufsmöglichkeiten und anderen interessanten Orten an einem oder nahe einem bestimmten Standort; und andere standortbasierte Daten) gemäß Benutzeranweisungen.
  • In Verbindung mit dem berührungsempfindlichen Anzeigesystem 112, dem Anzeigesystem-Controller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem HF-Schaltkreis 108, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browser-Modul 147 enthält das Online-Video-Modul 155 ausführbare Anweisungen, mit denen ein Benutzer auf Online-Videos zugreifen, sie durchsuchen, empfangen (z. B. durch Streamen und/oder Herunterladen), wiedergeben (z. B. auf dem Touchscreen 112 oder über eine per Funk oder über den externen Port 124 angeschlossene externe Anzeige), eine E-Mail mit einem Link zu einem bestimmten Online-Video senden und anderweitig Online-Videos in einem oder mehreren Dateiformaten, wie H.264, verwalten kann. In einigen Ausführungsformen wird ein Instant Messaging-Modul 141 anstelle eines E-Mail-Client-Moduls 140 verwendet, um einen Link zu einem bestimmten Online-Video zu senden.
  • Ein jedes der oben aufgeführten Module und eine jede der Anwendungen entsprechen einer Gruppe von ausführbaren Anweisungen zum Durchführen von einer oder mehreren oben beschriebenen Funktionen und den in dieser Anmeldung beschriebenen Verfahren (z. B. computerimplementierte Verfahren und andere Informationsverarbeitungsverfahren, die im vorliegenden Dokument beschrieben werden). Diese Module (z. B. Gruppen von Anweisungen) müssen nicht als eigenständige Softwareprogramme, Prozeduren oder Module implementiert sein und die verschiedenen Untergruppen dieser Module werden so optional in verschiedenen Ausführungsformen kombiniert oder anderweitig neu angeordnet. In einigen Ausführungsformen speichert der Speicher 102 optional eine Teilmenge der oben aufgeführten Module und Datenstrukturen. Darüber hinaus kann der Speicher 102 weitere Module und Datenstrukturen speichern, die oben nicht beschrieben wurden.
  • In einigen Ausführungsformen ist das Gerät 100 ein Gerät, bei dem eine Operation einer bestimmten Gruppe von Funktionen auf dem Gerät ausschließlich über einen Touchscreen und/oder ein Touchpad ausgeführt wird. Durch Verwendung eines Touchscreens und/oder eines Touchpads als primäre Eingabesteuerungseinrichtung zum Betrieb des Geräts 100 wird die Anzahl der physischen Eingabesteuerungseinrichtungen (wie Druckknöpfe, Wählelemente und Ähnliches) auf dem Gerät 100 optional verringert.
  • Die bestimmte Gruppe von Funktionen, die ausschließlich über einen Touchscreen und/oder ein Touchpad ausgeführt werden, beinhaltet optional die Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad bei einer Berührung von dem Benutzer das Gerät 100 von einer beliebigen auf dem Gerät 100 angezeigten Benutzerschnittstelle zu einem Hauptmenü, Home-Menü oder obersten Menü. In solchen Ausführungsformen wird eine „Menütaste” unter Verwendung eines Touchpads implementiert. In einigen anderen Ausführungsformen ist die Menütaste eine physische Drucktaste oder eine andere physische Eingabesteuerungseinrichtung anstelle eines Touchpads.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung gemäß einigen Ausführungsformen darstellt. In einigen Ausführungsformen weist der Speicher 102 (in 1A) oder 370 (3) einen Ereignissortierer 170 (z. B. im Betriebssystem 126) und eine zugehörige Anwendung 136-1 auf (z. B. eine beliebige der oben erwähnten Anwendungen 136, 137155 oder der im Folgenden beschriebenen Anwendungen 380394).
  • Der Ereignissortierer 170 empfängt Ereignisinformationen und bestimmt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1, an die die Ereignisinformationen geliefert werden sollen. Der Ereignissortierer 170 weist einen Ereignismonitor 171 und ein Event-Dispatcher-Modul 174 auf. In einigen Ausführungsformen enthält die Anwendung 136-1 einen internen Anwendungszustand 192, der die auf dem berührungsempfindlichen Anzeigesystem 112 angezeigten aktuellen Anwendungsansicht(en) angibt, wenn die Anwendung aktiv ist oder ausgeführt wird. In einigen Ausführungsformen wird ein Gerätezustand/globaler interner Zustand 157 vom Ereignissortierer 170 zur Bestimmung verwendet, welche Anwendung(en) aktuell aktiv ist bzw. sind, und der interne Anwendungszustand 192 wird vom Ereignissortierer 170 zur Bestimmung der Anwendungsansichten 191 verwendet, an die die Ereignisinformationen geliefert werden sollen.
  • In einigen Ausführungsformen umfasst der interne Anwendungszustand 192 weitere Informationen, wie eine oder mehrere von: Wiederaufnahmeinformationen, die bei der Wiederaufnahme der Ausführung von Anwendung 136-1 zu verwenden sind, Benutzerschnittstellen-Zustandsinformationen, die von der Anwendung 136-1 angezeigte oder für die Anzeige durch die Anwendung 136-1 bereite Informationen angeben, eine Zustandswarteschlange, um dem Benutzer die Rückkehr zu einem vorhergehenden Zustand oder einer vorhergehenden Ansicht der Anwendung 136-1 zu ermöglichen, und eine Wiederholungs-/Rückgängig-Warteschlange von vorhergehenden vom Benutzer durchgeführten Aktionen.
  • Der Ereignismonitor 171 empfängt Ereignisinformationen von der Peripheriegeräte-Benutzerschnittstelle 118. Ereignisinformationen umfassen Informationen über ein untergeordnetes Ereignis (z. B. eine Benutzerberührung auf dem berührungsempfindlichen Anzeigesystem 112 als Teil einer Mehrfachberührungsgeste). Die Peripheriegeräte-Benutzerschnittstelle 118 überträgt Informationen, die sie von dem E/A-Subsystem 106 oder einem Sensor, wie dem Näherungssensor 166, dem/den Beschleunigungsmesser(n) 168 und/oder dem Mikrofon 113 (über den Audioschaltkreis 110) empfängt. Zu den Informationen, die die Peripheriegeräte-Benutzerschnittstelle 118 vom E/A-Subsystem 106 empfängt, gehören Informationen vom berührungsempfindlichen Anzeigesystem 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 in bestimmten Intervallen Anforderungen an die Peripheriegeräte-Benutzerschnittstelle 118. In Reaktion darauf überträgt die Peripheriegeräte-Benutzerschnittstelle 118 Ereignisinformationen. In anderen Ausführungsformen überträgt die Peripheriegeräte-Benutzerschnittstelle 118 Ereignisinformationen nur, wenn ein relevantes Ereignis vorliegt (z. B. Empfang einer Eingabe über einem bestimmten Geräuschgrenzwert und/oder länger als eine bestimmte Dauer).
  • In einigen Ausführungsformen weist der Ereignissortierer 170 auch ein Bestimmungsmodul 172 der Eingabeansicht und/oder ein Bestimmungsmodul 173 zum Erkennen aktiver Ereignisse auf.
  • Das Bestimmungsmodul 172 der Eingabeansicht stellt Softwareprozeduren zur Bestimmung bereit, wo ein Unterereignis in einer oder mehreren Ansichten stattgefunden hat, wenn die berührungsempfindliche Anzeige 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Steuerelementen und anderen Elementen, die einem Benutzer auf der Anzeige angezeigt werden.
  • Ein weiterer Aspekt der einer Anwendung zugeordneten Benutzerschnittstelle ist eine Gruppe von Ansichten, die hier auch manchmal als Anwendungsansichten oder Benutzerschnittstellenfenster bezeichnet werden, in denen Informationen angezeigt werden und berührungsbasierte Gesten erfolgen. Die Anwendungsansichten (einer entsprechenden Anwendung), in denen eine Berührung erfasst wird, entsprechen optional Programmierebenen in einer Programmier- oder Ansichtshierarchie der Anwendung. Zum Beispiel wird die Ansicht auf der untersten Ebene, in der eine Berührung erfasst wird, optional als Eingabeansicht bezeichnet, und die Gruppe von Ereignissen, die als korrekte Eingaben erkannt werden, wird optional wenigstens teilweise basierend auf der ersten Berührung in der Eingabeansicht bestimmt, die eine berührungsbasierte Geste beginnt.
  • Das Bestimmungsmodul 172 der Eingabeansicht empfängt Informationen, die sich auf untergeordnete Ereignisse einer berührungsbasierten Geste beziehen. Wenn für eine Anwendung mehrere Ansichten in einer Hierarchie angeordnet sind, bestimmt das Bestimmungsmodul 172 der Eingabeansicht eine Eingabeansicht als unterste Ansicht in der Hierarchie, die das untergeordnete Ereignis verarbeiten soll. In den meisten Fällen ist die Eingabeansicht die Ansicht der untersten Ebene, in der ein initiierendes untergeordnetes Ereignis auftritt (z. B. das erste untergeordnete Ereignis in einer Folge untergeordneter Ereignisse, die ein Ereignis oder ein mögliches Ereignis bilden). Sobald die Eingabeansicht durch das Bestimmungsmodul der Eingabeansicht bestimmt ist, empfängt die Eingabeansicht normalerweise alle untergeordneten Ereignisse, die sich auf die gleiche Berührung oder Eingabequelle beziehen, für die es als Eingabeansicht bestimmt wurde.
  • Das Bestimmungsmodul 173 zum Erkennen aktiver Ereignisse bestimmt, welche Ansicht oder Ansichten in einer Ansichtshierarchie eine bestimmte Folge von untergeordneten Ereignissen empfangen soll(en). In einigen Ausführungsformen bestimmt das Bestimmungsmodul 173 zum Erkennen aktiver Ereignisse nur, dass die Eingabeansicht eine bestimmte Folge von untergeordneten Ereignissen empfangen soll. In anderen Ausführungsformen bestimmt das Bestimmungsmodul 173 zum Erkennen aktiver Ereignisse, dass alle Ansichten, die die physische Position des untergeordneten Ereignisses beinhalten, aktiv beteiligte Ansichten sind, und bestimmt daher, dass alle aktiv beteiligten Ansichten eine bestimmte Folge von untergeordneten Ereignissen empfangen sollen. In anderen Ausführungsformen, selbst wenn berührungsbasierte untergeordnete Ereignisse vollständig auf den nur einer bestimmten Ansicht zugeordneten Bereich beschränkt sind, bleiben übergeordnete Ansichten in der Hierarchie immer die aktiv beteiligten Ansichten.
  • Das Ereignis-Dispatcher-Modul 174 verteilt die Ereignisinformationen an ein Ereigniserkennungsmodul (z. B. das Ereigniserkennungsmodul 180). In Ausführungsformen mit einem Bestimmungsmodul 173 zum Erkennen aktiver Ereignisse übergibt das Ereignis-Dispatcher-Modul 174 die Ereignisinformationen an ein Ereigniserkennungsmodul, das vom Bestimmungsmodul 173 zum Erkennen aktiver Ereignisse bestimmt wurde. In einigen Ausführungsformen speichert das Ereignis-Dispatcher-Modul 174 die durch ein jeweiliges Ereignisempfängermodul 182 abgerufenen Ereignisinformationen in einer Ereigniswarteschlange.
  • In einigen Ausführungsformen enthält das Betriebssystem 126 einen Ereignissortierer 170. Alternativ weist die Anwendung 136-1 einen Ereignissortierer 170 auf. In wiederum anderen Ausführungsformen ist der Ereignissortierer 170 ein eigenständiges Modul oder ein Teil eines anderen im Speicher 102 gespeicherten Moduls, wie des Kontakt-/Bewegungsmoduls 130.
  • In einigen Ausführungsformen enthält die Anwendung 136-1 mehrere Event Handler 190 und eine oder mehrere Anwendungsansichten 191, wobei jede davon Anweisungen zum Verarbeiten von Berührungsereignissen enthält, die in einer betreffenden Ansicht der Benutzerschnittstelle der Anwendung auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 enthält ein oder mehrere Ereigniserkennungsmodule 180. In der Regel enthält eine betreffende Anwendungsansicht 191 mehrere Ereigniserkennungsmodule 180. In anderen Ausführungsformen sind ein oder mehrere Ereigniserkennungsmodule 180 Teil eines eigenen Moduls, wie eines Benutzerschnittstellenkits (nicht dargestellt) oder eines Objekts auf einer höheren Ebene, von dem die Anwendung 136-1 Methoden und andere Eigenschaften erbt. In einigen Ausführungsformen weist ein betreffender Event Handler 190 eines oder mehrere auf von einem: Daten-Updater 176, Objekt-Updater 177, GUI-Updater 178 und/oder Ereignisdaten 179, die vom Ereignissortierer 170 empfangen wurden. Der Event Handler 190 nutzt oder ruft optional den Daten-Updater 176, den Objekt-Updater 177 oder den GUI-Updater 178 auf, um den internen Anwendungszustand 192 zu aktualisieren. Alternativ weisen eine oder mehrere Anwendungsansichten 191 einen oder mehrere jeweilige Event Handler 190 auf. Ebenso sind in einigen Ausführungsformen ein oder mehrere Daten-Updater 176, Objekt-Updater 177 und GUI-Updater 178 in einer jeweiligen Anwendungsansicht 191 enthalten.
  • Ein jeweiliges Ereigniserkennungsmodul 180 empfängt Ereignisinformationen (z. B. Ereignisdaten 179) vom Ereignissortierer 170 und bestimmt ein Ereignis aus den Ereignisinformationen. Das Ereigniserkennungsmodul 180 enthält einen Ereignisempfänger 182 und einen Ereignisvergleicher 184. In einigen Ausführungsformen weist das Ereigniserkennungsmodul 180 wenigstens eine Teilmenge auf von: Metadaten 183 und Ereigniszustellungsanweisungen 188 (die optional Zustellungsanweisungen für untergeordnete Ereignisse enthalten).
  • Der Ereignisempfänger 182 empfängt Ereignisinformationen vom Ereignissortierer 170. Die Ereignisinformationen enthalten Informationen über ein untergeordnetes Ereignis, z. B. eine Berührung oder eine Berührungsbewegung. In Abhängigkeit von dem untergeordneten Ereignis weisen die Ereignisinformationen auch weitere Informationen auf, wie eine Position des untergeordneten Ereignisses. Wenn sich das untergeordnete Ereignis auf eine Bewegung einer Berührung bezieht, umfassen die Ereignisinformationen optional auch die Geschwindigkeit und die Richtung des untergeordneten Ereignisses. In einigen Ausführungsformen umfassen die Ereignisse die Rotation des Geräts von einer Ausrichtung in eine andere (z. B. von einer Hochformatausrichtung in eine Querformatausrichtung oder umgekehrt) und die Ereignisinformationen umfassen entsprechende Informationen über die aktuelle Ausrichtung (auch als Gerätelage bezeichnet) des Geräts.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformationen mit einem vordefinierten Ereignis oder Definitionen untergeordneter Ereignisse und bestimmt basierend auf dem Vergleich ein Ereignis oder untergeordnetes Ereignis oder bestimmt oder aktualisiert den Zustand eines Ereignisses oder untergeordneten Ereignisses. In einigen Ausführungsformen enthält das Betriebssystem 184 Ereignisdefinitionen 186. Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. bestimmte Folgen von untergeordneten Ereignissen) z. B. Ereignis 1 (187-1), Ereignis 2 (187-2) und weitere. In einigen Ausführungsformen umfassen untergeordnete Ereignisse in einem Ereignis 187 z. B. den Beginn einer Berührung, das Ende einer Berührung, die Bewegung einer Berührung, den Abbruch einer Berührung und mehrere Berührungen. In einem Beispiel ist die Definition für ein Ereignis 1 (187-1) ein doppeltes Antippen eines angezeigten Objekts. Das doppelte Antippen weist z. B. eine erste Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine bestimmte Zeitspanne, ein erstes Abheben (Berührungsende) für eine bestimmte Zeitspanne, eine zweite Berührung (Berührungsbeginn) auf dem dargestellten Objekt für eine bestimmte Zeitspanne und ein zweites Abheben (Berührungsende) für eine bestimmte Zeitspanne auf. In einem anderen Beispiel lautet die Definition für ein Ereignis 2 (187-2) ein Ziehen auf einem angezeigten Objekt. Das Ziehen weist z. B. eine Berührung (oder einen Kontakt) auf dem dargestellten Objekt für eine bestimmte Zeitspanne, eine Bewegung der Berührung über das berührungsempfindliche Anzeigesystem 112 und ein Abheben der Berührung (Berührungsende) auf. In einigen Ausführungsformen umfasst das Ereignis auch Informationen zu einem oder mehreren zugehörigen Event Handlern 190.
  • In einigen Ausführungsformen weist die Ereignisdefinition 187 eine Definition eines Ereignisses für ein betreffendes Benutzerschnittstellenobjekt auf. In einigen Ausführungsformen führt der Ereignisvergleicher 184 einen Eingabetest zur Bestimmung durch, welches Benutzerschnittstellenobjekt einem untergeordneten Ereignis zugeordnet ist. Zum Beispiel führt in einer Anwendungsansicht, in der drei Benutzerschnittstellenobjekte auf dem berührungsempfindlichen Anzeigesystem 112 angezeigt werden, bei der Erfassung einer Berührung auf dem berührungsempfindlichen Anzeigesystem 112 der Ereignisvergleicher 184 einen Eingabetest zur Bestimmung durch, welches der drei Benutzerschnittstellenobjekte der Berührung (untergeordnetes Ereignis) zugeordnet ist. Wenn jedes angezeigte Objekt einem entsprechenden Event Handler 190 zugeordnet ist, bestimmt der Ereignisvergleicher mit dem Ergebnis des Eingabetests, welcher Event Handler 190 aktiviert werden soll. Zum Beispiel wählt der Ereignisvergleicher 184 einen dem untergeordneten Ereignis und dem den Eingabetest auslösenden Objekt zugeordneten Event Handler aus.
  • In einigen Ausführungsformen enthält die Definition eines jeweiligen Ereignisses 187 auch verzögerte Aktionen, die die Zustellung der Ereignisinformationen verzögern, bis bestimmt wurde, ob die Folge der untergeordneten Ereignisse dem Ereignistyp des Ereigniserkennungsmoduls entspricht oder nicht.
  • Wenn ein jeweiliges Ereigniserkennungsmodul 180 bestimmt, dass die Serie der untergeordneten Ereignisse mit keinen Ereignissen in den Ereignisdefinitionen 186 übereinstimmt, gibt das jeweilige Ereigniserkennungsmodul 180 ein unmögliches Ereignis, ein fehlgeschlagenes Ereignis oder einen beendeten Zustand für ein Ereignis ein, nach dem nachfolgende untergeordnete Ereignisse der berührungsbasierten Geste ignoriert werden. In dieser Situation setzen andere Ereigniserkennungsmodule, sofern vorhanden, die für die Eingabeansicht weiterhin aktiv sind, die Verfolgung und Verarbeitung untergeordneter Ereignisse einer fortgesetzten berührungsbasierten Geste fort.
  • In einigen Ausführungsformen weist ein jeweiliges Ereigniserkennungsmodul 180 Metadaten 183 mit konfigurierbaren Eigenschaften, Flags und/oder Listen auf, die angeben, wie das Ereigniszustellungssystem die Zustellung eines untergeordneten Ereignisses an aktiv beteiligte Ereigniserkennungsmodule durchführen soll. In einigen Ausführungsformen weisen die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen auf, die angeben, wie Ereigniserkennungsmodule miteinander interagieren oder für die Interaktion miteinander ausgebildet sind. In einigen Ausführungsformen weisen die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen auf, die angeben, ob untergeordnete Ereignisse an wechselnde Ebenen in der Ansicht oder der Programmierhierarchie zugestellt werden.
  • In einigen Ausführungsformen aktiviert ein betreffendes Ereigniserkennungsmodul 180 einen dem Ereignis zugeordneten Event Handler 190, wenn ein oder mehrere bestimmte untergeordnete Ereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert ein jeweiliges Ereigniserkennungsmodul 180 dem Event Handler 190 mit dem Ereignis verknüpfte Ereignisinformationen. Das Aktivieren eines Event Handlers 190 ist nicht mit dem Senden (und verzögertem Senden) untergeordneter Ereignisse an eine betreffende Eingabeansicht gleichzusetzen. In einigen Ausführungsformen setzt ein Ereigniserkennungsmodul 180 ein dem erkannten Ereignis zugeordnetes Flag, und der dem Flag zugeordnete Event Handler 190 fängt das Flag ab und führt einen bestimmten Prozess durch.
  • In einigen Ausführungsformen weisen die Ereigniszustellungsanweisungen 188 Anweisungen zur Zustellung von untergeordneten Ereignissen auf, die Ereignisinformationen über ein untergeordnetes Ereignis zustellen, ohne einen Event Handler zu aktivieren. Stattdessen liefern die Zustellungsanweisungen des untergeordneten Ereignisses Ereignisinformationen an Event Handler, die der Serie untergeordneter Ereignisse oder aktiv beteiligten Ansichten zugeordnet sind. Die der Serie von untergeordneten Ereignissen oder aktiv beteiligten Ansichten zugeordneten Event Handler empfangen Ereignisinformationen und führen einen bestimmten Prozess durch.
  • In einigen Ausführungsformen erstellt der Daten-Updater 176 Daten, die in der Anwendung 136-1 verwendet werden, und aktualisiert diese. Zum Beispiel aktualisiert der Daten-Updater 176 die im Kontaktmodul 137 verwendete Telefonnummer oder speichert eine im Videowiedergabemodul 145 verwendete Videodatei. In einigen Ausführungsformen erstellt der Objekt-Updater 177 in der Anwendung 136-1 verwendete Objekte und aktualisiert diese. Zum Beispiel erstellt der Objekt-Updater 176 ein neues Benutzerschnittstellenobjekt oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Updater 178 aktualisiert die GUI. Z. B. bereitet der GUI-Updater 178 Anzeigeinformationen vor und sendet sie an das Grafikmodul 132 zur Anzeige auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen enthält/enthalten der/die Event Handler 190 einen Daten-Updater 176, einen Objekt-Updater 177 und einen GUI-Updater 178 oder haben Zugriff darauf. In einigen Ausführungsformen sind ein oder mehrere Daten-Updater 176, Objekt-Updater 177 und GUI-Updater 178 in einem einzelnen Modul einer entsprechenden Anwendung 136-1 oder Anwendungsansicht 191 enthalten. In anderen Ausführungsformen sind sie in zwei oder mehr Softwaremodulen enthalten.
  • Es versteht sich, dass die obige Erörterung bezüglich der Ereignisbehandlung von Benutzerberührungen auf berührungsempfindlichen Anzeigen auch für andere Formen der Benutzereingaben zur Bedienung von Multifunktionsgeräten 100 mit Eingabeeinrichtungen gilt, von denen nicht alle auf Touchscreens initiiert werden. Zum Beispiel werden optional eine Mausbewegung und das Herunterdrücken von Maustasten, die optional mit einzelnen oder mehrfachen Betätigungen von Tastaturtasten oder dem Halten von Tastaturtasten koordiniert werden; Kontaktbewegungen wie Antippen, Ziehen, Scrollen usw. auf Touchpads; Eingaben von Stylus-Stiften; Bewegungen des Geräts; Sprachanweisungen; erfasste Augenbewegungen; biometrische Eingaben; und/oder eine beliebige Kombination davon optional als Eingaben verwendet, die untergeordneten Ereignissen entsprechen, die ein zu erkennendes Ereignis definieren.
  • 2 veranschaulicht ein tragbares Multifunktionsgerät 100 mit einer berührungsempfindlichen Anzeige (z. B. berührungsempfindliches Anzeigesystem 112, 1A) gemäß einigen Ausführungsformen. Der Touchscreen zeigt optional eine oder mehrere Grafiken auf einer Benutzerschnittstelle (UI, User Interface) 200 an. In diesen Ausführungsformen, wie auch in anderen im Folgenden beschriebenen, wird es einem Benutzer ermöglicht, eine oder mehrere der Grafiken durch Ausführen einer Geste auf der Grafik auszuwählen, z. B. mit einem oder mehreren Fingern 202 (in der FIG. nicht maßstabsgetreu dargestellt) oder einem oder mehreren Stylusen 203 (in der FIG. nicht maßstabsgestreut dargestellt). In einigen Ausführungsformen erfolgt die Auswahl von einer oder mehreren Grafiken, wenn ein Benutzer den Kontakt mit der einen oder den mehreren Grafiken abbricht. In einigen Ausführungsformen weist die Geste optional einen oder mehrere Antippvorgänge, einen oder mehrere Streichvorgänge (von links nach rechts, von rechts nach links, nach oben und/oder nach unten) und/oder ein Rollen eines Fingers (von rechts nach links, von links nach rechts, nach oben und/oder unten) auf, der in Kontakt mit dem Gerät 100 steht. In einigen Implementierungen oder Situationen wählt ein unbeabsichtigter Kontakt mit einer Grafik die Grafik nicht aus. Zum Beispiel wird optional bei einer Streichgeste, mit der über ein Anwendungssymbol gestrichen wird, nicht die zugehörige Anwendung ausgewählt, wenn die Geste für die Auswahl ein Antippen ist.
  • Das Gerät 100 enthält optional auch eine oder mehrere physische Tasten, wie eine „Home”- oder Menütaste 204. Wie oben beschrieben, wird die Menütaste 204 optional zur Navigation zu jeder beliebigen Anwendung 136 in einer Gruppe von Anwendungen verwendet, die optional auf dem Gerät 100 ausgeführt werden. Alternativ wird in einigen Ausführungsformen die Menütaste als Softtaste in einer auf der Touchscreen-Anzeige 112 angezeigten GUI implementiert.
  • In einigen Ausführungsformen umfasst das Gerät 100 die Touchscreen-Anzeige 112, die Menütaste 204, die Drucktaste 206 zum Einschalten/Ausschalten des Geräts und Sperren des Geräts, den/die Lautstärkeanpassungsregler 208, den Subscriber Identity Module-(SIM-)Kartenschlitz 210, die Kopfhörerbuchse 212 und den Docking-/externen Lade-Port 124. Die Drucktaste 206 dient optional zum Einschalten/Ausschalten des Geräts, indem die Taste heruntergedrückt und im heruntergedrückten Zustand eine bestimmte Zeitspanne gehalten wird; zum Sperren des Geräts durch Herunterdrücken der Taste und Loslassen der Taste, bevor die bestimmte Zeitspanne verstrichen ist; und/oder zum Entsperren des Geräts oder zum Initiieren eines Entsperrungsprozesses. In einigen Ausführungsformen akzeptiert das Gerät 100 auch Spracheingaben zur Aktivierung oder Deaktivierung einiger Funktionen über das Mikrofon 113. Das Gerät 100 umfasst optional auch einen oder mehrere Kontaktintensitätssensoren 165 zum Erfassen der Intensität von Kontakten auf dem berührungsempfindlichen Anzeigesystem 112 und/oder von einem oder mehreren taktilen Ausgabegeneratoren 167 zum Generieren taktiler Ausgaben für einen Benutzer des Geräts 100.
  • 3 ist ein Blockdiagramm eines beispielhaften Multifunktionsgeräts mit einer Anzeige und einer berührungsempfindlichen Oberfläche gemäß einigen Ausführungsformen. Das Gerät 300 muss nicht tragbar sein. In einigen Ausführungsformen ist das Gerät 300 ein Laptop-Computer, ein Desktop-Computer, ein Tablet-Computer, ein Multimediawiedergabegerät, ein Navigationsgerät, ein Lerngerät (wie ein Lernspielzeug für Kinder), ein Spielesystem oder ein Steuergerät (z. B. eine Steuereinheit im privaten Bereich oder eine industrielle Steuereinheit). Das Gerät 300 weist in der Regel eine oder mehrere Verarbeitungseinheiten (CPUs) 310, ein oder mehrere Netzwerke oder andere Kommunikationsschnittstellen 360, Speicher 370 und einen oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten auf. Die Kommunikationsbusse 320 umfassen optional einen Schaltkreis (manchmal als Chipsatz bezeichnet), der die Kommunikation zwischen den Systemkomponenten verbindet und steuert. Das Gerät 300 umfasst eine Ein-/Ausgabe-(E/A-)Schnittstelle 330 mit der Anzeige 340, die in der Regel eine Touchscreen-Anzeige ist. Die E/A-Schnittstelle 330 umfasst optional eine Tastatur und/oder eine Maus (oder ein anderes Zeigegerät) 350 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Generieren von taktilen Ausgaben auf dem Gerät 300 (z. B. ähnlich dem/den taktilen Ausgabegenerator(en) 167, der/die oben mit Bezugnahme auf 1A beschrieben wurde(n)), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche und/oder Kontaktintensitätssensoren ähnlich den/dem Kontaktintensitätssensor(en) 165, der/die oben mit Bezugnahme auf 1A beschrieben wurde(n)). Der Speicher 370 umfasst Hochgeschwindigkeits-Direktzugriffspeicher, wie DRAM, SRAM, DDR RAM oder andere Direktzugriffs-Solid State-Speichergeräte; und weist optional nicht-flüchtigen Speicher, wie ein oder mehrere Magnetplatten-Speichergeräte, optische Platten-Speichergeräte, Flash-Speichergeräte oder andere nicht-flüchtige Solid-State-Speichergeräte auf. Der Speicher 370 umfasst optional ein oder mehrere von der/den CPU(s) 310 entfernt angeordneten Speichergeräte. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Datenstrukturen, die im Speicher 102 des tragbaren Multifunktionsgeräts 100 (1A) gespeichert sind, oder eine Teilmenge davon. Darüber hinaus speichert der Speicher 370 optional weitere Programme, Module und Datenstrukturen, die nicht im Speicher 102 des tragbaren Multifunktionsgeräts 100 vorhanden sind. Zum Beispiel speichert der Speicher 370 des Geräts 300 optional das Zeichnungsmodul 380, das Präsentationsmodul 382, das Textverarbeitungsmodul 384, das Website-Erstellungsmodul 386, das Disk-Authoring-Modul 388, das Tabellenkalkulationsmodul 390, das erste Videowiedergabemodul 392 (z. B. ein erstes Videowiedergabemodul eines Drittanbieters) und/oder ein zweites Videowiedergabemodul 394 (z. B. ein zweites Videowiedergabemodul eines Drittanbieters), während der Speicher 102 des tragbaren Multifunktionsgeräts 100 (1A) optional diese Module nicht speichert.
  • Ein jedes der oben in 3 angegebenen Elemente wird optional auf einem oder mehreren der zuvor erwähnten Speichergeräten gespeichert. Ein jedes der oben bestimmten Module entspricht einer Gruppe von Anweisungen zum Durchführen einer oben beschriebenen Funktion. Die oben bestimmten Module oder Programme (d. h. Gruppen von Anweisungen) brauchen in verschiedenen Ausführungsformen nicht als eigenständige Softwareprogramme, Prozeduren oder Module implementiert zu sein, und die verschiedenen Teilmengen dieser Module werden optional kombiniert oder anderweitig neu angeordnet. In einigen Ausführungsformen speichert der Speicher 370 optional eine Teilmenge der oben angeführten Module und Datenstrukturen. Weiterhin speichert der Speicher 370 optional weitere Module und Datenstrukturen, die oben nicht beschrieben wurden.
  • Es wird nun auf Ausführungsformen von Benutzerschnittstellen („UI”) eingegangen, die optional auf dem tragbaren Multifunktionsgerät 100 implementiert sind.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Anwendungsmenü auf einem tragbaren Multifunktionsgerät 100 gemäß einigen Ausführungsformen. Ähnliche Benutzerschnittstellen werden optional auf dem Gerät 300 implementiert. In einigen Ausführungsformen weist die Benutzerschnittstelle 400 die folgenden Elemente auf oder eine Teilmenge oder Obermenge davon:
    • • Signalstärkenindikator(en) 402 zur Funkkommunikation, wie für Mobilfunk- und WiFi-Signale;
    • • Zeitangabe 404;
    • • einen Bluetooth-Indikator;
    • • Akkustatus-Indikator 406;
    • • Ablagebereich 408 mit Symbolen für häufig verwendete Anwendungen, wie:
    • – Symbol 416 für ein Telefonmodul 138 mit der Bezeichnung „Telefon”, das optional einen Indikator 414 für die Anzahl der verpassten Anrufe oder Nachrichten auf dem Anrufbeantworter aufweist;
    • – Symbol 418 für das E-Mail-Client-Modul 140 mit der Bezeichnung „Mail”, das optional einen Indikator 410 für die Anzahl der ungelesenen E-Mails aufweist;
    • – Symbol 420 für das Browsermodul 147 mit der Bezeichnung „Browser”; und
    • – Symbol 422 für das Video- und Musikwiedergabemodul 152, das auch als iPod(Markenzeichen von Apple Inc.)-Modul bezeichnet wird, mit der Bezeichnung „iPod”; und
    • • Symbole für andere Anwendungen, wie:
    • – Symbol 424 für das IM-Modul 141 mit der Bezeichnung „Messages”;
    • – Symbol 426 für das Kalendermodul 148 mit der Bezeichnung „Kalender”;
    • – Symbol 428 für das Bildverwaltungsmodul 144 mit der Bezeichnung „Fotos”;
    • – Symbol 430 für das Kameramodul 143 mit der Bezeichnung „Kamera”;
    • – Symbol 432 für das Online-Video-Modul 155 mit der Bezeichnung „Online-Video”;
    • – Symbol 434 für das Aktien-Widget 149 mit der Bezeichnung „Aktien”;
    • – Symbol 436 für das Kartenmodul 154 mit der Bezeichnung „Karten”;
    • – Symbol 438 für das Wetter-Widget 149 mit der Bezeichnung „Wetter”;
    • – Symbol 440 für das Uhr-Widget 149 mit Alarmfunktion mit der Bezeichnung „Uhr”;
    • – Symbol 442 für das Workout-Support-Modul 142 mit der Bezeichnung „Workout”;
    • – Symbol 444 für das Notizmodul 153 mit der Bezeichnung „Notizen”; und
    • – Symbol 446 für eine Einstellungsanwendung oder ein Einstellungsmodul, die/das Zugriff auf Einstellungen für das Gerät 100 und die verschiedenen Anwendungen 136 davon bereitstellt.
  • Es ist hervorzuheben, dass die in 4A dargestellten Symbolbezeichnungen nur beispielhafter Natur sind. Zum Beispiel kann das Symbol 422 für das Video- und Musikwiedergabemodul 152 optional mit „Musik” oder „Musik-Player” bezeichnet werden. Weitere Bezeichnungen werden optional für verschiedene Anwendungssymbole verwendet. In einigen Ausführungsformen beinhaltet eine Bezeichnung für ein betreffendes Anwendungssymbol einen Namen einer Anwendung entsprechend dem jeweiligen Anwendungssymbol. In einigen Ausführungsformen unterscheidet sich eine Bezeichnung für ein bestimmtes Anwendungssymbol von einem Namen einer Anwendung, die dem bestimmten Anwendungssymbol entspricht.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle auf einem Gerät (z. B. Gerät 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), das von der Anzeige 450 getrennt ist. Das Gerät 300 enthält optional auch einen oder mehrere Kontaktintensitätssensoren (z. B. einen oder mehrere Sensoren 357) zum Erfassen der Intensität von Kontakten auf der berührungsempfindlichen Oberfläche 451 und/oder einen oder mehrere taktile Ausgabegeneratoren 359 zum Generieren von taktilen Ausgaben für einen Benutzer des Geräts 300.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle auf einem Gerät (z. B. Gerät 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), das von der Anzeige 450 getrennt ist. Viele der folgenden Beispiele werden mit Bezugnahme auf ein Gerät vorgenommen, das Eingaben auf einer berührungsempfindlichen Oberfläche erfasst, die von einer Anzeige getrennt ist, wie in 4B dargestellt. In einigen Ausführungsformen weist die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 452 in 4B) auf, die einer primären Achse (z. B. 453 in 4B) auf der Anzeige (z. B. 450) entspricht. Gemäß diesen Ausführungsformen erfasst das Gerät Kontakte (z. B. 460 und 462 in 4B) auf der berührungsempfindlichen Oberfläche 451 an Positionen, die jeweiligen Positionen auf der Anzeige entsprechen (z. B. entspricht 460 in 4B 468 und 462 entspricht 470). Auf diese Weise werden von dem Gerät auf der berührungsempfindlichen Oberfläche (z. B. 451 in 4B) erfasste Benutzereingaben (z. B. die Kontakte 460 und 462 und Bewegungen davon) von dem Gerät zum Manipulieren der Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) des Multifunktionsgeräts verwendet, wenn die berührungsempfindliche Oberfläche von der Anzeige getrennt ist. Es versteht sich, dass ähnliche Verfahren optional für andere in diesem Dokument beschriebene Benutzerschnittstellen verwendet werden.
  • Darüber hinaus versteht es sich, wenngleich die folgenden Beispiele vor allem mit Bezugnahme auf Fingereingaben (z. B. Fingerkontakte, Fingerantippgesten, Fingerstreichgesten usw.) ausgeführt werden, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch Eingaben von einem anderen Eingabegerät (z. B. einer mausbasierten Eingabe oder einer Stylus-Eingabe) oder einer Eingabe eines anderen Typs auf dem gleichen Gerät (z. B. Drücken einer Taste) ersetzt wird bzw. werden. Zum Beispiel wird eine Streichgeste optional durch einen Mausklick (z. B. anstelle eines Kontakts), gefolgt von einer Bewegung des Cursors entlang des Streichpfads (z. B. anstelle einer Bewegung des Kontakts) ersetzt. Als weiteres Beispiel wird eine Antippgeste optional durch einen Mausklick ersetzt, während sich der Cursor an der Position der Antippgeste befindet (z. B. anstatt der Erfassung des Kontakts gefolgt vom Beenden der Erfassung des Kontakts). Ebenso, wenn mehrere Benutzereingaben gleichzeitig erfasst werden, versteht es sich, dass optional mehrere Computermäuse gleichzeitig verwendet werden oder optional eine Maus und Fingerkontakte gleichzeitig verwendet werden.
  • Wie im vorliegenden Dokument verwendet, bezieht sich der Begriff „Fokusselektor” auf ein Eingabeelement, das eine aktuelle Komponente einer Benutzerschnittstelle angibt, mit der ein Benutzer interagiert. In einigen Implementierungen, die einen Cursor oder eine andere Positionsmarkierung umfassen, fungiert der Cursor als „Fokusselektor”, sodass beim Erfassen einer Eingabe (z. B. einer Druckeingabe) auf einer berührungsempfindlichen Oberfläche (z. B. Touchpad 355 in 3 oder die berührungsempfindliche Oberfläche 451 in 4B), während sich der Cursor über einem bestimmten Benutzerschnittstellenelement befindet (z. B. einer Schaltfläche, einem Fenster, einem Schieberegler oder einem anderen Benutzerschnittstellenelement), das betreffende Benutzerschnittstellenelement gemäß der erfassten Eingabe angepasst wird. In einigen Implementierungen, die eine Touchscreen-Anzeige umfassen (z. B. ein berührungsempfindliches Anzeigesystem 112 in 1A oder einen Touchscreen 112 in 4A), die eine direkte Interaktion mit Benutzerschnittstellenelementen auf der Touchscreen-Anzeige ermöglicht, fungiert ein auf dem Touchscreen erfasster Kontakt als „Fokusselektor”, sodass beim Erfassen einer Eingabe (z. B. einer Druckeingabe durch den Kontakt) auf der Touchscreen-Anzeige an einer Position eines bestimmten Benutzerschnittstellenelements (z. B. einer Schaltfläche, eines Fensters, eines Schiebereglers oder eines anderen Benutzerschnittstellenelements) das bestimmte Benutzerschnittstellenelement gemäß der erfassten Eingabe angepasst wird. In einigen Implementierungen wird der Fokus von einem Bereich einer Benutzerschnittstelle auf einen anderen Bereich der Benutzerschnittstelle verschoben, ohne dass eine enstprechende Bewegung eines Cursors oder eine Bewegung eines Kontakts auf einer Touchscreen-Anzeige erfolgt (z. B. durch Verwenden einer Tabulatortaste oder der Pfeiltasten, um den Fokus von einer Schaltfläche auf eine andere Schaltfläche zu versetzen). In diesen Implementierungen wird der Fokusselektor gemäß der Versetzung des Fokus zwischen verschiedenen Bereichen der Benutzerschnittstelle versetzt. Ungeachtet der spezifischen Form des Fokusselektors ist der Fokusselektor im Allgemeinen das Benutzerschnittstellenelement (oder der Kontakt auf einer Touchscreen-Anzeige), das von dem Benutzer gesteuert wird, um so die beabsichtigte Interaktion des Benutzers mit der Benutzerschnittstelle zu kommunizieren (z. B. indem dem Gerät das Benutzerschnittstellenelement angegeben wird, mit dem der Benutzer zu interagieren beabsichtigt). Zum Beispiel gibt die Position eines Fokusselektors (z. B. eines Cursors, eines Kontakts oder eines Auswahlfelds) auf einer entsprechenden Schaltfläche, während eine Druckeingabe auf der berührungsempfindlichen Oberfläche (z. B. Touchpad oder Touchscreen) erfasst wird, an, dass der Benutzer beabsichtigt, die betreffende Schaltfläche zu aktivieren (im Unterschied zu anderen Benutzerschnittstellenelementen, die auf einer Anzeige des Geräts angezeigt werden).
  • 4C veranschaulicht beispielhafte elektronische Geräte, die in Kommunikation mit einer Anzeige 450 und einer berührungsempfindlichen Oberfläche 452 stehen. Für wenigstens eine Teilmenge der Computing-Geräte ist die Anzeige 450 und/oder die berührungsempfindliche Oberfläche 452 in das Computing-Gerät gemäß einigen Ausführungsformen integriert. Wenngleich die im Folgenden ausführlicher beschriebenen Beispiele mit Bezugnahme auf eine berührungsempfindliche Oberfläche 451 und eine Anzeige 450 beschrieben werden, die in Kommunikation mit einem Computing-Gerät stehen (z. B. tragbares Multifunktionsgerät 100 in 1A1B oder Gerät 300 in 3), versteht es sich, dass gemäß einigen Ausführungsformen, die berührungsempfindliche Oberfläche und/oder die Anzeige in das Computing-Gerät integriert ist/sind, während in anderen Ausführungsformen eines oder mehrere von der berührungsempfindlichen Oberfläche und der Anzeige vom Computing-Gerät getrennt sind. Darüber hinaus weist in einigen Ausführungsformen das Computing-Gerät eine integrierte Anzeige und/oder eine integrierte berührungsempfindliche Oberfläche auf und befindet sich in Kommunikation mit einer oder mehreren weiteren Anzeigen und/oder berührungsempfindlichen Oberflächen, die vom Computing-Gerät getrennt sind.
  • In einigen Ausführungsformen werden alle der im Folgenden mit Bezugnahme auf 5A5ZZZZ beschriebenen Operationen auf einem einzelnen Computing-Gerät mit einer Benutzerschnittstellen-Navigationslogik 480 durchgeführt (z. B. Computing-Gerät A, das im Folgenden mit Bezugnahme auf 4C beschrieben wird). Es versteht sich jedoch, dass häufig mehrere unterschiedliche Computing-Geräte zusammen verbunden sind, um Operationen durchzuführen, die im Folgenden mit Bezugnahme auf 5A5ZZZZ beschrieben werden (z. B. kommuniziert ein Computing-Gerät mit einer Benutzerschnittstellen-Navigationslogik 480 mit einem separaten Computing-Gerät mit einer Anzeige 440 und/oder einem separaten Computing-Gerät mit einer berührungsempfindlichen Oberfläche 451). In einer beliebigen dieser Ausführungsformen ist das Computing-Gerät, das im Folgenden mit Bezugnahme auf 5A5ZZZZ beschrieben wird, das Computing-Gerät (oder die Geräte), das/die die Benutzerschnittstellenlogik 480 enthält/enthalten. Darüber hinaus versteht es sich, dass die Benutzerschnittstellen-Navigationslogik 480 in verschiedenen Ausführungsformen zwischen mehreren eigenständigen Modulen oder Computing-Geräten aufgeteilt sein kann; zum Zwecke der Beschreibung im vorliegenden Dokument wird die Benutzerschnittstellen-Navigationslogik 480 in erster Linie jedoch als auf einem einzelnen Computing-Gerät befindlich beschrieben, um andere Aspekte der Ausführungsformen nicht unnötig zu verschleiern.
  • In einigen Ausführungsformen umfasst die Benutzerschnittstelle-Navigationslogik 480 ein oder mehrere Module (z. B. ein oder mehrere Event Handler 190, einschließlich eines oder mehrerer Objekt-Updater 177 und eines oder mehrerer GUI-Updater 178, wie ausführlicher oben mit Bezugnahme auf 1B beschrieben), die interpretierte Eingaben empfangen und in Reaktion auf diese interpretierten Eingaben Anweisungen zur Aktualisierung einer grafischen Benutzerschnittstelle gemäß der interpretierten Eingaben generieren, die im Folgenden zur Aktualisierung der grafischen Benutzerschnittstelle auf einer Anzeige verwendet werden. In einigen Ausführungsformen wird eine interpretierte Eingabe für eine Eingabe, die erfasst wurde (z. B. durch ein Kontaktbewegungsmodul 130 in 1A und 3), erkannt wurde (z. B. durch ein Ereigniserkennungsmodul 180 in 1B) und/oder verteilt wurde (z. B. durch den Ereignissortierer 170 in 1B) zur Aktualisierung der grafischen Benutzerschnittstelle auf der Anzeige verwendet. In einigen Ausführungsformen werden die interpretierten Eingaben durch Module auf dem Computing-Gerät generiert (z. B. empfängt das Computing-Gerät unbearbeitete Kontakteingabedaten, um so Gesten aus den unbearbeiteten Kontakteingabedaten zu identifizieren). In einigen Ausführungsformen werden einige oder alle der interpretierten Eingaben von einem Computing-Gerät als interpretierte Eingaben empfangen (z. B. verarbeitet ein Computing-Gerät, das die berührungsempfindliche Oberfläche 451 enthält, unbearbeitete Kontakteingabedaten, um so die Gesten aus den unbearbeiteten Kontakteingabedaten zu identifizieren, und sendet Informationen, die die Gesten angeben, an das Computing-Gerät, das die Benutzerschnittstellen-Navigationslogik 480 umfasst).
  • In einigen Ausführungsformen sind sowohl die Anzeige 450 als auch die berührungsempfindliche Oberfläche 451 in das Computing-Gerät integriert (z. B. das Computing-Gerät A in 4C), das die Benutzerschnittstellen-Navigationslogik 480 enthält. Zum Beispiel kann das Computing-Gerät ein Desktop-Computer oder ein Laptop-Computer mit einer integrierten Anzeige (z. B. 340 in 3) und einem Touchpad (z. B. 355 in 3) sein. Als weiteres Beispiel kann das Computing-Gerät ein tragbares Multifunktionsgerät 100 (z. B. ein Smartphone, PDA, Tablet-Computer usw.) mit einem Touchscreen (z. B. 112 in 2) sein.
  • In einigen Ausführungsformen ist die Anzeige 451 in das Computing-Gerät integriert, während die berührungsempfindliche Oberfläche 451 nicht in das Computing-Gerät integriert ist (z. B. Computing-Gerät B in 4C), das die Benutzerschnittstellen-Navigationslogik 480 enthält. Zum Beispiel kann das Computing-Gerät ein Gerät 300 (z. B. ein Desktop-Computer oder Laptop-Computer) mit einem integrierten Touchpad (z. B. 355 in 3) sein, das mit einer getrennten Anzeige (z. B. einem Computerbildschirm, Fernseher usw.) (über eine kabelgebundene oder Funkverbindung) verbunden ist. Als weiteres Beispiel kann das Computing-Gerät ein tragbares Multifunktionsgerät 100 (z. B. ein Smartphone, PDA, Tablet-Computer usw.) mit einem Touchscreen (z. B. 112 in 2) sein, das mit einer getrennten Anzeige (z. B. einem Computerbildschirm, Fernseher usw.) (über eine kabelgebundene oder Funkverbindung) verbunden ist.
  • In einigen Ausführungsformen ist die Anzeige 450 in das Computing-Gerät integriert, während die berührungsempfindliche Oberfläche 451 nicht in das Computing-Gerät integriert ist (z. B. das Computing-Gerät C in 4C), das die Benutzerschnittstellen-Navigationslogik 480 enthält. Zum Beispiel kann das Computing-Gerät ein Gerät 300 (z. B. ein Desktop-Computer, Laptop-Computer, Fernseher mit integrierter Set-Top-Box) mit einer integrierten Anzeige (z. B. 340 in 3) sein, das mit einer getrennten berührungsempfindlichen Oberfläche (z. B. einem entfernten Touchpad, einem tragbaren Multifunktionsgerät usw.) (über eine kabelgebundene oder Funkverbindung) verbunden ist. Als weiteres Beispiel kann das Computing-Gerät ein tragbares Multifunktionsgerät 100 (z. B. ein Smartphone, PDA, Tablet-Computer usw.) mit einem Touchscreen (z. B. 112 in 2) sein, das mit einer getrennten berührungsempfindlichen Oberfläche (z. B. einem entfernten Touchpad, einem anderen tragbaren Multifunktionsgerät mit einem Touchscreen, der als entferntes Touchpad dient, usw.) (über eine kabelgebundene oder Funkverbindung) verbunden ist.
  • In einigen Ausführungsformen sind weder die Anzeige 450 noch die berührungsempfindliche Oberfläche 451 in das Computing-Gerät integriert (z. B. das Computing-Gerät D in 4C), das die Benutzerschnittstellen-Navigationslogik 480 enthält. Zum Beispiel kann das Computing-Gerät ein eigenständiges Computing-Gerät 300 (z. B. ein Desktop-Computer, Laptop-Computer, Konsole, Set-Top-Box usw.) sein, das mit einer getrennten berührungsempfindlichen Oberfläche (z. B. einem entfernten Touchpad, einem tragbaren Multifunktionsgerät usw.) und einer getrennten Anzeige (z. B. einem Computerbildschirm, Fernseher usw.) (über eine kabelgebundene oder Funkverbindung) verbunden ist. Als weiteres Beispiel kann das Computing-Gerät ein tragbares Multifunktionsgerät 100 (z. B. ein Smartphone, PDA, Tablet-Computer usw.) mit einem Touchscreen (z. B. 112 in 2) sein, das mit einer getrennten berührungsempfindlichen Oberfläche (z. B. einem entfernten Touchpad, einem anderen tragbaren Multifunktionsgerät mit einem Touchscreen, der als entferntes Touchpad dient usw.) (über eine kabelgebundene oder Funkverbindung) verbunden ist.
  • In einigen Ausführungsformen verfügt das Computing-Gerät über ein integriertes Audiosystem. In einigen Ausführungsformen steht das Computing-Gerät in Kommunikation mit einem Audiosystem, das vom Computing-Gerät getrennt ist. In einigen Ausführungsformen ist das Audiosystem (z. B. ein Audiosystem, das in eine Fernsehgeräteinheit integriert ist) in eine separate Anzeige 450 integriert. In einigen Ausführungsformen ist das Audiosystem (z. B. ein Stereosystem) ein eigenständiges System, das vom Computing-Gerät und von der Anzeige 450 getrennt ist.
  • BENUTZERSCHNITTSTELLEN UND ZUGEORDNETE PROZESSE
  • Es wird nun auf Ausführungsformen von Benutzerschnittstellen („UI”, User Interfaces) und zugehörige Prozesse eingegangen, die bei einem elektronischen Gerät implementiert werden können, das mit einer Anzeige und einer berührungsempfindlichen Oberfläche kommuniziert und/oder eine Anzeige und eine berührungsempfindliche Oberfläche enthält, wie eines der Computing-Geräte A bis D in 4C.
  • 5A5ZZZZ veranschaulichen beispielhafte Benutzerschnittstellen zur Navigation durch Medieninhalt gemäß einigen Ausführungsformen. Die Benutzerschnittstellen in den Abbildungen dienen auch dazu, die im Folgenden beschriebenen Prozesse zu veranschaulichen, darunter die Prozesse in 12A12E. Obwohl einige der folgenden Beispiele mit Bezug auf Eingaben auf einer berührungsempfindlichen Oberfläche 451 dargestellt werden, die von der Anzeige 450 getrennt ist, erfasst das Gerät in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Anzeige (wo die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), wie in 4A dargestellt. Obwohl einige der folgenden Beispiele mit Bezugnahme auf Eingaben auf einem entfernten Benutzereingabegerät (z. B. einer Fernbedienung) vorgenommen werden, die vom Gerät getrennt ist, umfasst das Gerät in einigen Ausführungsformen ein integriertes Benutzereingabegerät (z. B. ein Trackpad).
  • 5A veranschaulicht eine Anzeige 450 und eine zugehörige Fernbedienung 5001 (die zum Beispiel beide mit Gerät 100 oder 300 kommunizieren). In einigen Ausführungsformen verfügt die Fernbedienung 5001 über eine berührungsempfindliche Oberfläche 451. In einigen Ausführungsformen verfügt die Fernbedienung 5001 ebenso über eine oder mehrere Tasten oder Angebote, wie eine Menütaste 5002, eine Mikrofontaste 5003, eine Wiedergabe-/Pausentaste 5004, eine Filmlisten-Taste 5005, eine Lautstärkenerhöhungstaste 5009 und/oder eine Lautstärkenverringerungstaste 5007. In einigen Ausführungsformen ermöglicht eine Menütaste 5002 oder ein analoges Angebot die Anzeige einer Home-Bildschirm-Benutzerschnittstelle auf der Anzeige 450. In einigen Ausführungsformen ermöglicht eine Menütaste 5002 oder ein analoges Angebot das Zurücknavigieren zu einer zuvor angezeigten Benutzerschnittstelle. In einigen Ausführungsformen ermöglicht eine Mikrofontaste 5003 oder ein analoges Angebot einem Benutzer das Bereitstellen gesprochener Befehle oder Spracheinträge für das Gerät (z. B. Gerät 100 oder 300). In einigen Ausführungsformen wird mit der Wiedergabe-/Pausentaste 5004 das auf der Anzeige 450 dargestellte Audio- oder visuelle Medium vom Gerät (z. B. Gerät 100 oder 300) wiedergegeben oder pausiert. In einigen Ausführungsformen ermöglicht eine Filmlisten-Taste 5005 die Anzeige einer Filmlisten-Benutzerschnittstelle auf der Anzeige 450. In einigen Ausführungsformen stellt eine Filmlisten-Benutzerschnittstelle einem Benutzer mehrere Audio-/visuelle Mediaelemente zur Wiedergabe mit dem Gerät (z. B. Gerät 100 oder 300) bereit.
  • 5A veranschaulicht auch eine Bildschirmschoner-Ansicht 5008, die auf der Anzeige 450 angezeigt wird. In einigen Ausführungsformen wird die Bildschirmschoner-Ansicht 5008 in Reaktion auf die Bestimmung angezeigt, dass die Fernbedienung 5001 unbewegt ist (z. B. ist die Fernbedienung 5001 auf einer feststehenden Oberfläche, wie auf einem Tisch, abgelegt und/oder auf der Fernbedienung 5001 wird für eine bestimmte Zeitspanne keine Eingabe vorgenommen).
  • 5B zeigt einen Bewegungseffekt (z. B. Hineinzoomen in eine Ansicht einer Brücke) in der Bildschirmschoner-Ansicht 5008. In einigen Ausführungsformen zeigt der Bildschirmschoner den Bewegungseffekt durch Anwenden eines Verschiebe-(Pan) und/oder Zoomeffekts auf ein Standbild. In einigen Ausführungsformen zeigt der Bildschirmschoner den Bewegungseffekt durch Wiedergabe eines Videos.
  • In 5C und 5D vergrößert die Bildschirmschoner-Ansicht 5008 die Brücke durch Hineinzoomen (Zoom-in).
  • Der in 5B bis 5D dargestellte Bewegungseffekt (z. B. die Hineinzoom-Operation) wird in Abwesenheit einer Eingabe auf der Fernbedienung 5001 vorgesehen (z. B. wird der Bewegungseffekt unabhängig vom Drücken einer Taste oder eines Kontakts auf einer berührungsempfindlichen Oberfläche 451 initiiert).
  • 5D veranschaulicht auch, dass der Kontakt 5401 auf der berührungsempfindlichen Oberfläche 451 erfasst wird, wobei die Bildschirmschoner-Ansicht 5008 die Brücke durch Hineinzoomen vergrößert.
  • 5E5F veranschaulichen, dass in Reaktion auf das Erfassen des Kontakts 5401 auf der berührungsempfindlichen Oberfläche 451 (und optional während der Kontakt 5401 auf der berührungsempfindlichen Oberfläche 451 bleibt) die Bildschirmschoner-Ansicht 5008 die die Brücke durch Herauszoomen verkleinert (Zoom-out).
  • 5F veranschaulicht auch, dass die Erfassung des Kontakts 5401 (in 5E dargestellt) auf der berührungsempfindlichen Oberfläche 451 beendet wird, während die Bildschirmschoner-Ansicht 5008 die Brücke durch Herauszoomen verkleinert.
  • 5F5G veranschaulichen, dass in Reaktion auf das Erfassen, dass der Kontakt 5401 nicht mehr auf der berührungsempfindlichen Oberfläche 451 erfasst wird, die Bildschirmschoner-Ansicht 5008 die Brücke durch Hineinzoomen vergrößert.
  • 5H veranschaulicht, dass eine Bewegung von Kontakt 5402 (z. B. eine Streichgeste nach links) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5I veranschaulicht, dass in einigen Ausführungsformen in Reaktion auf das Erfassen der Bewegung von Kontakt 5402 (z. B. eine Streichgeste nach links), eine Wiedergaberichtung des Videos (wenn der Bewegungseffekt durch Wiedergabe des Videos vorgesehen wird) oder eine Richtung des Hineinzoomens/Herauszoomens umgekehrt wird. Zum Beispiel zeigt 5I das Verkleinern der Brücke durch Herauszoomen, anstatt die Ansicht der Brücke wie in 5F bis 5H dargestellt zu vergrößern.
  • 5I veranschaulicht auch, dass eine Bewegung von Kontakt 5403 (z. B. eine Streichgeste nach unten) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5J veranschaulicht, dass in Reaktion auf das Erfassen der Bewegung von Kontakt 5403 (z. B. eine Streichgeste nach unten) der Bildschirmschoner 5008 die vergrößerte Ansicht der Brücke zeigt. Dies bietet eine visuelle Wahrnehmung, dass der Benutzer das in der Bildschirmschoner-Ansicht 5008 (z. B. die Brücke) dargestellte Objekt näher zum Benutzer herangezogen hat (z. B. durch das Hineinzoomen in das Objekt).
  • 5K veranschaulicht die Benutzereingabe 5404, wo eine Fernbedienung 5001 aufgenommen wird.
  • 5L veranschaulicht, dass in Reaktion auf das Erfassen, dass die Fernbedienung 5001 aufgenommen wurde, die aktuelle Zeit und das Datum 5010 auf der Anzeige 450 angezeigt werden. In 5L werden die aktuelle Zeit und das Datum 5010 ebenso auf der Bildschirmschoner-Ansicht 5008 überlagert.
  • 5L veranschaulicht auch, dass die Eingabe 5405 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5M veranschaulicht, dass in Reaktion auf das Erfassen der Eingabe 5405 Metadaten 5011 über das im Bildschirmschoner 5008 angezeigte Bild oder Video auf der Anzeige 450 angezeigt werden. In 5M werden Metadaten 5011 auf der Bildschirmschoner-Ansicht 5008 überlagert.
  • 5N veranschaulicht, dass eine Bewegung von Kontakt 5406 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5O veranschaulicht, dass in Reaktion auf das Erfassen der Bewegung von Kontakt 5406 (z. B. eine Streichgeste nach rechts) die Bildschirmschoner-Ansicht 5009, die sich von der Bildschirmschoner-Ansicht 5008 unterscheidet, angezeigt wird. In 5O enthält die Bildschirmschoner-Ansicht 5009 einen Bewegungseffekt für eine Ansicht eines Strands, der sich vom Bewegungseffekt einer Ansicht einer Brücke, wie in 5N dargestellt, unterscheidet.
  • 5P veranschaulicht, dass die Ansicht des Strands durch Zoom- und Verschiebeeffekte angezeigt wird, die sich von dem Bewegungseffekt mit ausschließlichem Zoomen, wie in 5B5D dargestellt, unterscheiden.
  • 5P veranschaulicht ebenso, dass die Eingabe 5407, ein Drücken auf der Menütaste 5002, erfasst wird.
  • 5Q veranschaulicht, dass in Reaktion auf Eingabe 5407 (5P) die Home-Bildschirm-Benutzerschnittstelle 5018 auf der Anzeige 450 angezeigt wird. In 5Q enthält die Home-Bildschirm-Benutzerschnittstelle 5018 den Bereich 5014, der mehrere Anwendungssymbole 5015-a bis 5015-e enthält. Das Anwendungssymbol 5015-a wird von den anderen Anwendungssymbolen 5015-b bis 5015-e visuell unterschieden (z. B. ist das Anwendungssymbol 5015-a vergrößert und wird mit einem Schatten und/oder einer Hervorhebung dargestellt), um anzugeben, dass sich ein aktueller Fokus auf dem Anwendungssymbol 5015-a befindet. Die Home-Bildschirm-Benutzerschnittstelle 5018 enthält auch Bereich 5012. Der Bereich 5012 enthält eine oder mehrere Symbole, die einem Anwendungssymbol 5015 mit einem aktuellen Fokus entsprechen. In 5Q liegt der aktuelle Fokus auf dem Anwendungssymbol 5015-a (z. B. „Film App A”), und der Bereich 5012 zeigt Filmposter 5013-a bis 5013-c. In einigen Ausführungsformen enthält die Home-Bildschirm-Benutzerschnittstelle 5018 den Bereich 5016 mit weiteren Benutzerschnittstellenobjekten (z. B. Symbole für andere Medieninhaltselemente).
  • 5R5U veranschaulichen, dass eine Bewegung von Kontakt 5408 von der Position 5408-a zu 5408-d auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • In 5R5T wird die Bewegung von Kontakt 5408 auch unter Verwendung eines Entfernungsrasters 5200 veranschaulicht, das einen Grenzwertabstand zeigt, an dem der aktuelle Fokus zum nächsten Symbol übergeht (z. B. initiiert eine Bewegung von Kontakt 5408 von einer anfänglichen Position 5201-a zum Grenzwertabstand 5201-d das Versetzen des aktuellen Fokus von einem aktuellen Symbol auf ein benachbartes Symbol).
  • 5S5T veranschaulichen das Neigen von Anwendungssymbol 5015-a gemäß der Bewegung von Kontakt 5408 (und der zugehörigen Position von Kontakt 5408 im Raster 5200 an Position 5201-b und Position 5201-c). Wie in 5S5T dargestellt, wenn sich der Kontakt 5408 weiter zu einem benachbarten Symbol (z. B. Symbol 5015-b) bewegt, neigt sich Symbol 5015-a mit dem aktuellen Fokus weiter in Richtung des benachbarten Symbols (z. B. Symbol 5015-b).
  • 5U veranschaulicht, dass der Kontakt 5408 an die Position 5408-d bewegt wurde und in Reaktion darauf wurde der aktuelle Fokus vom Symbol 5015-a auf Symbol 5015-b verschoben (z. B. wird das Symbol 5015-b vergrößert und mit einem Schatten und/oder einer Hervorhebung dargestellt). In 5U wird die Größe des Symbols 5015-a verkleinert (von der vorherigen vergrößerten Größe) und es wird ohne Schatten und/oder Hervorhebung dargestellt. Darüber hinaus wird in 5U ein neues Raster 5202 gezeigt, um die Position des aktuellen Fokus in Bezug zu Symbol 5015-b anzugeben.
  • 5U zeigt ebenso, dass der Bereich 5012 Albumposter-Symbole enthält (z. B. Albumposter-Symbole 5017-a bis 5017-c), die Symbol 5015-b entsprechen (z. B. das Anwendungssymbol „iTunes”).
  • 5V5X veranschaulichen eine Bewegung von Kontakt 5409 von Position 5409-a zu Position 5409-c auf der berührungsempfindlichen Oberfläche 451 (und den zugehörigen Positionen 5205-a bis 5205-c im Raster 5204). 5V5X veranschaulichen auch das Neigen von Symbol 5015-b gemäß der Bewegung von Kontakt 5409 und das Bewegen des aktuellen Fokus von Symbol 5015-b zu Symbol 5015-c, wenn der Kontakt 5409 sich um einen Grenzwertabstand bewegt (z. B. wenn eine entsprechende Position von Kontakt 5409 im Raster 5204 eine Kante von Raster 5204 erreicht). In 5X wird ein Raster 5206 gezeigt, um die Position des aktuellen Fokus in Bezug zu Symbol 5015-b anzugeben.
  • 5X zeigt ebenso, dass der Bereich 5012 Filmlisten-Element-Symbole enthält (z. B. Filmlisten-Element-Symbole 5036-a bis 5036-c), die Symbol 5015-c entsprechen (z. B. das Symbol „Filmliste”).
  • 5Y5Z veranschaulichen eine Bewegung von Kontakt 5410 von Position 5410-a zu Position 5410-b (und die zugehörigen Positionen 5209-a bis 5207-b im Raster 5207). 5Z veranschaulicht auch das Neigen von Symbol 5015-c gemäß der Bewegung von Kontakt 5410.
  • 5AA veranschaulicht, dass die Erfassung von Kontakt 5410 auf der berührungsempfindlichen Oberfläche 451 beendet wird, und das Symbol 5015-c sich zurückneigt (z. B. wird das Symbol 5015-c ohne Neigung dargestellt).
  • 5BB5DD veranschaulichen eine Bewegung eines Symbols (z. B. Symbol 5015-a), wenn ein aktueller Fokus vom Symbol auf ein benachbartes Symbol (z. B. Symbol 5015-b) gemäß einigen Ausführungsformen übergeht.
  • 5BB zeigt, dass der aktuelle Fokus auf Symbol 5015-a liegt. In 5BB wird das Symbol 5015-a im Vergleich zu den Symbolen 5015-b bis 5015-e vergrößert. 5BB enthält die Bezugslinie 5019. Die Bezugslinie 5019 wird zur Darstellung der Bewegung von Symbol 5015-a in 5BB5JJ verwendet. Die Bezugslinie 5019 wird aber nicht auf der Anzeige 450 dargestellt. In 5BB wird das Symbol 5015-a an Bezugslinie 5019 ausgerichtet (z. B. geht die Bezugslinie 5019 durch eine Mitte von Symbol 5015-a).
  • 5CC veranschaulicht, dass sich Symbol 505-a in Richtung Symbol 5015-b gemäß einer Bewegung eines Kontakts bewegt (z. B. einer Bewegung eines Kontakts in Richtung der rechten Seite der berührungsempfindlichen Oberfläche 451, wie die Bewegung von Kontakt 5408 von Position 5408-a zu Position 5408-b, wie in 5R5S dargestellt).
  • 5DD veranschaulicht, dass sich der aktuelle Fokus von Symbol 5015-a auf Symbol 5015-b verschoben hat. In 5DD ist Symbol 5015-b im Vergleich zu den Symbolen 5015-a und 5015-c bis 5015-e vergrößert. In 5DD wird die Größe von Symbol 5015-a verkleinert (im Vergleich zur Größe von Symbol 5015-a in 5BB) und Symbol 5015-a bewegt sich zurück an die Ausgangsposition, wo Symbol 5015-a mit der Bezugslinie 5019 ausgerichtet ist (z. B. verläuft die Bezugslinie 5019 durch eine Mitte von Symbol 5015-a).
  • 5EE5HH veranschaulichen gemäß einigen Ausführungsformen eine Neigung eines Symbols (z. B. Symbol 5015-a), wenn ein aktueller Fokus vom Symbol auf ein benachbartes Symbol (z. B. Symbol 5015-b) übergeht.
  • 5EE zeigt, dass der aktuelle Fokus auf Symbol 5015-a liegt. In 5EE wird das Symbol 5015-a im Vergleich zu den Symbolen 5015-b bis 5015-e vergrößert.
  • 5FF veranschaulicht, dass sich Symbol 5015-a in Richtung Symbol 5015-b gemäß einer Bewegung eines Kontakts neigt (z. B. einer Bewegung eines Kontakts in Richtung der rechten Seite der berührungsempfindlichen Oberfläche 451, wie die Bewegung von Kontakt 5408 von Position 5408-a zu Position 5408-b, wie in 5R5S dargestellt).
  • 5GG veranschaulicht, dass Symbol 5015-a sich weiter in Richtung Symbol 5015-b gemäß einer Bewegung eines Kontakts neigt (z. B. einer weiteren Bewegung eines Kontakts in Richtung der rechten Seite der berührungsempfindlichen Oberfläche 451, wie die Bewegung von Kontakt 5408 von Position 5408-b zu Position 5408-c, wie in 5S5T dargestellt).
  • 5HH veranschaulicht, dass der aktuelle Fokus sich von Symbol 5015-a auf Symbol 5015-b verschoben hat. In 5HH ist Symbol 5015-b im Vergleich zu den Symbolen 5015-a und 5015-c bis 5015-e vergrößert. In 5HH ist die Größe von Symbol 5015-a verkleinert (im Vergleich zur Größe von Symbol 5015-a in 5EE), und Symbol 5015-a neigt sich zurück an die Ausgangsposition (z. B. ist das Symbol 5015-a nicht mehr länger geneigt).
  • 5II5JJ veranschaulichen gemäß einigen Ausführungsformen eine Neigung und Bewegung eines Symbols (z. B. Symbol 5015-a), wenn ein aktueller Fokus von dem Symbol auf ein benachbartes Symbol (z. B. Symbol 5015-b) übergeht.
  • In 5II wird das Symbol 5015-a gleichzeitig in Richtung Symbol 5015-b gemäß einer Bewegung eines Kontakts bewegt und geneigt (z. B. eine Bewegung eines Kontakts in Richtung der rechten Seite der berührungsempfindlichen Oberfläche 451, wie die Bewegung von Kontakt 5408 von Position 5408-a zu Position 5408-b, wie in 5R5S dargestellt).
  • 5JJ veranschaulicht, dass der aktuelle Fokus von Symbol 5015-a auf Symbol 5015-b übergegangen ist. In 5JJ wird die Größe von Symbol 5015-a verkleinert (im Vergleich zur Größe von Symbol 5015-a in 5II) und Symbol 5015-a bewegt sich zur Bezugslinie 5019 zurück (z. B. verläuft die Bezugslinie 5019 durch eine Mitte von Symbol 5015-a).
  • 5JJ veranschaulicht auch, dass in einigen Ausführungsformen das Symbol 5015-b in Richtung von Symbol 5015-a geneigt (und optional bewegt) wird, um anzugeben, dass sich der aktuelle Fokus von Symbol 5015-a entfernt hat.
  • Alternativ, wenn der aktuelle Fokus vom Symbol 5015-a auf Symbol 5015-b verschoben wird, wird das Symbol 5015-b nicht geneigt, wie in 5HH dargestellt.
  • 5KK5LL veranschaulichen eine Bewegung von Kontakt 5020 (z. B. eine schnelle Streichgeste) auf der berührungsempfindlichen Oberfläche 451. In 5KK weist die Bewegung von Kontakt 5020 eine charakteristische Bewegungsdistanz auf (z. B. ein vom Kontakt 5020 über die berührungsempfindliche Oberfläche 451 zurückgelegte Distanz) und/oder eine charakteristische Bewegungsgeschwindigkeit (z. B. eine Bewegungsgeschwindigkeit von Kontakt 5020 auf der oder direkt vor einem Abheben des Kontakts 5020 von der berührungsempfindlichen Oberfläche 451), sodass der aktuelle Fokus von dem Symbol 5015-b schnell auf Symbol 5015-e übergeht (anstatt den aktuellen Fokus langsam zu versetzen, wie in 5R bis 5X dargestellt).
  • 5LL veranschaulicht, dass der aktuelle Fokus vom Symbol 5015-b auf Symbol 5015-e über die Symbole 5015-c und Symbol 5015-d versetzt wurde (z. B. geht der aktuelle Fokus von Symbol 5015-b auf Symbol 5015-c über, danach geht der aktuelle Fokus von Symbol 5015-c auf Symbol 5015-d über und dann vom Symbol 5015-d auf Symbol 5015-e). Während der aktuelle Fokus vom Symbol 5015-b auf Symbol 5015-e versetzt wird, werden die Symbole 5015-b, 5015-c und 5015-d basierend auf der Bewegung des aktuellen Fokus bewegt und/oder geneigt. In einigen Ausführungsformen neigen sich die Symbole 5015-b bis 5015-d mit einer Zeitverzögerung zurück, wenn sich der aktuelle Fokus davon wegbewegt, sodass die Neigung der Symbole 5015-b bis 5015-d zurück (für eine kurze Zeitspanne) sichtbar ist, nachdem der aktuelle Fokus bereits auf das Symbol 5015-e übergegangen ist. In einigen Ausführungsformen wird der Betrag der Neigung und/oder Bewegung eines jeden Symbols verringert, wenn sich die Geschwindigkeit der Kontaktbewegung erhöht. Dadurch kann die Benutzerschnittstelle schneller wieder in einen Ruhezustand zurückgehen, wodurch Ablenkungen für den Benutzer verringert werden und die Benutzererfahrung verbessert wird.
  • 5LL veranschaulicht auch die Eingabe 5022 auf der berührungsempfindlichen Oberfläche 451. Das Symbol 5015-e wird gemäß der Eingabe 5022 geneigt und/oder bewegt.
  • 5MM veranschaulicht das Neigen von Symbol 5015-e in verschiedenen Richtungen basierend auf der Eingabe 5022. Wenn sich die Eingabe 5022 nach oben links zur Position 5022-a bewegt, neigt sich das Symbol in Richtung seiner oberen linken Ecke, wie durch Symbol 5115-a dargestellt. Wenn sich die Eingabe 5022 nach oben zur Position 5022-b bewegt, neigt sich das Symbol in Richtung seiner Oberseite, wie durch Symbol 5115-b dargestellt. Wenn sich die Eingabe 5022 nach oben rechts zur Position 5022-c bewegt, neigt sich das Symbol in Richtung seiner oberen rechten Ecke, wie durch Symbol 5115-c dargestellt. Wenn sich die Eingabe 5022 nach links zur Position 5022-d bewegt, neigt sich das Symbol in Richtung seiner linken Seite, wie durch Symbol 5115-d dargestellt. Wenn die Eingabe 5022 sich nicht von der originalen Position wegbewegt oder die Eingabe 5022 nicht mehr erfasst wird, wird das Symbol nicht geneigt, wie durch Symbol 5115-e dargestellt. Wenn sich die Eingabe 5022 nach rechts zur Position 5022-f bewegt, neigt sich das Symbol in Richtung seiner rechten Seite, wie durch Symbol 5115-f dargestellt. Wenn sich die Eingabe 5022 nach unten links zur Position 5022-g bewegt, neigt sich das Symbol in Richtung seiner unteren linken Ecke, wie durch Symbol 5115-g dargestellt. Wenn sich die Eingabe 5022 nach unten zur Position 5022-h bewegt, neigt sich das Symbol in Richtung seiner Unterseite, wie durch Symbol 5115-h dargestellt. Wenn sich die Eingabe 5022 nach unten rechts zur Position 5022-i bewegt, neigt sich das Symbol in Richtung seiner unteren rechten Ecke, wie durch Symbol 5115-i dargestellt.
  • Somit wird Symbol 5015-e (oder jedes andere hier dargestellte Symbol) geneigt, in dem die Position von Eingabe 5022 auf der berührungsempfindlichen Oberfläche 451 bewegt wird. In einigen Ausführungsformen neigen sich bestimmte Symbole nicht (z. B. neigt sich Symbol 5026 in keine Richtung, oder Symbol 5026 neigt sich aufgrund seiner Größe (oder Breite) nicht in die horizontale Richtung).
  • 5NN5PP veranschaulichen Parallaxeneffekte gemäß einigen Ausführungsformen.
  • 5NN zeigt, dass Symbol 5015-e unter Verwendung von mehreren Ebenen angezeigt wird (z. B. Ebene 5028 mit dem Text „Ping Pong Mania!!”, Ebene 5030 mit einem Pingpongball und dessen Flugbahn, Ebene 5302 mit einem Schläger und Ebene 5034 mit einem Netz). Die Größen und relativen Positionen dieser Ebenen werden gemäß einer Benutzereingabe angepasst, um eine verbesserte visuelle Wahrnehmung des Symbols bereitzustellen (z. B. Bereitstellen einer dreidimensionalen Wahrnehmung der im Symbol dargestellten Objekte). In einigen Ausführungsformen ist die Anzeige von Symbol 5015-e eine Überlagerung einer jeden Ebene für Symbol 5015-e (z. B. die Ebenen 5028 bis 5034).
  • 5NN zeigt ebenso eine Konfiguration 5038, die ein vereinfachtes Symbol mit zwei Ebenen enthält (z. B. die Vordergrundebene mit dem Pingpongball und die Hintergrundebene mit dem Text und dem Netz). 5NN zeigt, dass in Reaktion auf eine erste Eingabe (z. B. Bewegung eines Kontakts in Richtung der linken Seite der berührungsempfindlichen Oberfläche 451) die Vordergrundebene in Richtung der linken Seite bezüglich der Hintergrundebene bewegt wird, wie in Konfiguration 5040 dargestellt. Das verbessert eine visuelle Wahrnehmung, dass das Symbol nach links geneigt ist. 5NN zeigt ebenso, dass in Reaktion auf eine zweite Eingabe (z. B. eine Bewegung eines Kontakts in Richtung der rechten Seite der berührungsempfindlichen Oberfläche 451) die Vordergrundebene in Richtung der rechten Seite bezüglich der Hintergrundebene bewegt wird, wie in Konfiguration 5042 dargestellt. Dies verbessert eine visuelle Wahrnehmung, dass das Symbol nach rechts geneigt ist. Ebenso kann die Vordergrundebene nach oben, unten oder diagonal bezüglich der Hintergrundebene gemäß einer Benutzereingabe bewegt werden, wie unter Verwendung der Vordergrundebene 5043-1, der Zwischenebene 5043-2 und der Hintergrundebene 5043-3 in der Darstellung 5043 von 5OO veranschaulicht wird. Durch Verwenden eines Parallaxeneffekts stellt das Gerät dem Benutzer ein visuelles Feedback bereit, dass das Gerät auf die Benutzereingabe reagiert, selbst wenn der aktuelle Fokus auf dem gleichen Symbol bleibt. Der Parallaxeneffekt ermöglicht dem Benutzer auch die Schätzung, wie weit der Benutzer einen Kontakts bewegen muss, um den aktuellen Fokus von einem aktuellen Symbol auf ein benachbartes Symbol zu versetzen.
  • In einigen Ausführungsformen enthalten eine oder mehrere Ebenen (z. B. Vordergrundebene) einen Ausschnitt, um einen Teil einer Ebene, der hinter der einen oder den mehreren Ebenen liegt, zu zeigen (z. B. in 5OO enthält die Vordergrundebene 5041-1 einen Ausschnitt, um einen Teil der Hintergrundebene 5041-2 zu zeigen).
  • Die Darstellung 5048 von 5PP zeigt zwei verschiedene Konfigurationen von Symbol 5015-e: eine Konfiguration mit zwei Ebenen und eine Konfiguration mit drei Ebenen. Wie oben erläutert, kann ein Symbol durch mehrere Ebenen dargestellt werden, und die Anzahl der zur Darstellung des Symbols verwendeten Ebenen variiert in Abhängigkeit von der Detailebene, die mit Hilfe des Parallaxeneffekts dargestellt wird, und der Rechenleistung des Geräts. Zum Beispiel wird in der oben angegebenen 5NN das Symbol 5015-e mit vier Ebenen 5028, 5030, 5032 und 5034 dargestellt.
  • In 5PP ist unabhängig von der Anzahl der zur Darstellung von Symbol 5015-e verwendeten Ebenen die wahrgenommene Tiefe (oder Distanz) zwischen der Vordergrundebene und der Hintergrundebene (z. B. der Ebene 5048-1 und der Ebene 5048-2 in der Konfiguration mit zwei Ebenen und der Ebene 5050-1 und der Ebene 5050-3 in der Konfiguration mit drei Ebenen) gleich. Zum Beispiel sind die wahrgenommene Tiefe (oder Distanz) zwischen Ebene 5048-1 und Ebene 5048-2 in der Konfiguration mit zwei Ebenen und die wahrgenommene Tiefe (oder Distanz) zwischen der Ebene 5050-1 und der Ebene 5050-3 in der Konfiguration mit drei Ebenen gleich. Dies verbessert eine optimierte Benutzererfahrung durch Bereitstellung von Symbolen mit konsistenteren visuellen Eigenschaften (z. B. einer einheitlichen wahrgenommenen Stärke der Symbole).
  • Die Darstellung 5049 von 5PP veranschaulicht die Vergrößerung und das Zuschneiden der Ebenen. 5PP zeigt das Symbol 5015-e mit beiden überlagerten Ebenen (z. B. die Vordergrundebene mit einem Pingpongball und einem Schläger und die Hintergrundebene mit dem Text und dem Netz), wie in 5NN dargestellt), ohne dass eine Ebene in Bezug zur anderen Ebene vergrößert ist.
  • In einigen Ausführungsformen ist die Vordergrundebene im Vergleich zur Hintergrundebene vergrößert, wie in Konfiguration 5044 dargestellt, um eine verbesserte Tiefenwahrnehmung bereitzustellen. Durch Vergrößern der Vordergrundebene im Vergleich zur Hintergrundebene gehen jedoch ein oder mehrere Teile der Vordergrundebene über die Begrenzung der Hintergrundebene hinaus. Zum Beispiel verlaufen in Konfiguration 5044 ein Bereich des Schlägers und ein Bereich der Flugbahn des Pingpongballs über die Begrenzung der Hintergrundebene hinaus. In einigen Ausführungsformen ist dieses Hervorstehen von einem oder mehreren Bereichen der Vordergrundebene (außerhalb der Begrenzung der Hintergrundebene) deutlicher, wenn das Symbol geneigt ist.
  • In der Konfiguration 5044 sind Bereiche der Vordergrundebene, die über die Begrenzung der Hintergrundebene hinausgehen, abgeschnitten. Dies bietet eine verbesserte visuelle Wahrnehmung von Symbol 5015-e, da die rechteckige Form von Symbol 5015-e beibehalten wird, unabhängig von der Vergrößerung und/oder dem Neigen von Symbol 5015-e.
  • 5QQ5TT veranschaulichen eine Versetzung des aktuellen Fokus gemäß einigen Ausführungsformen.
  • 5QQ zeigt Bereich 5014 mit den Anwendungssymbolen 5015-a bis 5015-e, und Bereich 5016 mit den Filmpostersymbolen 5062-a bis 5062-c.
  • 5QQ zeig ebenso, dass der aktuelle Fokus auf Symbol 5015-d in Bereich 5014 liegt. In 5QQ wird eine Bewegung von Kontakt 5422 (z. B. eine Streichgeste nach oben) auf der berührungsempfindlichen Oberfläche 451 erfasst.
  • 5RR zeigt, dass in Reaktion auf die Bewegung von Kontakt 5422 der aktuelle Fokus von Symbol 5015-d im Bereich 5014 auf Symbol 5062-b im Bereich 5012 versetzt wird.
  • 5RR veranschaulicht auch, dass eine Bewegung von Kontakt 5424 (z. B. eine Streichgeste nach links) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5SS zeigt, dass in Reaktion auf die Versetzung von Kontakt 5424 der aktuelle Fokus von Symbol 5062-b auf Symbol 5062-a übergeht.
  • 5SS zeigt auch, dass eine Bewegung von Kontakt 5426 (z. B. eine Streichgeste nach unten) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5TT zeigt, dass in Reaktion auf die Bewegung von Kontakt 5426 der aktuelle Fokus von Symbol 5062-a auf Symbol 5015-d übergeht.
  • In einigen Ausführungsformen erfordert die Versetzung des aktuellen Fokus zwischen Symbolen unterschiedlicher Typen (z. B. das Versetzen des aktuellen Fokus vom Anwendungssymbol 5015-d auf das Filmpostersymbol 5062-b und vom Filmpostersymbol 5062-a auf das Anwendungssymbol 5015-d) einen längeren Weg durch den Kontakt als die Bewegung des aktuellen Fokus zwischen Symbolen des gleichen Typs (z. B. Bewegen des aktuellen Fokus vom Filmpostersymbol 5062-b auf das Filmpostersymbol 5062-a). Um zum Beispiel den aktuellen Fokus vom Symbol 5015-d auf Symbol 5062-b zu versetzen, muss der in 5QQ dargestellte Kontakt 5422 sich weiter bewegen als die Distanz, die erforderlich ist, damit der Kontakt 5424 den aktuellen Fokus vom Symbol 5062-b auf Symbol 5062-a verschiebt, wie in 5RR dargestellt.
  • In einigen Ausführungsformen haben Symbole mit rechteckiger Form (z. B. die Filmpostersymbole 5062-a bis 5062-c in 5RR) unterschiedliche Begrenzungen. Während zum Beispiel ein aktueller Fokus auf einem rechteckigen Symbol in einer Hochformatausrichtung liegt (z. B. 5062-b), beträgt eine Distanz, die ein Kontakt zurücklegen muss, um den aktuellen Fokus horizontal (z. B. von Symbol 5062-b auf Symbol 5062-a) zu versetzen, weniger als eine Distanz, die ein Kontakt zurücklegen muss, um den aktuellen Fokus vertikal zu versetzen (z. B. von Symbol 5062-b auf ein Symbol im Bereich 5014, wie Symbol 5015-d; oder von Symbol 5062-a auf ein Symbol im Bereich 5014, wie Symbol 5015-d).
  • 5UU5VV veranschaulichen Benutzerschnittstellen gemäß einigen Ausführungsformen, die bei Erfüllung von Inaktivitätskriterien angezeigt werden.
  • Wenn zum Beispiel keine Eingabe auf der Fernbedienung 5001 für eine bestimmte Zeitspanne (z. B. 3 Minuten) erfolgt, wird die in 5UU dargestellte Benutzerschnittstelle angezeigt. In 5UU wird ein Symbol (z. B. Symbol 5015-d) mit dem aktuellen Fokus visuell von der restlichen Benutzerschnittstelle unterschieden. Zum Beispiel wird das Symbol 5015-d hervorgehoben und/oder die restliche Benutzerschnittstelle abgeblendet.
  • Wenn alternativ keine Eingabe auf der Fernbedienung 5001 für eine bestimmte Zeitspanne (z. B. 3 Minuten) erfolgt, wird die in 5VV dargestellte Benutzerschnittstelle angezeigt. In 5VV wird ein Symbol (z. B. Symbol 5015-e) mit dem aktuellen Fokus vergrößert und visuell von der restlichen Benutzerschnittstelle unterschieden. Zum Beispiel wird ein Symbol mit dem aktuellen Fokus um 10% im Vergleich zu den anderen Anwendungssymbolen vergrößert, bevor die Inaktivitätskriterien erfüllt werden. Wenn die Inaktivitätskriterien erfüllt sind, wird das Symbol mit dem aktuellen Fokus um mindestens 20% im Vergleich zu den anderen Anwendungssymbolen vergrößert.
  • 5WW5XX veranschaulichen beispielhafte Benutzerschnittstellen, die angezeigt werden, wenn Kriterien für einen dunklen Bildschirm erfüllt sind (z. B. wenn keine Eingabe von der Fernbedienung 5001 für eine zweite bestimmte Zeitspanne, wie 5 Minuten, empfangen wird, nachdem die Inaktivitätskriterien erfüllt sind).
  • In 5WW wird die gesamte Benutzerschnittstelle abgeblendet, einschließlich des Symbols mit dem aktuellen Fokus. 5XX zeigt eine alternative Benutzerschnittstelle, in der die gesamte Benutzerschnittstelle durch einen leeren Bildschirm ersetzt wird (z. B. einen weißen leeren Bildschirm, einen schwarzen leeren Bildschirm oder einen leeren Bildschirm in einer beliebigen anderen Farbe).
  • 5YY stellt dar, dass die Fernbedienung 5001 aufgenommen wird und in Reaktion auf das Erfassen der Aufnahme der Fernbedienung 5001 wird die Home-Bildschirm-Benutzerschnittstelle 518 auf der Anzeige 450 angezeigt.
  • 5ZZ5ZZZ veranschaulichen die Auswahl von Medienpräsentationsoptionen gemäß einigen Ausführungsformen.
  • 5ZZ stellt dar, dass die Eingabe 5028 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird, während der aktuelle Fokus auf dem Filmpostersymbol 5062-a liegt (z. B. ein Filmposter für einen Film namens „Der große Aufstieg”).
  • 5AAA stellt dar, dass in Reaktion auf Eingabe 5428 die Produktseitenansicht 5090 auf der Anzeige 450 angezeigt wird. Die Produktseitenansicht 5090 enthält Informationen über den Film „Der große Aufstieg”. Die Produktseitenansicht 5090 enthält auch mehrere Medienquellensymbole 5092-a bis 5092-e. Jedes Medienquellobjekt entspricht einer zugehörigen Medienquelle (z. B. entspricht Symbol 5092-a einem „Movieflix”-Streamingservice, Symbol 5092-b entspricht einem iTunes-Store, Symbol 5092-e entspricht einem Fernsehsender usw.). In 5AAA wird das Medienquellensymbol 5092-a visuell unterschieden (z. B. markiert), um anzugeben, dass das Medienquellensymbol 5092-a aus den Medienquellensymbolen ausgewählt wird.
  • Die Produktseitenansicht 5090 enthält auch Medienverwaltungssymbole 5093-a bis 5093-c (z. B. Vorschausymbol 5093-a, Wiedergabesymbol 5093-b und Symbol ”In Movieflix ansehen” 5093-c). In 5AAA wird das Wiedergabesymbol 5093-b visuell unterschieden (z. B. vergrößert), um anzugeben, dass das Wiedergabesymbol 5093-b aus den Medienverwaltungssymbolen ausgewählt ist.
  • In einigen Ausführungsformen können die in der Produktseitenansicht 5090 enthaltenen Symbole geneigt werden, wie oben bezüglich 5A5PP beschrieben. Wenn diese Symbole geneigt werden, weisen sie den Parallaxeneffekt auf. Der Kürze halber wird hier nicht auf diese Details eingegangen.
  • 5AAA zeigt auch, dass die Eingabe 5450 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5BBB veranschaulicht, dass in Reaktion auf das Erfassen der Eingabe 5450 eine Videowiedergabeansicht 5300 auf der Anzeige 450 angezeigt wird. Wie in 5BBB5DDD dargestellt, umfasst die Videowiedergabeansicht 5300 eine Wiedergabe des Films „Der große Aufstieg”.
  • 5DDD zeigt ebenso, dass die Eingabe 5452, ein Drücken auf die Menütaste 5002 der Fernbedienung 5001, erfasst wird.
  • 5EEE veranschaulicht, dass in Reaktion auf die Eingabe 5452 die Produktseitenansicht 5090 auf der Anzeige 450 angezeigt wird.
  • 5EEE zeigt auch, dass eine Bewegung von Kontakt 5454 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5FFF zeigt, dass in Reaktion auf das Erfassen der Bewegung von Kontakt 5454 der aktuelle Fokus von Symbol 5092-a auf Symbol 5092-b übergeht. 5FFF veranschaulicht auch, dass die in 5EEE dargestellten Medienverwaltungssymbole durch eine andere Gruppe von Medienverwaltungssymbolen ersetzt werden (z. B. Symbol 5093-a und 5093-c durch 5093-f).
  • In 5FFF wird eine Bewegung von Kontakt 5456 (z. B. eine lange Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451 erfasst.
  • 5GGG veranschaulicht, dass in Reaktion auf die Bewegung von Kontakt 5456 der aktuelle Fokus von Symbol 5092-b auf Symbol 5092-f übergeht.
  • 5GGG veranschaulicht auch, dass die Eingabe 5458 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5HHH veranschaulicht, dass die Quellenauswahlschnittstelle 5098 auf der Anzeige 450 angezeigt wird (z. B. wird die Quellenauswahlschnittstelle 5098 über die Produktseitenansicht 5090 gelegt). Die Quellenauswahlschnittstelle 5098 enthält Medienquellobjekte, die nicht in der Produktseitenansicht 5090 enthalten sind (z. B. aus Platzgründen). Zum Beispiel enthält die Quellenauswahlschnittstelle 5098 in 5HHH weitere Medienquellensymbole 5098-a bis 5098-c.
  • 5III veranschaulicht, dass der aktuelle Fokus auf dem Medienverwaltungssymbol 5093-c liegt (z. B. „Auf Movieflix ansehen”). 5III veranschaulicht auch, dass die Eingabe 5460 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5JJJ veranschaulicht, dass in Reaktion auf das Erfassen der Eingabe 5460 die Produktseite 5064 einer anderen Softwareanwendung (z. B. eine Drittanbieteranwendung von Movieflix, wie ein erstes Videowiedergabemodul 392 in 3) auf der Anzeige 450 angezeigt wird. Die Produktseite 506 in 5JJJ enthält die Symbole 5068-a bis 5068-d und der aktuelle Fokus liegt auf Symbol 5068-a (z. B. das Symbol „Ansehen”).
  • 5JJJ zeigt auch die Eingabe 5462 (z. B. Antippgeste) auf der berührungsempfindlichen Oberfläche 451, die eine Wiedergabe des entsprechenden Medieninhaltelements (z. B. des Films „Der große Aufstieg”) initiiert, wie in 5BBB5DDD dargestellt.
  • 5KKK5LLL veranschaulichen die Navigation zur Produktseitenansicht 5090 von einem Suchbildschirm aus. 5KKK zeigt eine Suchseitenansicht 5066 mit mehreren Suchergebnissen. Ein aktueller Fokus liegt auf dem Film „Der große Aufstieg”, wenn die Eingabe 5464 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird. 5LLL stellt dar, dass in Reaktion auf Eingabe 5464 die Produktseitenansicht 5090 angezeigt wird.
  • 5MMM5NNN veranschaulichen die Navigation durch die Produktseitenansicht 5090 aus einer Store-Ansicht des Medieninhalts (z. B. der Store-Seite iTunes). 5MMM zeigt die Store-Ansicht des Medieninhalts 5060, die mehrere Medieninhaltssymbole 5076-a bis 5076-i umfasst, einschließlich des Medieninhaltssymbols 5076-b für den Film „Der große Aufstieg”. Ein aktueller Fokus liegt auf dem Symbol 5076-b, wenn die Eingabe 5466 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird. 5NNN stellt dar, dass in Reaktion auf Eingabe 5466 die Produktseitenansicht 5090 angezeigt wird.
  • 5OOO5ZZZ veranschaulichen die Auswahl der Medienpräsentationsoptionen für eine Programmserie (z. B. ein Fernsehprogramm) gemäß einigen Ausführungsformen.
  • 5OOO veranschaulicht eine Produktseitenansicht 5091 für ein Fernsehprogramm „Sad Men”. Die Produktseitenansicht 5091 in 5OOO enthält Medienquellensymbole 5095-a bis 5095-e und ein weiteres Quellsymbol 5095-f (das Symbol 5092-f in 5GGG entspricht). In 5OOO liegt der aktuelle Fokus auf Symbol 5095-a.
  • Die Produktseitenansicht 5041 in 5OOO enthält auch die Medienverwaltungssymbole 5096-a bis 5096-c, die dem Symbol 5095-a entsprechen, und Episodensymbole 5097-a bis 5097-d, die dem Symbol 5095-a entsprechen (z. B. Episodensymbole, die den Episoden entsprechen, die aus allen verfügbaren Medienquellen verfügbar sind).
  • In einigen Ausführungsformen können die in der Produktseitenansicht 5091 enthaltenen Symbole geneigt werden, wie oben bezüglich 5A5PP beschrieben. Wenn diese Symbole geneigt werden, weisen sie den Parallaxeneffekt auf. Der Kürze halber wird hier nicht auf diese Details eingegangen.
  • 5OOO veranschaulicht auch, dass eine Bewegung von Kontakt 5468 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5PPP veranschaulicht, dass in Reaktion auf das Erfassen der Bewegung des Kontakts 5468 der aktuelle Fokus von Symbol 5095-a auf Symbol 5095-b versetzt wird, und die Medienverwaltungssymbole 5096-a bis 5096-c durch die Medienverwaltungssymbole 5096-d, 5096-e, 5096-b, 5096-f und 5096-c ersetzt werden, die dem Medienquellensymbol 5095-b entsprechen.
  • Die Produktseitenansicht 5091 enthält auch Preisinformationen 5099-a bis 5099-c für entsprechende Episodensymbole 5097-a bis 5097-c.
  • 5PPP veranschaulicht auch, dass eine Bewegung von Kontakt 5470 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5QQQ veranschaulicht, dass in Reaktion auf das Erfassen der Bewegung des Kontakts 5470 der aktuelle Fokus vom Medienquellensymbol 5095-b auf das Medienquellensymbol 5095-übergeht. Die in 5PPP dargestellten Medienverwaltungssymbole (z. B. die Medienverwaltungssymbole 5096-d, 5096-e, 5096-b, 5096-f und 5096-c) werden durch die Medienverwaltungssymbole 5096-f, 5096-b und 5096-c ersetzt werden, die dem Medienquellensymbol 5095-c entsprechen.
  • 5QQQ veranschaulicht auch, dass eine Bewegung von Kontakt 5472 (z. B. eine lange Streichgeste nach links) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5RRR veranschaulicht, dass in Reaktion auf das Erfassen der Bewegung von Kontakt 5472 der aktuelle Fokus auf das Medienquellensymbol 5095-a zurückgeht.
  • 5RRR veranschaulicht auch, dass eine Bewegung von Kontakt 5474 auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5SSS veranschaulicht, dass in Reaktion auf die Bewegung von Kontakt 5474 der aktuelle Fokus auf das Medienverwaltungssymbol 5096-b übergeht.
  • 5SSS veranschaulicht auch, dass die Eingabe 5476 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird, während der aktuelle Fokus auf dem Medienverwaltungssymbol 5096-b liegt.
  • 5TTT veranschaulicht, dass in Reaktion auf Eingabe 5476 die Staffelauswahl-Schnittstelle 5498 angezeigt wird (z. B. wird die Staffelauswahl-Schnittstelle 5498 über die Produktseitenansicht 5091 gelegt). Die Staffelauswahl-Schnittstelle 5198 enthält Staffelsymbole 5498-1 bis 5498-5, die den jeweiligen für das Fernsehprogramm verfügbaren Staffeln entsprechen.
  • 5TTTT veranschaulicht auch, dass eine Bewegung von Kontakt 5478 (z. B. eine Streichgeste nach unten) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5UUU zeigt, dass in Reaktion auf die Bewegung von Kontakt 5478 der aktuelle Fokus vom Seriensymbol 5498-5 (das der fünften Staffel entspricht) auf das Seriensymbol 5498-1 versetzt wird (das der ersten Staffel entspricht).
  • 5UUU zeigt auch, dass die Eingabe 5480 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5VVV stellt dar, dass in Reaktion auf Eingabe 5480 die Produktseitenansicht 5091 angezeigt wird. Das Staffelsymbol 5096-b in 5VVV gibt an, dass die erste Staffel für das Fernsehprogramm ausgewählt ist, und die Produktseitenansicht 5091 enthält die Episodensymbole 5097-e bis 5097-h aus der ersten Staffel des Fernsehprogramms.
  • 5VVV zeigt auch, dass eine Bewegung von Kontakt 5482 auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5VVV veranschaulicht, dass in Reaktion auf die Bewegung von Kontakt 5482 der aktuelle Fokus vom Symbol 5096-b auf Symbol 5096-a übergeht. 5VVV veranschaulicht auch, dass die Eingabe 5484 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5XXX veranschaulicht, dass in Reaktion auf Eingabe 5484 eine Videowiedergabeansicht 5300 angezeigt wird, die eine Wiedergabe des Fernsehprogramms umfasst.
  • 5YYY veranschaulicht auch, dass die Eingabe 5486 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 bei Auswahl des Episodensymbols 5097-3 erfasst wird. Die Preisinformation 5099-e gibt an, dass für eine Wiedergabe einer Episode mit dem Episodensymbol 5097-e eine Zahlung von 2,99 $ erforderlich ist.
  • 5ZZZ veranschaulicht, dass in Reaktion auf Eingabe 5486 die Wiedergabebestätigungsseite 5094 angezeigt wird (z. B. wird die Wiedergabebestätigungsseite 5094 über die Produktseitenansicht 5091 gelegt). Auf der Wiedergabebestätigungsseite 5094 muss ein Benutzer bestätigen, ob der Benutzer für die Wiedergabe der ausgewählten Episode zahlen möchte. Wenn der Benutzer eine Eingabe macht, die die Zahlung bestätigt, wird die in 5XXX dargestellte Videowiedergabeansicht 5300 angezeigt.
  • 5AAAA5ZZZZ veranschaulichen beispielhafte Benutzerschnittstellen zur Navigation durch Medieninhalt gemäß einigen Ausführungsformen.
  • 5AAAA veranschaulicht eine Videowiedergabeansicht 5300, die auf der Anzeige 450 angezeigt wird. Die Videowiedergabeansicht 5300 ist eine Benutzerschnittstelle, die eine Anzeige eines Medienelements (z. B. eines Films oder einer Fernsehshow) in einem pausierten oder Wiedergabezustand bereitstellt, und in einigen Ausführungsformen stellt die Videowiedergabeansicht 5300 die Anzeige von der Navigation des Medienelements zugeordneten Videoinformationen bereit. 5AAAA veranschaulicht den Vorspann eines Films, der während der normalen Wiedergabe angezeigt wird.
  • 5AAAA veranschaulicht auch, dass die Benutzereingabe 5154 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5BBBB veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5154 (5AAAA) Navigationselemente, wie eine Scrubber-Leiste 5302 und ein erster Wiedergabekopf 5304 in der Videowiedergabeansicht 5300 angezeigt werden. Zum Beispiel wird eine leichte Berührung auf der berührungsempfindlichen Oberfläche 451 erfasst, und die in 5BBBB angezeigten Elemente werden angezeigt, um den Benutzer allgemein an die Länge des Films zu erinnern und an welcher Stelle der Benutzer den Film derzeit ansieht. In einigen Ausführungsformen werden die Navigationselemente, wie eine Scrubber-Leiste 5302 und ein erster Wiedergabekopf 5304 in Reaktion auf das Erfassen einer Antipp- und Haltegeste oder einer Streichgeste auf der berührungsempfindlichen Oberfläche 451 angezeigt.
  • In einigen Ausführungsformen wechselt das Medienelement in Reaktion auf das Erfassen der Benutzereingabe 5154 (oder einer Antipp- und Haltegeste oder einer Streichgeste) von einem Pausenzustand in einen Wiedergabezustand oder umgekehrt. Alternativ wird das angezeigte Medienelement weiterhin unabhängig von der Benutzereingabe 5154 wiedergegeben.
  • In einigen Ausführungsformen wird der Gesamtzeit-Text 5309 auch angezeigt, um die Gesamtdauer der Anzeige des Medienelements in der Videowiedergabeansicht 5300 anzugeben. In einigen Ausführungsformen stellt die Scrubber-Leiste 5302 eine Zeitleiste der Gesamtdauer des angezeigten Medienelements dar. In einigen Ausführungsformen gibt der erste Wiedergabekopf 5304 die Position in der Scrubber-Leiste 5302 an, die den Zeitpunkt darstellt, der einem Bereich (z. B. einem einzelnen Frame, einem Fenster von mehreren Frames oder einem Fenster einer bestimmten Zeitspanne) des aktuell in der Videowiedergabeansicht 5300 angezeigten Medienelements entspricht. In einigen Ausführungsformen wird der Text mit dem ersten Wiedergabekopf 5304 angezeigt, um die jeweilige Zeit in der Scrubber-Leiste 5302 anzugeben. In einigen Ausführungsformen bleibt in Reaktion auf das Erfassen der Benutzereingabe 5154 das angezeigte Medienelement in einem Wiedergabezustand und der erste Wiedergabekopf 5304 bewegt sich dementsprechend unterbrechungsfrei und fortlaufend entlang der Scrubber-Leiste 5302. Alternativ befindet sich in Reaktion auf das Erfassen der Benutzereingabe 5154 das angezeigte Medienelement in einem Pausenzustand und der erste Wiedergabekopf 5304 bewegt sich nicht. In einigen Ausführungsformen wird die Scrubber-Leiste 5302 wenigstens teilweise transparent angezeigt.
  • 5BBBB veranschaulicht auch das Erfassen der Benutzereingabe 5159 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451.
  • 5CCCC veranschaulicht, dass sich das Gerät in einem Navigationsmodus bei laufender Wiedergabe befindet. In einigen Ausführungsformen geht das Gerät in den Navigationsmodus bei laufender Wiedergabe in Reaktion auf die Benutzereingabe 5159 in 5BBBB über. Alternativ geht das Gerät in den Navigationsmodus bei laufender Wiedergabe in Reaktion auf die Benutzereingabe 5154 in 5AAAA über (ohne Benutzereingabe 5154 oder die in 5BBBB dargestellte Benutzerschnittstelle).
  • In 5CCCC werden weitere Navigationselemente in der Videowiedergabeansicht 5300 angezeigt (z. B. der zweite Wiedergabekopf 5308). In einigen Ausführungsformen gibt der zweite Wiedergabekopf 5308 zu jeder beliebigen Zeit eine bestimmte Navigationsposition in der Scrubber-Leiste an, an die sich der erste Wiedergabekopf 5304 bei Empfang einer bestimmten Benutzereingabe bewegen wird (die einer Anforderung zum Bewegen des ersten Wiedergabekopfs 5304 auf eine Position des zweiten Wiedergabekopfs 5308 entspricht). In einigen Ausführungsformen wird der zweite Wiedergabekopf-Text 5312 neben dem zweiten Wiedergabekopf 5308 (z. B. unter dem zweiten Wiedergabekopf 5308) angezeigt. In einigen Ausführungsformen werden ein oder mehrere Textelemente, wie der zweite Wiedergabekopf-Text 5312 und/oder der Gesamtzeit-Text 5309 neben dem zweiten Wiedergabekopf 5308 angezeigt (optional in oder auf der Scrubber-Leiste 5302 überlagert).
  • In einigen Ausführungsformen wird der zweite Wiedergabekopf 5308 mit einem Vorschaufenster 5310 neben dem zweiten Wiedergabekopf 5308 angezeigt, wie in 5CCCC gezeigt. Das Vorschaufenster 5310 wird optional über oder unter dem zweiten Wiedergabekopf 5308 zentriert. In einigen Ausführungsformen zeigt das Vorschaufenster 5310 visuelle Informationen an, die der durch den zweiten Wiedergabekopf 5308 angegebenen Position in der Scrubber-Leiste 5302 entsprechen. Wenn zum Beispiel der zweite Wiedergabekopf 5308 auf die Zeitposition 0:00:34 in der Scrubber-Leiste 5102 zeigt, zeigt das Vorschaufenster 5310 einen Frame an, der dem Film zu diesem Zeitpunkt entspricht.
  • In einigen Ausführungsformen umfassen die dem Vorschaufenster 5310 entsprechenden Videoinformationen wenigstens eine Teilmenge an Videoinformationen, die dem in der Videowiedergabeansicht 5300 angezeigten Medienelement entspricht (z. B. eine Teilmenge der Frames). Zum Beispiel stellt das Vorschaufenster 5310 eine Momentaufnahme einer Szene in dem Film dar, zu der der Benutzer wechseln kann, während die Anzeige des Medienelements hinter dem Vorschaufenster beibehalten wird. In einigen Ausführungsformen werden in Reaktion auf das Erfassen einer Benutzereingabe zum Aufrufen einer Anzeige des Vorschaufensters 5310 und/oder einer zweiten Wiedergabekopfmarkierung 5308, das Vorschaufenster 5310 und/oder die zweite Wiedergabekopfmarkierung 5308 anfangs an der gleichen Position in der Scrubber-Leiste 5302 wie die erste Wiedergabekopfmarkierung 5304 angezeigt, wie in 5CCCC dargestellt.
  • In einigen Ausführungsformen, während sich das Gerät im Navigationsmodus bei laufender Wiedergabe befindet, bewegt das Gerät den zweiten Wiedergabekopf 5308 fortlaufend (z. B. in einer Vorwärtsrichtung gegen das Ende des Medienelements oder in eine Rückwärtsrichtung in Richtung des Anfangs des Medienelements). In einigen Ausführungsformen entspricht eine fortlaufende Bewegung des zweiten Wiedergabekopfs 5308 einer Veränderung einer Position im Laufe der Zeit, die dem zweiten Wiedergabekopf 5308 entspricht, um ein bestimmtes Zeitintervall (z. B. ein zweites Intervall, ein Intervall von einigen Sekunden, ein Sekundenbruchteil usw.). In einigen Ausführungsformen, während sich das Gerät im Navigationsmodus bei laufender Wiedergabe befindet, wird die Wiedergabe des Medienelements angehalten. In einigen Ausführungsformen, während sich das Gerät im Navigationsmodus bei laufender Wiedergabe befindet, wird die Wiedergabe des Medienelements fortgesetzt.
  • 5CCCC veranschaulicht auch das Erfassen von Kontakt 5158-a der Benutzereingabe 5158 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451.
  • 5DDDD veranschaulicht die Anzeige eines Vorschaufensters 5310, eines zweiten Wiedergabekopfs 5308 und eines zweiten Wiedergabekopf-Texts 5312 an einer neuen Position in der Scrubber-Leiste 5302 in Reaktion auf das Erfassen der Benutzereingabe 5158 (bis zum Kontaktpunkt 5158-b). 5DDDD veranschaulicht auch, dass das angezeigte Medienelement in der Videowiedergabeansicht 5300 fortlaufend wiedergegeben wird, während die Navigationselemente angezeigt werden, wie in der in 5DDDD dargestellten aktuellen Szene ersichtlich ist. Der zweite Wiedergabekopf 5308, das Vorschaufenster 5310 und der zweite Wiedergabetext 5312 wurden an die Markierung 0:28:59 in dem in der Videowiedergabeansicht 5300 angezeigten Medienelement bewegt. In dem in 5DDDD dargestellten Beispiel zeigt die im Vorschaufenster 5310 an der Markierung 0:28:59 angezeigte Szene, dass Greg die Ziege sich dem ersten Gipfel des Bergmassivs nähert, und ein Benutzer kann wählen, direkt zu diesem spannenden Punkt im Film zu springen, sofern dies gewünscht ist. 5DDDD veranschaulicht das Erfassen einer fortlaufenden Bewegung der Benutzereingabe 5158 auf der berührungsempfindlichen Oberfläche 451.
  • 5EEEE veranschaulicht die Anzeige eines Vorschaufensters 5310, eines zweiten Wiedergabekopfs 5308 und eines zweiten Wiedergabekopf-Texts 5312 an einer neuen Position in der Scrubber-Leiste 5302 (z. B. 0:49:13) in Reaktion auf das Erfassen der Benutzereingabe 5158 (bis zum Kontaktpunkt 5158-c).
  • 5FFFF veranschaulicht, dass das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5310 nach dem Beenden der Erfassung einer beliebigen Benutzereingabe (z. B. Kontakt auf der berührungsempfindlichen Oberfläche 451 oder das Drücken einer Taste auf der Fernbedienung 5001) auf der Anzeige weiterhin angezeigt werden. In einigen Ausführungsformen werden das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 so angezeigt, dass sie sich fortlaufend von ihren Positionen in 5CCCC zu ihren Positionen in 5FFFF bewegt haben (z. B. von 0:00:34 zu 0:49:13). In einigen Ausführungsformen scheinen das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 sich schrittweise entlang der Scrubber-Leiste 5302 in Reaktion auf das Erfassen der Benutzereingabe 5158 zu bewegen (5CCCC5EEEE).
  • In einigen Ausführungsformen bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 gemäß der erfassten Benutzereingabe 5158. Zum Beispiel ist der Abstand des Vorschaufensters 5310, des zweiten Wiedergabekopfs 5308 und/oder des zweiten Wiedergabekopf-Texts 5312, die sich entlang der Scrubber-Leiste 5302 bewegen, direkt proportional zum Abstand der Benutzereingabe 5158. In einem anderen Beispiel folgt die angezeigte Bewegung des Vorschaufensters 5310, des zweiten Wiedergabekopfs 5308 und/oder des zweiten Wiedergabekopf-Texts 5312 der Bewegung und hält die Bewegung gemäß der Benutzereingabe 5158 an. In einigen Ausführungsformen ist die Benutzereingabe 5158 eine Streichgeste mit einer erfassten Abhebegeschwindigkeit. In einigen Ausführungsformen bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 weiterhin entlang der Scrubber-Leiste 5302 gemäß der erfassten Abhebegeschwindigkeit einer erfassten Streichgeste (z. B. bis das „Momentum” der Streichbewegung ausläuft).
  • 5FFFF veranschaulicht auch zwei alternative Benutzereingaben 5159-1 (z. B. eine Antippgeste oder eine Drück- und Haltegeste) und 5159-2 (z. B. eine Streichgeste) auf der berührungsempfindlichen Oberfläche 451. Diese beiden alternativen Benutzereingaben 5159-1 und 5159-2 werden in 5FFFF zusammen dargestellt, um das Verständnis bestimmter Operationen des Geräts zu vereinfachen. Diese beiden alternativen Benutzereingaben 5159-1 und 5159-2 müssen aber nicht gleichzeitig erfasst werden.
  • In einigen Ausführungsformen wird eine Benutzereingabe auf einem Teilbereich erfasst (z. B. Benutzereingabe 5159-1 auf Teilbereich 5208-i der berührungsempfindlichen Oberfläche 451), während das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabetext 5312 angezeigt werden, und in Reaktion darauf werden das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 entlang der Scrubber-Leiste 5302 nach vorne oder zurück bewegt. Zum Beispiel bewegen sich in Reaktion auf eine im Teilbereich 5208-c, 5208-f oder 5208-i erfasste Benutzereingabe das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und der zweite Wiedergabekopf-Text 5312 im Laufe der Zeit entlang der Scrubber-Leiste 5302 vorwärts und in Reaktion auf eine im Teilbereich 5208-a, 50028-d oder 5108-g erfasste Benutzereingabe bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und der zweite Wiedergabekopf-Text 5312 im Laufe der Zeit entlang der Scrubber-Leiste 5302 zurück. In einigen Ausführungsformen bewegen sich in Reaktion auf eine im Teilbereich 5208-c, 5208-f oder 5208-i erfasste Benutzereingabe das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und der zweite Wiedergabekopf-Text 5312 im Laufe der Zeit entlang der Scrubber-Leiste 5302 vorwärts, während die Benutzereingabe im Teilbereich 5208-c, 5208-f oder 5208-i erfasst wird, und in Reaktion auf eine im Teilbereich 5208-a, 5208-d oder 5208-g erfasste Benutzereingabe bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und der zweite Wiedergabekopf-Text 5312 im Laufe der Zeit entlang der Scrubber-Leiste 5302 zurück, während die Benutzereingabe im Teilbereich 5208-a, 5208-d oder 5208-g erfasst wird. In einigen Ausführungsformen, wie in 5FFFF dargestellt, wird ein visueller Indikator 5319 (z. B. ein kreisförmiger Pfeil nach rechts) neben dem Vorschaufenster 5310 angezeigt (z. B. rechts vom Vorschaufenster 5310), um anzugeben, dass ein Klick (oder eine Antippgeste) auf einem Teilbereich 5208-c, 5208-f oder 5208-i eine Bewegung des zweiten Wiedergabekopfs 5308, des Vorschaufensters 5310 und/oder des zweiten Wiedergabekopf-Texts 5312 nach vorne initiiert. In einigen Ausführungsformen wird ein weiterer visueller Indikator (z. B. ein sich kreisförmig nach links bewegender Pfeil) neben dem Vorschaufenster 5310 angezeigt (z. B. links vom Vorschaufenster 5310) (zusätzlich zum visuellen Indikator 5319 oder anstelle des visuellen Indikators 5319), um anzugeben, dass ein Klicken (oder eine Antippgeste) auf Teilbereich 5208-a, 5208-d oder 5208-g eine Bewegung des zweiten Wiedergabekopfs 5308, des Vorschaufensters 5310 und/oder des zweiten Wiedergabekopf-Texts 5312 in die Rückwärtsrichtung initiiert.
  • Alternativ initiiert eine Benutzereingabe 5159-2 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451 das Bewegen eines zweiten Wiedergabekopfs 5308 (und optional des Vorschaufensters 5310 und/oder des zweiten Wiedergabekopf-Texts 5312) nach vorne gemäß der Benutzereingabe 5159-2.
  • 5GGGG stellt dar, dass sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 im Laufe der Zeit in Reaktion auf eine Benutzereingabe 5159-1 (z. B. eine Antippgeste oder eine Drück- und Haltegeste auf Teilbereich 5208-i) oder eine Benutzereingabe 5159-2 (z. B. eine Streichgeste nach rechts) entlang der Scrubber-Leiste 5302 nach vorne bewegen.
  • 5HHHH veranschaulicht, dass sich in einigen Ausführungsformen das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 weiterhin entlang der Scrubber-Leiste 5302 bewegen, selbst wenn keine Benutzereingabe erfasst wird (aufgrund der Trägheit einer Streichgeste, wie eine Benutzereingabe 5159-2, die in 5FFFF veranschaulicht wird). In einigen Ausführungsformen bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 weiterhin entlang der Scrubber-Leiste 5302 in Reaktion auf das Erfassen eines bestimmten Typs einer Benutzereingabe (z. B. einer Streichgeste, wie in 5FFFF dargestellt). In einigen Ausführungsformen bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 in einer Geschwindigkeit, die der Benutzereingabe 5159-2 entspricht, wenn das Erfassen der Benutzereingabe 5159-2 beendet wird (z. B. aufgrund eines Abhebens des Kontakts bei der Benutzereingabe 5159-2) und werden in ihrer Bewegung entlang der Scrubber-Zeitleiste 5302 langsamer, während keine Benutzereingabe erfasst wird. In einigen Ausführungsformen bewegen sich das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 weiterhin entlang der Scrubber-Leiste 5302 weiter, bis eine andere Benutzereingabe, wie die Benutzereingabe 5190 (5HHHH), erfasst wird oder ein Ende der Scrubber-Leiste 5302 erreicht wird.
  • 5IIII veranschaulicht, dass in einigen Ausführungsformen, wenn das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 sich einem Ende der Scrubber-Leiste 5302 nähern, das Vorschaufenster 5310 (und möglicherweise der zweite Wiedergabekopf-Text 5312) die Bewegung anhalten (z. B. an dem Punkt, an dem eine Kante des Vorschaufensters 5310 die Kante der Videowiedergabeansicht 5300 zu erreichen scheint). In einigen Ausführungsformen, selbst nachdem das Vorschaufenster 5310 die Bewegung anhält, setzt der zweite Wiedergabekopf 5308 die Bewegung fort und die angezeigten Inhalte des Vorschaufensters 5310 ändern sich weiterhin gemäß der Position des zweiten Wiedergabekopfs 5308 entlang der Scrubber-Leiste 5302, wie durch den zweiten Wiedergabekopf 5308 angegeben, wie in 5IIII dargestellt. In einigen Ausführungsformen, wenn der zweite Wiedergabetext 5312 sich zu nahe am Gesamtzeit-Text 5309 befindet, wird die Anzeige des Gesamtzeit-Texts 5309 beendet und der zweite Wiedergabekopf-Text 5312 belegt den Platz in der Videowiedergabeansicht 5300, wo der Gesamtzeit-Text 5309 angezeigt wurde, wie in 5HHHH und 5IIII dargestellt.
  • 5IIII veranschaulicht auch das Erfassen der Benutzereingabe 5192 (z. B. eine Streichgeste nach links) auf der berührungsempfindlichen Oberfläche 451, die mit Kontakt 5192-a beginnt.
  • 5JJJJ veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5192 (bis zum Kontaktpunkt 5192-b) das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 in entsprechender Weise zurückgesetzt oder in Richtung des Beginns des angezeigten Films bewegt werden. In einigen Ausführungsformen wird der Gesamtzeit-Text 5309 wieder angezeigt, nachdem der zweite Wiedergabekopf-Text 5312 keinen Platz mehr in der Videowiedergabeansicht 5300 belegt, an dem der Gesamtzeit-Text 5309 in der Regel angezeigt wird.
  • 5KKKK zeigt eine Versetzung der Navigationselemente in 5JJJJ weiter nach links. 5KKKK veranschaulicht auch das Erfassen der Benutzereingabe 5193 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451.
  • 5LLLL veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5193 (5KKKK), das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 die Bewegung anhalten.
  • 5LLLL veranschaulicht ebenso, dass die Benutzereingabe 5194 (z. B. eine Streichgeste nach unten) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5MMMM veranschaulicht ebenso, dass in Reaktion auf das Erfassen der Benutzereingabe 5194 (5LLLL), das Gerät in einen Kapitelwiedergabe-Navigationsmodus übergeht. In 5MMMM werden Wiedergabe-Positionsmarkierungen 5314 auf der Scrubber-Leiste 5302 angezeigt. In einigen Ausführungsformen stellen die Wiedergabe-Positionsmarkierungen 5314 vordefinierte Meilensteine oder Positionen in dem in der Videowiedergabeansicht 5300 angezeigten Medienelement dar (z. B. Kapitel). In einigen Ausführungsformen werden die Scrubber-Leiste 5302, der erste Wiedergabekopf 5304 (und optional der zweite Wiedergabekopf 5308) weiterhin auf der Anzeige angezeigt, nachdem das Gerät vom Navigationsmodus bei laufender Wiedergabe in den Kapitelwiedergabe-Navigationsmodus wechselt.
  • 5MMMM veranschaulicht auch zwei alternative Benutzereingaben 5199-1 (z. B. eine Antippgeste oder eine Drück- und Haltegeste auf Teilbereich 5208-c, 5208-f oder 5208-i) und 5199-2 (z. B. eine Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451. Diese beiden alternativen Benutzereingaben 5199-1 und 5199-2 werden in 5MMMM zusammen dargestellt, um das Verständnis bestimmter Operationen des Geräts zu vereinfachen. Diese beiden alternativen Benutzereingaben 5199-1 und 5199-2 müssen aber nicht gleichzeitig erfasst werden.
  • In einigen Ausführungsformen, wie in 5MMMM dargestellt, wird ein visueller Indikator 5318 neben dem Vorschaufenster 5310 angezeigt (z. B. rechts vom Vorschaufenster 5310), um anzugeben, dass ein Klick (oder eine Antippgeste) auf einem Teilbereich 5208-c, 5208-f oder 5208-i eine Bewegung des zweiten Wiedergabekopfs 5308, des Vorschaufensters 5310 und/oder des zweiten Wiedergabekopf-Texts 5312 nach vorne initiiert.
  • 5NNNN veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5199-1 oder 5199-2 das Vorschaufenster 5110, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 sich zur nächsten Wiedergabe-Positionsmarkierung 5314-b in der durch die erfasste Benutzereingabe dargestellten Richtung bewegen. Zum Beispiel bewegt sich der zweite Wiedergabekopf 5308 zur nächsten Wiedergabe-Positionsmarkierung 5314-b auf der rechten Seite der aktuellen Position des zweiten Wiedergabekopfs 5308 in Reaktion auf eine Streichgeste 5199-2 nach rechts oder eine Antippgeste 5199-1 auf einem rechten Teilbereich (z. B. Teilbereich 5208-c, 5208-f oder 5208-i, die in 5MMMM dargestellt sind) der berührungsempfindlichen Oberfläche 451. In einigen Ausführungsformen springt der zweite Wiedergabekopf 5308 direkt an die Position der nächsten Wiedergabe-Positionsmarkierung 5314-b.
  • 5NNNN veranschaulicht auch zwei alternative Benutzereingaben 5198-1 (z. B. eine Antippgeste oder eine Drück- und Haltegeste auf Teilbereich 5208-a, 5208-d oder 5208-g) und 5198-2 (z. B. eine Streichgeste nach links) auf der berührungsempfindlichen Oberfläche 451. Diese beiden alternativen Benutzereingaben 5198-1 und 5198-2 werden in 5FFFF zusammen dargestellt, um das Verständnis bestimmter Operationen des Geräts zu vereinfachen. Diese beiden alternativen Benutzereingaben 5198-1 und 5198-2 müssen aber nicht gleichzeitig erfasst werden.
  • In einigen Ausführungsformen, wie in 5NNNN dargestellt, wird ein visueller Indikator 5320 (zusätzlich zum visuellen Indikator 5318 oder anstelle des visuellen Indikators 5318) neben dem Vorschaufenster 5310 angezeigt (z. B. links vom Vorschaufenster 530), um anzugeben, dass ein Klick (oder eine Antippgeste) auf Teilbereich 5208-a, 5208-d oder 5208-g eine Bewegung des zweiten Wiedergabekopfs 5308, des Vorschaufensters 5310 und/oder des zweiten Wiedergabekopf-Texts 532 in der Rückwärtsrichtung initiiert. In einigen Ausführungsformen wird der visuelle Indikator 5318 (z. B. ein Schnellvorlaufsymbol, wie in 5MMMM dargestellt) gemäß einer Bestimmung angezeigt, dass eine Berührungseingabe auf einer rechten Seite (z. B. einer rechten Hälfte) der berührungsempfindlichen Oberfläche 451 vorliegt und der visuelle Indikator 5320 (z. B. ein Umkehrsymbol, wie in 5NNNN dargestellt) wird gemäß einer Bestimmung angezeigt, dass eine Berührungseingabe auf einer linken Seite (z. B. einer linken Hälfte) der berührungsempfindlichen Oberfläche 451 vorliegt.
  • 5OOOO veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5198-1 oder 5198-2 das Vorschaufenster 530, der zweite Wiedergabekopf 5308 und/oder der zweite Wiedergabekopf-Text 5312 sich von einer Wiedergabe-Positionsmarkierung 534-b zur nächsten Wiedergabe-Positionsmarkierung 534-b in der durch die erfasste Benutzereingabe dargestellten Richtung bewegen. Zum Beispiel bewegt sich der zweite Wiedergabekopf 5308 zur Wiedergabe-Positionsmarkierung 5314-a in Reaktion auf eine Streichgeste nach links oder eine Antippgeste auf einem linken Teilbereich (z. B. Teilbereich 5208-a, 5208-d oder 5208-g, wie in 5FFFF dargestellt) der berührungsempfindlichen Oberfläche 451.
  • 5OOOO veranschaulicht auch das Erfassen der Benutzereingabe 5170 (z. B. einen Tastendruck auf Menütaste 5002).
  • 5PPPP bis 5SSSS veranschaulichen eine beispielhafte Animation, die in Reaktion auf Benutzereingabe 5170 angezeigt wird. Die Animation zeigt das Verschwinden der Scrubber-Leiste 5302, des ersten Wiedergabekopfs 5304, des zweiten Wiedergabekopfs 5308, des Vorschaufensters 5310, des zweiten Wiedergabekopf-Texts 5312 und der Wiedergabe-Positionsmarkierungen 5314. In einigen Ausführungsformen werden in Reaktion auf das Erfassen einer Benutzereingabe, die einem Befehl zum Beenden eines Kapitelnavigationsmodus entspricht (z. B. Benutzereingabe 5170), ein oder mehrere Navigationselemente sofort von der Anzeige in der Videowiedergabeansicht 5300 entfernt (z. B. ohne Animation). In einigen Ausführungsformen bleiben in Reaktion auf das Erfassen einer Benutzereingabe, die einem Befehl zum Beenden eines Kapitelnavigationsmodus entspricht, eine oder mehrere Navigationselemente auf der Anzeige angezeigt (z. B. Scrubber-Leiste 5302, erster Wiedergabekopf 5304), bis die Anzeige des Vorschaufensters 5310 vollständig beendet wird.
  • 5SSSS veranschaulicht auch das Erfassen von Benutzereingabe 5172 (z. B. einer Antippgeste) auf der berührungsempfindlichen Oberfläche 451.
  • 5TTTT veranschaulicht ebenso, dass in Reaktion auf Benutzereingabe 5172 das Gerät in einen Navigationsmodus bei laufender Wiedergabe übergeht. Alternativ oder zusätzlich geht das Gerät in den Navigationsmodus bei laufender Wiedergabe in Reaktion auf das Erfassen einer Streichgeste oder einer Antipp- und Haltegeste auf der berührungsempfindlichen Oberfläche 451 über.
  • 5TTTT veranschaulicht ebenso, dass die Benutzereingabe 5173 (z. B. eine Streichgeste nach unten) nachfolgend auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5UUUU veranschaulicht, dass in Reaktion auf das Erfassen von Benutzereingabe 5173 das Gerät in den Kapitelwiedergabe-Navigationsmodus übergeht.
  • 5UUUU veranschaulicht auch, dass die Benutzereingabe 5174 (z. B. eine Streichgeste nach oben) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5VVVV veranschaulicht, dass in Reaktion auf das Erfassen von Benutzereingabe 5174 das Gerät in den Navigationsmodus bei laufender Wiedergabe übergeht.
  • 5VVVV veranschaulicht auch das Erfassen von Benutzereingabe 5175 (z. B. einer Streichgeste nach rechts) auf der berührungsempfindlichen Oberfläche 451.
  • 5WWWW veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5175 das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und der zweite Wiedergabekopf-Text 5312 sich zu einer bestimmten Position in der Scrubber-Leiste 5302 bewegt haben, die der Markierung 1:01:44 des angehaltenen Films entspricht. Das Vorschaufenster 5310 zeigt einen Ausschnitt der dramatischen Szene, als Greg die Ziege sich auf seinem Heimweg der großen Herausforderung nähert.
  • 5WWWW veranschaulicht auch, dass die Benutzereingabe 5179 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst wird.
  • 5XXXX veranschaulicht, dass in Reaktion auf das Erfassen einer Benutzereingabe (z. B. Benutzereingabe 5179, wie in 5WWWW dargestellt), ein erster Wiedergabekopf 5304 an die (temporäre) Position springt, die durch den zweiten Wiedergabekopf 5308 angegeben wird. In einigen Ausführungsformen, nachdem der erste Wiedergabekopf 5304 an die Position springt, die durch den zweiten Wiedergabekopf 5308 angegeben ist, wird die Anzeige von einem oder mehreren Navigationselementen (z. B. zweiter Wiedergabekopf 5308, Vorschaufenster 5310 und/oder zweiter Wiedergabetext 5312) in der Videowiedergabeansicht 5300 beendet. In einigen Ausführungsformen wird auch die Anzeige des ersten Wiedergabekopfs 5304 und der Scrubber-Leiste 5302 beendet, nachdem der erste Wiedergabekopf 5304 an die durch den zweiten Wiedergabekopf 5308 angegebene Position springt. In einigen Ausführungsformen wird die Anzeige der Navigationselemente beendet, nachdem ein oder mehrere Inaktivitätskriterien erfüllt sind (z. B. ist eine bestimmte Zeitspanne seit Erfassen der letzten Benutzereingabe verstrichen oder seit dem Erfassen, dass die Fernbedienung auf einer flachen Fläche abgelegt wurde). In einigen Ausführungsformen wird die Anzeige der Navigationselemente in Reaktion auf das Erfassen der Benutzereingabe 5178 beendet (z. B. eine Antipp- und Haltegeste).
  • 5YYYY veranschaulicht, dass die Anzeige der Navigationselemente beendet wird und das Gerät in einen normalen Wiedergabemodus übergeht. Während sich das Gerät im normalen Wiedergabemodus befindet, zeigt die Videowiedergabeansicht 5300 die Wiedergabe des Medienelements an.
  • In einigen Ausführungsformen ist die Navigation des angezeigten Medienelements im normalen Wiedergabemodus aktiviert, selbst wenn keine Navigationselemente in der Videowiedergabeansicht 5300 angezeigt werden (z. B. Scrubber-Leiste, Wiedergabeköpfe oder Zeittext werden in der Videowiedergabeansicht 5300 nicht angezeigt). 5BBBB veranschaulicht auch das Erfassen der Benutzereingabe 5180 (z. B. eine Klick-, Antipp- oder Drück- und Haltegeste) im Teilbereich 5208-f auf der berührungsempfindlichen Oberfläche 451.
  • 5ZZZZ veranschaulicht, dass in Reaktion auf das Erfassen der Benutzereingabe 5180 die Anzeige des Medienelements in der Videowiedergabeansicht 5300 in der Zeit um eine bestimmte Zeitspanne nach vorne gesetzt oder im Schnellvorlauf vorversetzt wird. Zum Beispiel war die Benutzereingabe 5180 ein Klick-Druck in der rechten Hälfte der berührungsempfindlichen Oberfläche 451, und das Gerät überspringt die Wiedergabe des Medienelements um eine bestimmte Zeitspanne (z. B. 10, 30 oder 90 Sekunden), was zeigt, dass Greg die Ziege den höchsten Gipfel des Bergmassivs nach dem bestimmten Zeitintervall von der in 5YYYY dargestellten Szene überschritten hat.
  • 6A6C veranschaulichen ein Ablaufdiagramm eines Verfahren 600 zum Bereitstellen interaktiver Bildschirmschonerinformationen gemäß einigen Ausführungsformen. Das Verfahren 600 wird von einem elektronischen Gerät (z. B. Gerät 300, 3, oder tragbares Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige und in einigen Ausführungsformen einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen ist die Anzeige von der berührungsempfindlichen Oberfläche getrennt. Einige Operationen von Verfahren 600 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, bietet Verfahren 600 eine intuitive Möglichkeit zur Interaktion mit Bildschirmschonern. Das Verfahren reduziert die kognitive Belastung für einen Benutzer bei der Interaktion mit Bildschirmschonern, wodurch eine effizientere Mensch-Maschinen-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten wird dadurch, dass einem Benutzer die Interaktion mit einem Bildschirmschoner ermöglicht wird, um weitere Informationen schneller und effizienter zu erhalten, Strom gespart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • Während das Gerät in einem Bildschirmmodus arbeitet, stellt das Gerät (602) der Anzeige die Präsentation eines ersten Mediums (Elements) bereit, das einen ersten visuellen Bewegungseffekt aufweist (z. B. ein erster Verschiebe- und/oder Zoomeffekt auf einem Standbild oder der Wiedergabe eines ersten Videos, wie ein (langsames) Hineinzoomen in eine erste Szene, wie in 5B5D dargestellt, wo ein Zoomeffekt für ein Bild einer Brücke gezeigt wird). In einigen Ausführungsformen entspricht das erste Medienelement einem ersten Standbild, auf das ein erster Verschiebe- und/oder Zoomeffekt angewendet wird.
  • Während die Anzeige das erste Medium präsentiert, das den ersten visuellen Bewegungseffekt aufweist, empfängt (604) das Gerät eine Benutzereingabe auf dem entfernten Benutzereingabegerät (z. B. Kontakt 5401 in 5D). In Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät bestimmt (606) das Gerät den Typ der Benutzereingabe auf dem entfernten Benutzereingabegerät.
  • Gemäß einer Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines ersten Typs ist (z. B. Auflegen eines Fingers auf einer berührungsempfindlichen Oberfläche der Fernbedienung, wie durch Kontakt 5401 in 5D dargestellt, oder das Anheben der Fernbedienung aus einer Ruheposition), stellt (608) das Gerät der Anzeige Daten zur Präsentation des ersten Mediums bereit, das einen zweiten visuellen Bewegungseffekt aufweist (z. B. einen zweiten Verschiebe- und/oder Zoomeffekt auf dem Standbild, das Zurückspulen des ersten Videos oder ein (langsames) Herauszoomen aus der ersten Szene), ohne den Bildschirmschonermodus zu verlassen, wie in 5D bis 5F dargestellt. Der zweite visuelle Bewegungseffekt unterscheidet sich vom ersten visuellen Bewegungseffekt. In einigen Ausführungsformen wird eine Richtung beim zweiten Verschiebe- und/oder Zoomvorgang gemäß der Benutzereingabe auf dem entfernten Eingabegerät geändert (z. B. eine Richtung einer Benutzereingabe auf einen berührungsempfindlichen Oberfläche der Fernbedienung). In einigen Ausführungsformen weist der zweite Verschiebe- und/oder Zoomeffekt das Ändern einer Wiedergabegeschwindigkeit des ersten Mediums auf (z. B. wird das Video langsamer oder schneller wiedergegeben).
  • Gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines zweiten Typs ist (z. B. Drücken einer Menütaste auf der Fernbedienung), die sich vom ersten Typ unterscheidet, beendet (610) das Gerät den Bildschirmschonermodus (z. B. wird in 5P mit der Eingabe 5407 durch Drücken der Menütaste 5002 das Beenden des Bildschirmschonermodus initiiert).
  • In einigen Ausführungsformen bestimmt (612) das Gerät dass die Erfassung der Benutzereingabe des ersten Typs auf dem entfernten Benutzereingabegerät beendet wurde, nach der Bestimmung, dass die Benutzereingabe vom ersten Typ ist, während die Anzeige das erste Medium präsentiert, das den zweiten visuellen Bewegungseffekt aufweist, und in Reaktion auf die Bestimmung, dass die Erfassung der Benutzereingabe des ersten Typs auf dem entfernten Benutzereingabegerät beendet wurde, stellt das Gerät der Anzeige Daten zur Präsentation eines Mediums bereit, das den ersten visuellen Bewegungseffekt aufweist (z. B. Wiederaufnahme der Wiedergabe des ersten Videos, nachdem die Benutzereingabe des ersten Typs auf dem entfernten Benutzereingabegerät nicht mehr erfasst wird, oder Anzeigen eines anderen Videos, das sich vom ersten Video unterscheidet, mit dem ersten Verschiebe- und/oder Zoomeffekt, wenn die Benutzereingabe des ersten Typs nicht mehr auf dem entfernten Benutzereingabegerät erfasst wird). Wenn zum Beispiel der Kontakt 5401 nicht mehr auf der berührungsempfindlichen Oberfläche 451 erfasst wird, wie in 5F dargestellt, wird der erste visuelle Bewegungseffekt (z. B. Hineinzoomen) wieder aufgenommen, wie in 5F bis 5H dargestellt.
  • In einigen Ausführungsformen stellt (614 6B) das Gerät in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät oder gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines dritten Typs ist (z. B. eine Antippgeste auf einer berührungsempfindlichen Oberfläche der Fernbedienung), der Anzeige Daten zur Präsentation des ersten Mediums, das den ersten visuellen Bewegungseffekt aufweist, mit zugehörigem beschreibendem Text bereit (z. B. initiiert die Antippgeste 5405 in 5L die Anzeige von Text, der in 5M dargestellt wird, der das erste Medienelement beschreibt, wie Metadaten mit Informationen über die Position und/oder die Zeit, an der erste Medium erfasst wurde).
  • In einigen Ausführungsformen stellt (616) das Gerät in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät, gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines vierten Typs ist (z. B. eine Streichgeste 5406 nach rechts in 5N), der Anzeige Daten zum Ersetzen des ersten Mediums (Element) bereit, das den ersten visuellen Bewegungseffekt aufweist, durch ein zweites Medium (z. B. nächstes Video in der gleichen Kollektion oder einer anderen Kollektion), das ausgewählt ist aus einer Mehrzahl von Medien, das einen dritten visuellen Bewegungseffekt aufweist (z. B. einen dritten Verschiebe- und/oder Zoomeffekt). Zum Beispiel wird in 5O ein Standbild anstelle des Bilds einer Brücke angezeigt. Das Strandbild wird mit Verschiebe- und Zoomeffekten angezeigt, wohingegen das Brückenbild nur mit einem Zoomeffekt angezeigt wird. In einigen Ausführungsformen unterscheidet sich der dritte visuelle Bewegungseffekt vom ersten visuellen Bewegungseffekt (z. B. der dritte Verschiebe- und/oder Zoomeffekt unterscheidet sich vom ersten Verschiebe- und/oder Zoomeffekt). In einigen Ausführungsformen entspricht der dritte visuelle Bewegungseffekt dem ersten visuellen Bewegungseffekt (z. B. der dritte Verschiebe- und/oder Zoomeffekt entspricht dem ersten Verschiebe- und/oder Zoomeffekt). In einigen Ausführungsformen entspricht das zweite Medienelement einem zweiten Standbild, auf das ein dritter Verschiebe- und/oder Zoomeffekt angewendet wird. In einigen Ausführungsformen sind die mehrere Medien (oder Bilder) auf dem elektronischen Gerät gespeichert.
  • In einigen Fällen wird der Verschiebe- und/oder Zoomeffekt auf ein entsprechendes Standbild angewendet, das aus mehreren Standbildern ausgewählt ist, um ein erstes Video zu erstellen. In einigen Ausführungsformen stellt das Gerät in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät gemäß einer Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines bestimmten Typs ist (z. B. ein Streichen nach rechts) der Anzeige Daten zum Ersetzen der Präsentation des ersten Standbilds, das den ersten Verschiebe- und/oder Zoomeffekt aufweist, durch eine Präsentation eines aus den mehreren Standbildern ausgewählten zweiten Standbilds (z. B. ein nächstes Standbild in der gleichen Kollektion von Standbildern oder in einer anderen Kollektion) bereit, wobei die Präsentation des zweiten Standbilds einen dritten visuellen Bewegungseffekt aufweist (z. B. den dritten Verschiebe- und/oder Zoomeffekt).
  • In einigen Ausführungsformen stellt (618) das Gerät in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines fünften Typs ist (z. B. ein Aufheben der Fernbedienung, wie in 5K dargestellt), der Anzeige Daten zur Präsentation des ersten Mediums, das den ersten visuellen Bewegungseffekt aufweist, mit Informationen, die die aktuelle Zeit und/oder das Datum angeben, bereit. (z. B. die aktuelle Zeit und/oder Datum 5010 im Text, wie in 5L dargestellt, oder ein oder mehrere Symbole, die die aktuelle Zeit und/oder das aktuelle Datum angeben, wie ein Bild einer Uhr).
  • In einigen Ausführungsformen geht (620) das elektronische Gerät in einen Bildschirmschonermodus gemäß einer Bestimmung über, dass ein oder mehrere Bildschirmschoner-Aktivierungskriterien erfüllt sind, wobei das eine oder die mehreren Bildschirmschoner-Aktivierungskriterien gemäß der Bestimmung erfüllt sind, dass das entfernte Benutzereingabegerät unbewegt ist (z. B. für eine bestimmte Zeitspanne). In einigen Ausführungsformen sind das eine oder die mehreren Bildschirmschoner-Aktivierungskriterien gemäß der Bestimmung erfüllt, dass das entfernte Benutzereingabegerät auf einer feststehenden Fläche abgelegt wurde.
  • In einigen Ausführungsformen ändert (622) das Gerät in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe eines sechsten Typs ist (z. B. Ziehen eines Fingers auf einer berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts in einer ersten Richtung) einen visuellen Bewegungseffekt zur Präsentation des ersten Mediums auf der Anzeige. Zum Beispiel wird in Reaktion auf eine Streichgeste nach unten (z. B. die in 5I dargestellte Bewegung von Kontakt 5403) auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts das erste Standbild mit einem Hineinzoomeffekt präsentiert, sodass das erste Standbild angezeigt wird, als wenn das erste Standbild auf der Anzeige nach hinten gezogen wird, wie in 5J dargestellt.
  • In einigen Ausführungsformen stellt (624, Fig. C) das Gerät in Reaktion auf den Empfang der Benutzereingabe auf dem entfernten Benutzereingabegerät und gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe des zweiten Typs ist der Anzeige Daten zum Ersetzen des ersten Mediums, das den ersten visuellen Bewegungseffekt aufweist, durch eine Benutzerschnittstelle mit mehreren Objekten (z. B. eine Home-Bildschirm-Benutzerschnittstelle 5018 in 5Q) bereit. Die mehreren Objekte umfassen ein erstes Objekt (z. B. Symbol 5015-a) und ein zweites Objekt (z. B. Symbol 5015-b), das sich neben dem ersten Objekt auf der Anzeige befindet, und ein aktueller Fokus liegt auf dem ersten Objekt der mehreren Objekte (z. B. liegt in 5Q der aktuelle Fokus auf Symbol 5015-a).
  • In einigen Ausführungsformen umfasst das Bereitstellen von Daten für die Anzeige zum Präsentieren des ersten Mediums, das den ersten visuellen Bewegungseffekt aufweist, das Bereitstellen von Daten für die Anzeige zur Präsentation einer Wiedergabe eines ersten Videos. In einigen Ausführungsformen ändert (629) das Gerät gemäß der Bestimmung, dass die Benutzereingabe auf dem entfernten Benutzereingabegerät eine Benutzereingabe des siebten Typs ist, eine Wiedergaberichtung des ersten Videos gemäß der Benutzereingabe (z. B. wird in Reaktion auf eine in 5H dargestellte Streichgeste nach links die Wiedergaberichtung vom Hineinzoomen in Herauszoomen geändert).
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 6A6C beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen erkennbar. Darüber hinaus ist hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 700, 800, 900, 1000, 1100 oder 1200) ebenso in analoger Weise auf das Verfahren 600 anwendbar sind, das oben bezüglich 6A6C beschrieben wurde. Zum Beispiel weisen die Benutzerschnittstellen und Benutzereingaben, die oben bezüglich Verfahren 600 beschrieben wurden, optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen und Benutzereingaben auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 700, 800, 900, 1000, 1100 und 1200). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 7A7C stellen ein Ablaufdiagramm eines Verfahrens 700 zum Versetzen eines aktuellen Fokus über Benutzerschnittstellenobjekte gemäß einigen Ausführungsformen dar. Das Verfahren 700 wird von einem elektronischen Gerät (z. B. Gerät 300, 3, oder tragbares Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige und in einigen Ausführungsformen einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen ist die Anzeige von der berührungsempfindlichen Oberfläche getrennt. Einige Operationen in Verfahren 700 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, stellt das Verfahren 700 eine intuitive Möglichkeit zum Versetzen eines aktuellen Fokus über Benutzerschnittstellenobjekte bereit. Das Verfahren verringert die kognitive Belastung für einen Benutzer beim Versetzen aktueller Fokusse, wodurch eine effizientere Mensch-Maschinen-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten ermöglicht dies einem Benutzer, einen aktuellen Fokus schneller und effizienter zu versetzen, was Strom spart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • In einigen Ausführungsformen stellt (702) das elektronische Gerät der Anzeige Daten (z. B. Anweisungen, Videosignale, Bilddateien oder andere Informationen) zur Darstellung einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereit. In einigen Ausführungsformen werden die mehreren Benutzerschnittstellenobjekte in einem scrollbaren (durchblätterbaren) zweidimensionalen Array auf der Anzeige angezeigt. In einigen Ausführungsformen sind die Benutzerschnittstellenobjekte Anwendungssymbole, Kanalsymbole, Inhaltssymbole oder Inhaltsgruppensymbole, die bei Aktivierung (z. B. mit einer Antippgeste, dem Drücken einer Auswahltaste, einem Sprachbefehl usw.) zur Anzeige einer entsprechenden Anwendung, eines Kanals, Inhalts oder einer Inhaltsgruppe auf der Anzeige führen. Die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeige befindet. In einigen Ausführungsformen besteht ein Abstand zwischen den benachbarten Benutzerschnittstellenobjekten. In einigen Ausführungsformen ist der Abstand zwischen den benachbarten Benutzerschnittstellenobjekten verringert, wenn sich ein Benutzerschnittstellenobjekt in Richtung des anderen Benutzerschnittstellenobjekts bewegt. In einigen Ausführungsformen besteht kein Abstand zwischen den benachbarten Benutzerschnittstellenobjekten mehr, wenn sich ein Benutzerschnittstellenobjekt in Richtung des anderen Benutzerschnittstellenobjekts bewegt. Ein aktueller Fokus liegt auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte. In einigen Ausführungsformen, während sich der aktuelle Fokus auf einem entsprechenden Benutzerschnittstellenobjekt befindet, ist das jeweilige Benutzerschnittstellenobjekt visuell von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte unterschieden.
  • Während die Anzeige die Benutzerschnittstelle darstellt, empfängt (704) das elektronische Gerät eine erste Eingabe, die einer Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht (z. B. Empfangen einer Eingabe, die einer Geste auf einer berührungsempfindlichen Oberfläche in Kommunikation mit dem elektronischen Gerät, einer Aktivierung einer Taste in Kommunikation mit dem Gerät und/oder einem Sprachbefehl entspricht). In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche oder Taste in das elektronische Gerät integriert. In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche oder Taste vom elektronischen Gerät getrennt.
  • In Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, stellt (706) das elektronische Gerät der Anzeige Daten bereit zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position (z. B. einer Ausgangsposition des ersten Benutzerschnittstellenobjekts auf der Anzeige relativ zu der Position der anderen Objekte von den mehreren Objekten um das erste Benutzerschnittstellenobjekt auf der Anzeige) in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung (z. B. einer Anfangsausrichtung für das erste Benutzerschnittstellenobjekt, das visuell in der Anzeigeebene angezeigt wird) in Richtung des zweiten Benutzerschnittstellenobjekts (z. B. wie in 5CC, 5FF, 5GG und 5II dargestellt, wird das Symbol 5015-a in Richtung von Symbol 5015-b bewegt und/oder geneigt); und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt (z. B. wie in 5DD und 5HH dargestellt, bewegt sich der aktuelle Fokus von Symbol 5015-a auf Symbol 5015-b) und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung (z. B. bewegt sich in 5DD und 5HH das Symbol 5015-a nach Versetzen des aktuellen Fokus von Symbol 5015-a auf Symbol 5015-b zurück und neigt sich zurück). In einigen Ausführungsformen kehrt das erste Benutzerschnittstellenobjekt an die erste Position zurück (z. B. bewegt sich das Symbol 5015-a zurück, nachdem der aktuelle Fokus auf das Symbol 5015-b übergeht). In einigen Ausführungsformen kehrt das erste Benutzerschnittstellenobjekt zur ersten Ausrichtung zurück (z. B. neigt sich das Symbol 5015-a zurück, nachdem der aktuelle Fokus auf das Symbol 5015-b übergeht).
  • In einigen Ausführungsformen stellt (708) das elektronische Gerät in Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, der Anzeige Daten bereit zum: Verringern der Größe des ersten Benutzerschnittstellenobjekts auf der Anzeige und Erhöhen der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige (z. B. wie in 5BB5DD dargestellt, nachdem der aktuelle Fokus von Symbol 5015-a auf Symbol 5015-b übergeht, verkleinert sich die Größe von Symbol 5015-a und die Größe von Symbol 5015-b erhöht sich). In einigen Ausführungsformen wird ein jeweiliges Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte in einer jeweiligen ersten Größe angezeigt, wenn der aktuelle Fokus nicht auf dem jeweiligen Benutzerschnittstellenobjekt liegt, und das jeweilige Benutzerschnittstellenobjekt wird in einer jeweiligen zweiten Größe angezeigt, die größer ist als die jeweilige erste Größe, wenn der aktuelle Fokus auf dem jeweiligen Benutzerschnittstellenobjekt liegt (z. B. während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt, wird das erste Benutzerschnittstellenobjekt in der jeweiligen zweiten Größe angezeigt und das zweite Benutzerschnittstellenobjekt wird in der jeweiligen ersten Größe angezeigt). Die vergrößerte Größe des jeweiligen Benutzerschnittstellenobjekts stellt einen Hinweis dar, dass der aktuelle Fokus auf dem jeweiligen Benutzerschnittstellenobjekt liegt.
  • In einigen Ausführungsformen wird ein Name (oder anderer Bezeichner) des ersten Benutzerschnittstellenobjekts auf oder neben dem ersten Benutzerschnittstellenobjekt angezeigt, während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt. In Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, stellt (710) das elektronische Gerät der Anzeige Daten bereit zum: Beenden der Anzeige des Namens des ersten Benutzerschnittstellenobjekts und Anzeigen eines Namens des zweiten Benutzerschnittstellenobjekts auf oder neben dem zweiten Benutzerschnittstellenobjekt, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt. Zum Beispiel, wie in 5BB5DD dargestellt, wenn der aktuelle Fokus auf dem Symbol 5015-a liegt, wird der Name von Symbol 5015-a unter dem Symbol 5015-a angezeigt. Wenn der aktuelle Fokus von Symbol 5015-a auf Symbol 5015-b übergeht, wird die Anzeige des Namens des Symbols 5015-a beendet und der Name des Symbols 5015-b wird unter dem Symbol 5015-b angezeigt. In einigen Ausführungsformen wird ein entsprechendes Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte mit einem Namen oder einem anderen Bezeichner auf oder neben dem jeweiligen Benutzerschnittstellenobjekt angezeigt, wenn der aktuelle Fokus auf dem jeweiligen Benutzerschnittstellenobjekt liegt, und das jeweilige Benutzerschnittstellenobjekt wird ohne einen Namen oder anderen Bezeichner auf oder neben dem jeweiligen Benutzerschnittstellenobjekt angezeigt, wenn der aktuelle Fokus nicht auf dem jeweiligen Benutzerschnittstellenobjekt liegt (z. B. während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt, wird das zweite Benutzerschnittstellenobjekt ohne den Namen auf oder neben dem zweiten Benutzerschnittstellenobjekt angezeigt). Wird ein Name des jeweiligen Benutzerschnittstellenobjekts angezeigt, ist dies ein Hinweis darauf, dass der aktuelle Fokus auf dem jeweiligen Benutzerschnittstellenobjekt liegt.
  • In einigen Ausführungsformen umfasst (712, 7B) das erste Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen, die in einer Z-Anordnung angeordnet sind, und die Ebenen verschieben sich auf der Anzeige gemäß dem Neigen des ersten Benutzerschnittstellenobjekts (z. B. wie in 5MM5NN dargestellt, weist das Symbol 1515-e zwei oder mehrere Ebenen an Bildern auf, die in einer Z-Anordnung angeordnet sind, und die Ebenen verschieben sich auf der Anzeige, um einen Parallaxeneffekt bereitzustellen). In einigen Ausführungsformen weist ein entsprechendes Benutzerschnittstellenobjekt (z. B. ein Symbol, das einem bestimmten Inhaltsteil entspricht, wie einem Film, einer Fernsehshow, einem Video oder einem Album) Grafiken auf zwei oder mehreren überlappenden Ebenen auf. In einigen Ausführungsformen sind die zwei oder mehreren überlappenden Ebenen in einer Z-Anordnung (auch als Anordnung von vorne nach hinten bezeichnet) angeordnet. Die Ebenen verschieben sich auf der Anzeige, wenn das jeweilige Benutzerschnittstellenobjekt geneigt wird (z. B. in Reaktion auf Eingaben, die den aktuellen Fokus auf der Anzeige versetzen), was einen Parallaxeneffekt für Grafiken in den Ebenen des jeweiligen Benutzerschnittstellenobjekts erzeugt.
  • In einigen Ausführungsformen umfasst (714) das erste Benutzerschnittstellenobjekt eine oder mehrere Reflexionen und die einen oder mehreren Reflexionen ändern sich gemäß der Neigung des ersten Benutzerschnittstellenobjekts. In einigen Ausführungsformen umfasst ein jeweiliges Benutzerschnittstellenobjekt (z. B. ein Symbol, das einem bestimmten Inhaltsteil entspricht) eine Reflexion, die sich mit der Neigung des jeweiligen Benutzerschnittstellenobjekts verschiebt, bewegt oder anderweitig verändert (z. B. in Reaktion auf Eingaben, die den aktuellen Fokus auf der Anzeige versetzen). Zum Beispiel zeigt 5R eine Reflexion für Benutzerschnittstellenobjekt 5015-a. Die Reflexion bewegt sich, wenn sich das Objekt 5015-a um eine Querachse (z. B. die X-Achse in 5R) neigt/rotiert.
  • In einigen Ausführungsformen enthält (716) das erste Benutzerschnittstellenobjekt eine oder mehrere Farben und die einen oder mehreren Farben ändern sich gemäß der Neigung des ersten Benutzerschnittstellenobjekts. In einigen Ausführungsformen enthält ein entsprechendes Benutzerschnittstellenobjekt (z. B. ein Symbol, das einem bestimmten Inhaltsteil entspricht) Farben, die sich mit der Neigung des jeweiligen Benutzerschnittstellenobjekts ändern (z. B. in Reaktion auf Eingaben, die den aktuellen Fokus auf der Anzeige versetzen). In einigen Ausführungsformen verändert sich eine Farbe eines Benutzerschnittstellenobjekts, wenn sich das Objekt um eine Rollachse (z. B. die Y-Achse) neigt/rotiert. In einigen Ausführungsformen bewegt sich für ein entsprechendes Benutzerschnittstellenobjekt eine virtuelle Reflexion auf dem Objekt, wenn sich das Objekt um eine erste Achse (z. B. die X-Achse) neigt/rotiert, und eine oder mehrere Farben des Objekts ändern sich, wenn sich das Objekt um eine zweite Achse (z. B. die Y-Achse) neigt/rotiert.
  • In einigen Ausführungsformen nimmt (718) eine Größenordnung der Bewegung des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts ab, wenn die Geschwindigkeit der Bewegung des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt zum zweiten Benutzerschnittstellenobjekt ansteigt. Zum Beispiel, wenn sich der aktuelle Fokus schnell von Symbol 5015-b auf Symbol 5015-e bewegt, wie in 5LL dargestellt, wird die Größenordnung der Bewegung eines jeden Benutzerschnittstellenobjekts zwischen Symbol 5015-b und Symbol 5015-e verringert (sodass sie schneller zu ihren Ausgangspositionen zurückkehren können).
  • In einigen Ausführungsformen nimmt (720) eine Größenordnung der Neigung des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts ab, wenn die Geschwindigkeit der Bewegung des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt zum zweiten Benutzerschnittstellenobjekt ansteigt. Zum Beispiel, wenn sich der aktuelle Fokus schnell von Symbol 5015-b auf Symbol 5015-e bewegt, wie in 5LL dargestellt, wird die Größenordnung der Bewegung eines jeden Benutzerschnittstellenobjekts zwischen Symbol 5015-b und Symbol 5015-e verringert (sodass sie schneller an ihre Ausgangspositionen zurückkehren können).
  • In einigen Ausführungsformen erfolgt (722) das Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt in Reaktion auf den Empfang der ersten Eingabe ohne (fortlaufendes) Bewegen eines beliebigen Benutzerschnittstellenobjekts von dem ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt. In einigen Ausführungsformen gibt es keine Bewegung eines Cursors, eines Fokus-Auswahlrings oder eines anderen Benutzerschnittstellenobjekts von einem jeweiligen Benutzerschnittstellenobjekt auf ein benachbartes Benutzerschnittstellenobjekt, wenn der aktuelle Fokus vom jeweiligen Benutzerschnittstellenobjekt auf das benachbarte Benutzerschnittstellenobjekt versetzt wird. In einigen Ausführungsformen gibt es keine Bewegung eines Cursors, eines Fokus-Auswahlrings oder eines anderen Benutzerschnittstellenobjekts über eine Serie von benachbarten Benutzerschnittstellenobjekten, wenn der aktuelle Fokus über die Serie der benachbarten Benutzerschnittstellenobjekte versetzt wird.
  • In einigen Ausführungsformen, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt, empfängt (724, 7C) das elektronische Gerät eine zweite Eingabe, die einer Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht (z. B. Empfang einer Bewegung von Kontakt 5409 auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001, wie in 5V dargestellt, einer Aktivierung einer Taste, die in Kommunikation mit dem Gerät steht und/oder eines Sprachbefehls). In Reaktion auf den Empfang der zweiten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, stellt das elektronische Gerät der Anzeige Daten bereit zum: Bewegen des zweiten Benutzerschnittstellenobjekts von einer zweiten Position (z. B. einer Ausgangsposition des zweiten Benutzerschnittstellenobjekts auf der Anzeige bezüglich der Positionen anderer Objekte von den mehreren Objekten um das zweite Benutzerschnittstellenobjekt auf der Anzeige) in Richtung eines dritten Benutzerschnittstellenobjekts neben dem zweiten Benutzerschnittstellenobjekt und/oder Neigen des zweiten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung (z. B. einer Anfangsausrichtung für das zweite Benutzerschnittstellenobjekt, das visuell in der Anzeigeebene erscheint, wie die erste Ausrichtung für das erste Benutzerschnittstellenobjekt) in Richtung des dritten Benutzerschnittstellenobjekts (z. B. wie in 5W dargestellt, wird das Symbol 5015-b in Richtung Symbol 5015-c geneigt). Nach dem Verschieben des zweiten Benutzerschnittstellenobjekts von der zweiten Position in Richtung des dritten Benutzerschnittstellenobjekts und/oder dem Neigen des zweiten Benutzerschnittstellenobjekts in Richtung des dritten Benutzerschnittstellenobjekts: versetzt das elektronische Gerät den aktuellen Fokus vom zweiten Benutzerschnittstellenobjekt auf das dritte Benutzerschnittstellenobjekt (wie z. B. in 5X dargestellt, bewegt sich der aktuelle Fokus von Symbol 5015-b auf Symbol 5015-c), und versetzt das zweite Benutzerschnittstellenobjekt in Richtung der zweiten Position zurück und/oder neigt das zweite Benutzerschnittstellenobjekt in Richtung der zweiten Ausrichtung zurück (z. B. nachdem der aktuelle Fokus vom Symbol 5005-b auf Symbol 5015-c versetzt wird, kehrt das Symbol 5015-b in die Ausgangsposition und Ausrichtung zurück, wie in 5X dargestellt). In einigen Ausführungsformen kehrt das zweite Benutzerschnittstellenobjekt an die zweite Position zurück. In einigen Ausführungsformen kehrt das zweite Benutzerschnittstellenobjekt in die zweite Ausrichtung zurück. In einigen Ausführungsformen kann der Prozess des Versetzens und/oder Neigens eines entsprechenden Objekts mit dem aktuellen Fokus in Richtung eines benachbarten Objekts, das Versetzen des aktuellen Fokus auf das benachbarte Objekt und das Versetzen und/oder Neigen des jeweiligen Objekts zurück an die vorhergehende Position und/oder Ausrichtung mehrere Male in Reaktion auf eine einzelne Eingabe wiederholt werden, die einer Anforderung zum Versetzen des aktuellen Fokus entspricht.
  • In einigen Ausführungsformen, während sich der aktuelle Fokus auf dem dritten Benutzerschnittstellenobjekt befindet, empfängt (726) das elektronische Gerät eine dritte Eingabe (z. B. Empfangen einer Bewegung von Kontakt 5410 auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001, wie in 5Y5Z dargestellt). In Reaktion auf den Empfang der dritten Eingabe stellt das elektronische Gerät der Anzeige Daten bereit zum: Bewegen des dritten Benutzerschnittstellenobjekts von einer dritten Position (z. B. einer Ausgangsposition des dritten Benutzerschnittstellenobjekts auf der Anzeige bezüglich der Positionen anderer Objekte der mehreren Objekte um das dritte Benutzerschnittstellenobjekt auf der Anzeige) in Richtung eines vierten Benutzerschnittstellenobjekts neben dem dritten Benutzerschnittstellenobjekt und/oder Neigen des dritten Benutzerschnittstellenobjekts von einer dritten Ausrichtung (z. B. einer Anfangsausrichtung für das dritte Benutzerschnittstellenobjekt, das visuell in der Anzeigeebene angezeigt wird, wie die erste Ausrichtung für das erste Benutzerschnittstellenobjekt) in Richtung des vierten Benutzerschnittstellenobjekts (wie z. B. in 5Z dargestellt, wird das Symbol 5015-c in Richtung von Symbol 5015-d geneigt). Nach dem Verschieben des dritten Benutzerschnittstellenobjekts von der dritten Position in Richtung des vierten Benutzerschnittstellenobjekts und/oder dem Neigen des dritten Benutzerschnittstellenobjekts in Richtung des vierten Benutzerschnittstellenobjekts: behält das elektronische Gerät den aktuellen Fokus auf dem dritten Benutzerschnittstellenobjekt bei und bewegt das dritte Benutzerschnittstellenobjekt zurück in Richtung der dritten Position und/oder neigt das dritte Benutzerschnittstellenobjekt zurück in Richtung der dritten Ausrichtung (wie zum Beispiel in 5AA dargestellt, bleibt der aktuelle Fokus auf Symbol 5015-c und Symbol 5015-c kehrt zur Ausgangsposition und -ausrichtung zurück). In einigen Ausführungsformen kehrt das dritte Benutzerschnittstellenobjekt an die dritte Position zurück. In einigen Ausführungsformen kehrt das dritte Benutzerschnittstellenobjekt an die dritte Ausrichtung zurück. In einigen Ausführungsformen, wenn eine Eingabe (z. B. hier die dritte Eingabe) nicht ausreichend ist, um den aktuellen Fokus von einem jeweiligen Benutzerschnittstellenobjekt auf ein benachbartes Benutzerschnittstellenobjekt zu versetzen, bewegt sich das jeweilige Benutzerschnittstellenobjekt und/oder neigt sich in Richtung des benachbarten Benutzerschnittstellenobjekts, und bewegt sich dann und/oder neigt sich dann zurück an die vorhergehenden Position und/oder -Ausrichtung, um anzuzeigen, dass die Eingabe nicht ausreichend war, um den aktuellen Fokus vom jeweiligen Benutzerschnittstellenobjekt auf das benachbarte Benutzerschnittstellenobjekt zu verschieben, und der aktuelle Fokus bleibt auf dem jeweiligen Benutzerschnittstellenobjekt.
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 7A7C beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen ersichtlich. Darüber hinaus ist hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 600, 800, 900, 1000, 1100 und 1200) ebenso in analoger Weise auf das Verfahren 700 anwendbar sind, das oben bezüglich 7A7C beschrieben wurde. Zum Beispiel weisen die Benutzerschnittstellen, Benutzereingaben und das Neigen und/oder Bewegen der Benutzerschnittstellenobjekte, die oben bezüglich Verfahren 700 beschrieben wurden, optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen, Benutzereingaben und des Neigens und/oder der Bewegung der Benutzerschnittstellenobjekte auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 600, 800, 900, 1000, 1100 und 1200). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 8A8C stellen ein Ablaufdiagramm von Verfahren 800 zum Versetzen eines aktuellen Fokus über Benutzerschnittstellenobjekte gemäß einigen Ausführungsformen dar. Das Verfahren 800 wird von einem elektronischen Gerät (z. B. Gerät 300, 3, oder das tragbare Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige und in einigen Ausführungsformen einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen kann die Anzeige von der berührungsempfindlichen Oberfläche getrennt sein. Einige Operationen in Verfahren 800 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, stellt das Verfahren 800 eine intuitive Möglichkeit zum Versetzen eines aktuellen Fokus über Benutzerschnittstellenobjekte bereit. Das Verfahren verringert die kognitive Belastung für einen Benutzer beim Versetzen aktueller Fokusse, wodurch eine effizientere Mensch-Maschinen-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten ermöglicht dies einem Benutzer, einen aktuellen Fokus schneller und effizienter zu versetzen, was Strom spart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • In einigen Ausführungsformen stellt (802) das elektronische Gerät der Anzeige Daten (z. B. Anweisungen, Videosignale, Bilddateien oder andere Informationen) zur Präsentation einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereit. In einigen Ausführungsformen werden die mehreren Benutzerschnittstellenobjekte in einem scrollbaren zweidimensionalen Array auf der Anzeige angezeigt. In einigen Ausführungsformen sind die Benutzerschnittstellenobjekte Anwendungssymbole, Kanalsymbole, Inhaltssymbole oder Inhaltsgruppensymbole, die bei Aktivierung (z. B. mit einer Antippgeste, dem Drücken einer Auswahltaste, einem Sprachbefehl usw.) zur Anzeige einer entsprechenden Anwendung, eines Kanals, Inhalts oder einer Inhaltsgruppe auf der Anzeige führen. Die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeige befindet. In einigen Ausführungsformen besteht ein Abstand zwischen den benachbarten Benutzerschnittstellenobjekten. In einigen Ausführungsformen ist der Abstand zwischen den benachbarten Benutzerschnittstellenobjekten verringert, wenn ein Benutzerschnittstellenobjekt sich in Richtung des anderen Benutzerschnittstellenobjekts bewegt. In einigen Ausführungsformen besteht kein Abstand zwischen den benachbarten Benutzerschnittstellenobjekten mehr, wenn sich ein Benutzerschnittstellenobjekt in Richtung des anderen Benutzerschnittstellenobjekts bewegt. Ein aktueller Fokus liegt auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte. In einigen Ausführungsformen, während sich der aktuelle Fokus auf einem entsprechenden Benutzerschnittstellenobjekt befindet, wird das jeweilige Benutzerschnittstellenobjekt visuell von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte unterschieden.
  • Während die Anzeige die Benutzerschnittstelle darstellt, empfängt (804) das elektronische Gerät eine erste Eingabe (z. B. Empfang einer Eingabe, die einer Geste auf einer berührungsempfindlichen Oberfläche in Kommunikation mit dem elektronischen Gerät entspricht, wie eine berührungsempfindliche Oberfläche 451 der Fernbedienung 5001). In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche oder Taste in das elektronische Gerät integriert. In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche oder Taste vom elektronischen Gerät getrennt.
  • In Reaktion auf den Empfang der ersten Eingabe stellt (806) das elektronische Gerät der Anzeige Daten bereit zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position (z. B. einer Ausgangsposition des ersten Benutzerschnittstellenobjekts auf der Anzeige bezüglich der Positionen anderer Objekte der mehreren Objekte um das erste Benutzerschnittstellenobjekt auf der Anzeige) in Richtung eines zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung (z. B. einer Anfangsausrichtung für das erste Benutzerschnittstellenobjekt, das visuell in der Anzeigeebene erscheint) in Richtung des zweiten Benutzerschnittstellenobjekts (wie z. B. in 5BB5II dargestellt, wird das Symbol 5015-a in Richtung Symbol 5015-c bewegt und/oder geneigt).
  • In einigen Ausführungsformen umfasst (808) das erste Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen, die in einer Z-Reihenfolge von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind, und die Ebenen verschieben sich auf der Anzeige gemäß dem Neigen des ersten Benutzerschnittstellenobjekts (z. B. wie in 5MM5NN dargestellt, weist das Symbol 1515-e zwei oder mehrere Ebenen an Bildern auf, die in einer Z-Reihenfolge angeordnet sind, und die Ebenen verschieben sich auf der Anzeige, um einen Parallaxeneffekt bereitzustellen). In einigen Ausführungsformen weisen die zwei oder mehreren überlappenden Ebenen eine oder mehrere dazwischen liegende Ebenen zwischen der Vordergrundebene und der Hintergrundebene auf (z. B. die Ebenen 5030 und 5032 zwischen der Vordergrundebene 5028 und der Hintergrundebene 5034, wie in 5NN dargestellt, und die Ebene 5050-2 zwischen der Vordergrundebene 5050-1 und der Hintergrundebene 5050-3, wie in 5PP dargestellt). In einigen Ausführungsformen weisen die zwei oder mehreren überlappenden Ebenen keine dazwischen liegende Ebene zwischen der Vordergrundebene und der Hintergrundebene auf.
  • In einigen Ausführungsformen weist (810) das Neigen des ersten Benutzerschnittstellenobjekts das Verzichten auf die Anzeige von einem oder mehreren Bereichen der zwei oder mehreren überlappenden Ebenen auf, die sich von der Hintergrundebene unterscheiden (z. B. die Vordergrundebene und zwischen der Vordergrundebene und der Hintergrundebene liegende Ebenen), die über eine Begrenzung der Hintergrundebene hinausgehen (z. B. eine oder mehrere der oberen Ebenen werden basierend auf der Hintergrundebene maskiert). Zum Beispiel, wie in der Konfiguration 5046 von 5PP dargestellt, sind ein oder mehrere Bereiche der überlappenden Ebenen, die über die Begrenzung der Hintergrundebene hinausgehen, abgeschnitten. Aufgrund des Parallaxeneffekts, wenn das erste Benutzerschnittstellenobjekt geneigt wird, bewegen sich die zwei oder mehreren überlappenden Ebenen relativ zur Hintergrundebene, wenn das erste Benutzerschnittstellenobjekt geneigt wird, somit verändert sich der Teil der zwei oder mehreren überlappenden von der Hintergrundebene maskierten Ebenen in Abhängigkeit vom Neigungsbetrag des ersten Benutzerschnittstellenobjekts. In einigen Ausführungsformen sind die überlappenden Ebenen größer als die Hintergrundebene, sodass die überlappenden Ebenen weiterhin die Hintergrundebene vollständig abdecken, selbst wenn das erste Benutzerschnittstellenobjekt geneigt wird.
  • In einigen Ausführungsformen ist (812) eine projizierte Tiefe zwischen der Vordergrundebene und der Hintergrundebene unabhängig von der Anzahl der zwischen der Vordergrundebene und der Hintergrundebene liegenden Ebenen (z. B. null, eine, zwei usw.) (z. B. ist in 5PP die projizierte Tiefe zwischen der Vordergrundebene 5048-1 und der Hintergrundebene 5048-2 und die projizierte Tiefe zwischen der Vordergrundebene 5050-1 und der Hintergrundebene 5050-3 gleich). In einigen Ausführungsformen weist das erste Benutzerschnittstellenobjekt Grafiken in drei überlappenden Ebenen auf und das zweite Benutzerschnittstellenobjekt weist Grafiken in zwei überlappenden Ebenen auf, und sowohl das erste Benutzerschnittstellenobjekt als auch das zweite Benutzerschnittstellenobjekt haben die gleiche projizierte Tiefe zwischen der Vordergrundebene und der Hintergrundebene.
  • Nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: Gemäß einer Bestimmung, dass die erste Eingabe das Kriterium zur Navigation auf den ersten aktuellen Fokus erfüllt (z. B. bewegt sich in 5R5U der Kontakt 5408 zur Begrenzungsposition 5408-d), stellt das elektronische Gerät (814, 8B) der Anzeige Daten bereit zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück an die erste Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in die erste Ausrichtung (z. B. wird in 5U der aktuelle Fokus vom Symbol 5015-a auf Symbol 5015-b versetzt und das Symbol 5015-a bewegt sich zurück und/oder neigt sich zurück an die Ausgangsposition und -ausrichtung). In einigen Ausführungsformen kehrt das erste Benutzerschnittstellenobjekt an die erste Position zurück. In einigen Ausführungsformen kehrt das erste Benutzerschnittstellenobjekt zur ersten Ausrichtung zurück.
  • In einigen Ausführungsformen wird ein Name (oder anderer Bezeichner) des ersten Benutzerschnittstellenobjekts auf oder neben dem ersten Benutzerschnittstellenobjekt angezeigt, während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt. Gemäß der Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, stellt das elektronische Gerät (816) der Anzeige Daten bereit zum: Beenden der Anzeige des Namen des ersten Benutzerschnittstellenobjekts; und Anzeigen eines Namens des zweiten Benutzerschnittstellenobjekts auf oder neben dem zweiten Benutzerschnittstellenobjekt, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt. Zum Beispiel, wie in 5BB5DD dargestellt, wenn der aktuelle Fokus auf dem Symbol 5015-a liegt, wird der Name von Symbol 5015-a unter dem Symbol 5015-a angezeigt. Wenn der aktuelle Fokus vom Symbol 5015-a auf Symbol 5015-b übergeht, wird die Anzeige des Namens des Symbols 5015-a beendet und der Name des Symbols 5015-b wird unter dem Symbol 5015-b angezeigt. In einigen Ausführungsformen wird ein jeweiliges Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte mit einem Namen oder einem anderen Bezeichner auf oder neben dem jeweiligen Benutzerschnittstellenobjekt angezeigt, wenn der aktuelle Fokus auf dem jeweiligen Benutzerschnittstellenobjekt liegt, und das jeweilige Benutzerschnittstellenobjekt wird ohne einen Namen oder anderen Bezeichner auf oder neben dem jeweiligen Benutzerschnittstellenobjekt angezeigt, wenn der aktuelle Fokus nicht auf dem jeweiligen Benutzerschnittstellenobjekt liegt (z. B. während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt, wird für das zweite Benutzerschnittstellenobjekt kein Name auf oder neben dem zweiten Benutzerschnittstellenobjekt angezeigt). Wird ein Name des jeweiligen Benutzerschnittstellenobjekts angezeigt, ist dies ein Hinweis darauf, dass der aktuelle Fokus auf dem jeweiligen Benutzerschnittstellenobjekt liegt.
  • In einigen Ausführungsformen kann das erste Benutzerschnittstellenobjekt (818) eine oder mehrere Reflexionen enthalten. Gemäß der Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, stellt das elektronische Gerät der Anzeige Daten bereit zum: Beenden der Anzeige von einer oder mehreren Reflexionen des ersten Benutzerschnittstellenobjekts; und Anzeigen von einer oder mehreren Reflexionen des zweiten Benutzerschnittstellenobjekts. Zum Beispiel stellt 5R eine Reflexion des Benutzerschnittstellenobjekts 5015-a dar. Die Reflexion bewegt sich, wenn sich das Objekt 5015-a um eine Querachse (z. B. die X-Achse in 5R) neigt/rotiert.
  • In einigen Ausführungsformen stellt (820) das elektronische Gerät in Reaktion auf das Verschieben des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt, der Anzeige Daten bereit zum: Verringern der Größe des ersten Benutzerschnittstellenobjekts auf der Anzeige; und Erhöhen der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige (z. B. wie in 5BB5DD dargestellt, nachdem der aktuelle Fokus von Symbol 5015-a auf Symbol 5015-b übergeht, verkleinert sich die Größe von Symbol 5015-a und die Größe von Symbol 5015-b erhöht sich). Das zweite Benutzerschnittstellenobjekt enthält Grafiken in zwei oder mehreren überlappenden Ebenen, die in einer Z-Anordnung von einer Vordergrundebene zu einer Hintergrundebene (z. B. eine Vordergrundebene und eine Hintergrundebene, wie in 5NN dargestellt) angeordnet sind. In einigen Ausführungsformen verschieben sich die Ebenen des zweiten Benutzerschnittstellenobjekts auf der Anzeige gemäß dem Neigen des zweiten Benutzerschnittstellenobjekts. Das Vergrößern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige weist das Vergrößern der Größen der jeweiligen Ebenen der zwei oder mehreren überlappenden Ebenen in entsprechenden Vergrößerungsverhältnissen auf; und optional das Erhöhen eines Abstands oder eines simulierten Abstands in der Z-Richtung zwischen den Ebenen. Ein Vergrößerungsverhältnis für die Vordergrundebene (z. B. ein Verhältnis zwischen der Größe der Vordergrundebene vor dem Erhöhen der Größe des zweiten Benutzerschnittstellenobjekts und der Größe der Vordergrundebene nach dem Erhöhen der Größe des zweiten Benutzerschnittstellenobjekts) ist höher als ein Vergrößerungsverhältnis für die Hintergrundebene (z. B. ein Verhältnis zwischen der Größe der Hintergrundebene vor dem Erhöhen der Größe des zweiten Benutzerschnittstellenobjekts und der Größe der Hintergrundebene nach dem Erhöhen der Größe des zweiten Benutzerschnittstellenobjekts). Zum Beispiel, wie in den Konfigurationen 5044 und 5046 von 5PP dargestellt, wird die Vordergrundebene (die den Pingpongball und den Schläger enthält) mehr vergrößert als die Hintergrundebene (die den Text und das Netz enthält).
  • In einigen Ausführungsformen enthält die oberste Ebene einen Ausschnitt, durch den Teile von einer oder mehreren der unteren Ebenen erkennbar sind. In einigen Ausführungsformen enthält die oberste Ebene eine Form, die von einem transparenten Bereich umgeben ist, sodass die unteren Ebenen in dem Bereich um die Form erkennbar sind (z. B. Konfiguration 5038 in 5NN). In einigen Ausführungsformen sind mehrere Formen auf den Ebenen angeordnet, sodass wenn das erste Benutzerschnittstellenobjekt nicht geneigt ist, die Form als fortlaufende Form erscheint. Ist das Objekt jedoch geneigt, bewegt sich die Form in Bezug zu einer anderen, umso einen simulierten 3D-Effekt zu erzeugen (z. B. die Ebenen 5028 bis 5034 in 5NN). In einigen Ausführungsformen enthält eine oberste Schicht (z. B. oberste Schicht 5041-1 in 5OO) ein Muster und einen Ausschnitt, um eine untere Ebene freizugeben (z. B. untere Ebene 5041-2), die eine vergrößerte Version des Musters enthält, die bei Neigung einen Effekt erzeugt, durch den der Ausschnitt als Vergrößerungsbereich erscheint, der das Muster vergrößert und sich leicht über das Muster bewegt, wenn das erste Benutzerschnittstellenobjekt geneigt wird (ohne dass das Muster tatsächlich vergrößert werden muss, was sehr viel höhere Computing-Ressourcen erfordern würde als bei den den Vergrößerungseffekt simulierenden Ebenen, da die Verwendung von Ebenen zur Simulation des Vergrößerungseffektsleistungseffizienter ist als das tatsächliche Generieren des Vergrößerungseffekts).
  • In einigen Ausführungsformen empfängt (822, 7C) das elektronische Gerät eine zweite Eingabe (z. B. Empfang einer Bewegung von Kontakt 5409 auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001, wie in 5V dargestellt, einer Aktivierung einer Taste, die in Kommunikation mit dem Gerät steht und/oder eines Sprachbefehls), während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt. In Reaktion auf den Empfang der zweiten Eingabe stellt das elektronische Gerät der Anzeige Daten bereit zum: Bewegen des zweiten Benutzerschnittstellenobjekts von einer zweiten Position (z. B. einer Ausgangsposition des zweiten Benutzerschnittstellenobjekts auf der Anzeige bezüglich der Positionen anderer Objekte der mehreren Objekte um das zweite Benutzerschnittstellenobjekt auf der Anzeige) in Richtung eines dritten Benutzerschnittstellenobjekts neben dem zweiten Benutzerschnittstellenobjekt und/oder Neigen des zweiten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung (z. B. einer Anfangsausrichtung für das zweite Benutzerschnittstellenobjekt, das visuell in der Anzeigeebene angezeigt wird, wie die erste Ausrichtung für das erste Benutzerschnittstellenobjekt) in Richtung des dritten Benutzerschnittstellenobjekts (z. B. wie in 5W dargestellt, wird das Symbol 5015-b in Richtung Symbol 5015-c geneigt). Nach dem Verschieben des zweiten Benutzerschnittstellenobjekts von der zweiten Position in Richtung des dritten Benutzerschnittstellenobjekts und/oder dem Neigen des zweiten Benutzerschnittstellenobjekts in Richtung des dritten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die zweite Eingabe das Navigationskriterium zum zweiten aktuellen Fokus erfüllt (z. B. hat sich der Kontakt an eine Begrenzungsposition bewegt), stellt das elektronische Gerät der Anzeige Daten bereit zum: Versetzen des aktuellen Fokus vom zweiten Benutzerschnittstellenobjekt auf das dritte Benutzerschnittstellenobjekt und Bewegen des zweiten Benutzerschnittstellenobjekts zurück an die zweite Position und/oder Neigen des zweiten Benutzerschnittstellenobjekts zurück in die zweite Ausrichtung (wie z. B. in 5X dargestellt, wird der aktuelle Fokus von Symbol 5015-b auf Symbol 5015-c versetzt und das Symbol 5015-b kehrt in die Ausgangsposition und -ausrichtung zurück). In einigen Ausführungsformen kehrt das zweite Benutzerschnittstellenobjekt an die zweite Position zurück. In einigen Ausführungsformen kehrt das zweite Benutzerschnittstellenobjekt in die zweite Ausrichtung zurück. In einigen Ausführungsformen kann der Prozess des Versetzens und/oder Neigens eines entsprechenden Objekts mit dem aktuellen Fokus in Richtung eines benachbarten Objekts das Versetzen des aktuellen Fokus auf das benachbarte Objekt und das Versetzen und/oder Neigen des jeweiligen Objekts zurück an die vorhergehende Position und/oder Ausrichtung mehrere Male in Reaktion auf eine einzelne Eingabe wiederholt werden, die einer Anforderung zum Versetzen des aktuellen Fokus entspricht.
  • In einigen Ausführungsformen unterscheiden sich (824) die Navigationskriterien zum ersten aktuellen Fokus und die Navigationskriterien zum zweiten aktuellen Fokus voneinander (z. B. unterscheiden sich in einigen Ausführungsformen die Navigationskriterien zum ersten aktuellen Fokus und die Navigationskriterien zum zweiten aktuellen Fokus, wenn die Navigationskriterien zum ersten aktuellen Fokus zum Versetzen des aktuellen Fokus horizontal verwendet werden und die Navigationskriterien zum zweiten aktuellen Fokus zum Versetzen des aktuellen Fokus vertikal verwendet werden). In einigen Ausführungsformen werden die Navigationskriterien zum ersten aktuellen Fokus in Reaktion auf das Erfassen einer Geste auf einer berührungsempfindlichen Oberfläche in Kommunikation mit dem elektronischen Gerät erfüllt, die ein erstes Distanzkriterium erfüllt, und die Navigationskriterien zum zweiten aktuellen Fokus werden in Reaktion auf das Erfassen einer Geste auf der berührungsempfindlichen Oberfläche erfüllt, die ein zweites Distanzkriterium erfüllt, das sich vom ersten Distanzkriterium unterscheidet. In einigen Ausführungsformen wird ein Distanzkriterium basierend auf einer Breite und/oder eine Höhe des jeweiligen Benutzerschnittstellenobjekts bestimmt (z. B. das erste Benutzerschnittstellenobjekt). In einigen Ausführungsformen erfordert für ein Benutzerschnittstellenobjekt mit einer Breite, die über einer Höhe des Benutzerschnittstellenobjekts liegt, ein Distanzkriterium für eine horizontale Bewegung des aktuellen Fokus einen längeren Weg der Geste als ein Distanzkriterium für eine vertikale Bewegung des aktuellen Fokus. In einigen Ausführungsformen erfordert für ein Benutzerschnittstellenobjekt mit einer Breite, die unter einer Höhe des Benutzerschnittstellenobjekts liegt (z. B. Filmpostersymbole 5062-a bis 5062-c, die in 5QQ bis 5TT dargestellt sind), ein Distanzkriterium für eine horizontale Navigation einen kürzeren Weg der Geste als ein Distanzkriterium für eine vertikale Navigation. In einigen Ausführungsformen erfordert ein Distanzkriterium für die Navigation zwischen zwei Benutzerschnittstellenobjekten, die sich in der gleichen Zeile befinden, einen kürzeren Weg der Geste als ein Distanzkriterium für eine Navigation zwischen zwei Benutzerschnittstellenobjekten, die sich in verschiedenen Zeilen befinden.
  • In einigen Ausführungsformen entspricht (846) eine erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus horizontal in der Benutzerschnittstelle, und die zweite Eingabe entspricht einer Anforderung zum Versetzen des aktuellen Fokus vertikal in der Benutzerschnittstelle (z. B. eine horizontale Bewegung des aktuellen Fokus von Symbol 5062-b auf Symbol 5062-a, wie in 5RR bis 5SS dargestellt, und eine vertikale Bewegung des aktuellen Fokus von Symbol 5062-a auf Symbol 5015-d, wie in 5SS bis 5TT dargestellt).
  • In einigen Ausführungsformen entspricht (828) eine erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten des gleichen Typs (z. B. eine Bewegung des aktuellen Fokus zwischen den Filmpostersymbolen 5062-b und 5062-a, wie in 5RR bis 5SS dargestellt), und die zweite Eingabe entspricht einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten verschiedener Typen (z. B. eine Bewegung des aktuellen Fokus zwischen dem Filmpostersymbol 5062-a und dem Anwendungssymbol 5015-d).
  • In einigen Ausführungsformen nach dem Verschieben des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus nicht erfüllt, stellt das elektronische Gerät (830) der Anzeige Daten bereit zum: Beibehalten des aktuellen Fokus auf dem ersten Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung. In einigen Ausführungsformen kehrt das erste Benutzerschnittstellenobjekt an die erste Position zurück. Zum Beispiel, wie in 5Y5AA dargestellt, wenn der Kontakt 5410 nicht mehr erfasst wird, ohne eine Begrenzungsposition zu erreichen, bleibt der aktuelle Fokus auf Symbol 5015-c und das Symbol 5015-c bewegt sich und neigt sich zurück an die Ausgangsposition und -ausrichtung. In einigen Ausführungsformen kehrt das dritte Benutzerschnittstellenobjekt zur ersten Ausrichtung zurück. In einigen Ausführungsformen, wenn eine Eingabe (z. B. hier die erste Eingabe) nicht ausreicht, um den aktuellen Fokus von einem jeweiligen Benutzerschnittstellenobjekt auf ein benachbartes Benutzerschnittstellenobjekt zu versetzen, bewegt sich das jeweilige Benutzerschnittstellenobjekt und/oder neigt sich in Richtung des benachbarten Benutzerschnittstellenobjekts und bewegt sich dann zurück und/oder neigt sich dann an die vorhergehende Position und/oder vorherige Ausrichtung zurück, um anzuzeigen, dass die Eingabe nicht ausreichend war, um den aktuellen Fokus vom jeweiligen Benutzerschnittstellenobjekt auf das benachbarte Benutzerschnittstellenobjekt zu verschieben, und der aktuelle Fokus verbleibt auf dem jeweiligen Benutzerschnittstellenobjekt.
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 8A8C beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen ersichtlich. Darüber hinaus ist es hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 600, 700, 900, 1000, 1100 und 1200) ebenso in analoger Weise auf das Verfahren 800 anwendbar sind, das oben bezüglich 8A8C beschrieben wurde. Zum Beispiel weisen die Benutzerschnittstellen, Benutzereingaben und das Neigen und/oder Bewegen der Benutzerschnittstellenobjekte, die oben bezüglich Verfahren 800 beschrieben wurden, optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen, Benutzereingaben und des Neigens und/oder der Bewegung der Benutzerschnittstellenobjekte auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 600, 700, 900, 1000, 1100 und 1200). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 9A9B stellen Ablaufdiagramme von Verfahren 900 zum Aktualisieren einer Benutzerschnittstelle basierend auf Inaktivitätskriterien gemäß einigen Ausführungsformen dar. Das Verfahren 900 wird von einem elektronischen Gerät (z. B. Gerät 300, 3, oder tragbares Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige und in einigen Ausführungsformen einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen kann die Anzeige von der berührungsempfindlichen Oberfläche getrennt sein. Einige Operationen in Verfahren 900 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, bietet Verfahren 900 eine intuitive Möglichkeit zur Angabe des Inaktivitätszustands des Geräts. Das Verfahren verringert die kognitive Belastung für einen Benutzer bei der Wiederaufnahme einer Aktivität am Gerät (z. B. durch Bereitstellen einer visuellen Unterscheidung eines Benutzerschnittstellenobjekts mit einem aktuellen Fokus, während es sich in einem inaktiven Zustand befindet), wodurch eine effizientere Mensch-Maschinen-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten ermöglicht dies einem Benutzer, ein Benutzerschnittstellenobjekt mit dem aktuellen Fokus schneller und effizienter zu identifizieren, was Strom spart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • Das elektronische Gerät stellt (902) der Anzeige Daten (z. B. Anweisungen, Videosignale, Bilddateien oder andere Informationen) bereit, um eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten zu präsentieren (z. B. eine Home-Bildschirm-Benutzerschnittstelle 5018 in 5TT mit mehreren Symbolen 5015-a bis 5015-e und 5062-a bis 5062-c). In einigen Ausführungsformen werden die mehreren Benutzerschnittstellenobjekte in einem scrollbaren zweidimensionalen Array auf der Anzeige angezeigt. In einigen Ausführungsformen sind die Benutzerschnittstellenobjekte Anwendungssymbole, Kanalsymbole, Inhaltssymbole oder Inhaltsgruppensymbole, die bei Aktivierung (z. B. mit einer Antippgeste, dem Drücken einer Auswahltaste, einem Sprachbefehl usw.) zur Anzeige einer entsprechenden Anwendung, eines Kanals, Inhalts oder einer Inhaltsgruppe auf der Anzeige führen. Die mehreren Benutzerschnittstellenobjekte umfassen ein erstes Benutzerschnittstellenobjekt, und ein aktueller Fokus befindet sich auf dem ersten Benutzerschnittstellenobjekt.
  • Während die Anzeige die Benutzerschnittstelle darstellt, bestimmt (904) das elektronische Gerät, dass Inaktivitätskriterien erfüllt sind. In einigen Ausführungsformen sind (906) die Inaktivitätskriterien erfüllt, wenn keine Benutzereingabe vom elektronischen Gerät oder einem anderen Gerät in Kommunikation mit dem elektronischen Gerät (z. B. Fernbedienung 5001) für eine bestimmte Dauer erfasst wurde. In einigen Ausführungsformen sind (908) die Inaktivitätskriterien erfüllt, wenn das elektronische Gerät oder eine Fernbedienung in Kommunikation mit dem elektronischen Gerät erfasst, dass die Fernbedienung unbewegt ist. In einigen Ausführungsformen ist das andere Gerät eine Fernbedienung. In einigen Ausführungsformen weist die Fernbedienung einen Beschleunigungsmesser auf, um zu erfassen, ob die Fernbedienung sich bewegt (z. B. wird die Fernbedienung in der Hand eines Benutzers gehalten und bewegt sich mit der Bewegung der Hand des Benutzers) oder ist unbewegt (z. B. wurde die Fernbedienung auf einer stabilen Oberfläche, wie einem Tisch, abgelegt). In einigen Ausführungsformen weist die Fernbedienung einen Kontaktschalter auf, der zur Erfassung ausgestaltet ist, dass die Fernbedienung abgelegt wurde.
  • In Reaktion auf die Bestimmung, dass die Inaktivitätskriterien erfüllt sind, stellt (910, 9B) das elektronische Gerät der Anzeige Daten bereit, um das erste Benutzerschnittstellenobjekt in einer ersten Weise von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte zu unterscheiden (wie z. B. in 5UU dargestellt, wird das Symbol 5015-d visuell von der restlichen Benutzerschnittstelle unterschieden, indem die restliche Benutzerschnittstelle abgeblendet wird). In einigen Ausführungsformen, während die Inaktivitätskriterien nicht erfüllt sind und der aktuelle Fokus auf einem jeweiligen Benutzerschnittstellenobjekt liegt, wird das jeweilige Benutzerschnittstellenobjekt visuell von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte in einer oder mehreren Weisen unterschieden, die sich von der ersten Weise unterscheiden. Zum Beispiel, während das Symbol 5015-d visuell von den anderen Symbolen in 5TT unterschieden ist (z. B. ist Symbol 5015-d vergrößert), unterscheidet sich die Weise, wie Symbol 5015-d visuell von anderen Symbolen in 5TT unterschieden ist, davon, wie Symbol 5015-d visuell von der restlichen Benutzerschnittstelle in 5UU unterschieden ist (z. B. durch Abblenden der restlichen Benutzerschnittstelle).
  • In einigen Ausführungsformen umfasst (912) die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Hervorheben des ersten Benutzerschnittstellenobjekts (z. B. Symbol 5015-d in 5UU). In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise die Anzeige eines anderen Benutzerschnittstellenobjekts der mehreren Benutzerschnittstellenobjekte ohne Hervorhebung. In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise die Anzeige der mehreren Benutzerschnittstellenobjekte, die sich vom ersten Benutzerschnittstellenobjekt unterscheiden, ohne Hervorhebung. In einigen Ausführungsformen umfasst das Beenden der visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Entfernen der Hervorhebung des ersten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen umfasst (914) die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Ausblenden von einem oder mehreren Teilen der Benutzerschnittstelle, der/die sich vom ersten Benutzerschnittstellenobjekt unterscheidet/unterscheiden (z. B. wird die restliche Benutzerschnittstelle in 5UU abgeblendet). In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Abblenden der mehreren Benutzerschnittstellenobjekte, die sich vom ersten Benutzerschnittstellenobjekt unterscheiden. In einigen Ausführungsformen umfasst das Beenden der visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Entfernen des Abblendens von dem einen oder den mehreren Teilen der Benutzerschnittstelle, der/die dem ersten Benutzerschnittstellenobjekt nicht entspricht/entsprechen. In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Entfernen des Abblendens der mehreren Benutzerschnittstellenobjekte, die sich vom ersten Benutzerschnittstellenobjekt unterscheiden.
  • In einigen Ausführungsformen stellt (916) das elektronische Gerät in Reaktion auf die Bestimmung, dass die Kriterien für einen dunklen Bildschirm erfüllt sind, der Anzeige Daten zur Anzeige eines leeren Bildschirms bereit (z. B. wird in 5XX der leere Bildschirm auf der Anzeige 450 angezeigt). In einigen Ausführungsformen werden die Kriterien für einen dunklen Bildschirm erfüllt, wenn keine Benutzereingabe von dem elektronischen Gerät oder einem anderen Gerät (z. B. eine Fernbedienung) in Kommunikation mit dem elektronischen Gerät für eine zweite bestimmte Dauer erfasst wurde. Die zweite bestimmte Dauer, die Teil der Kriterien für den dunklen Bildschirm ist, dauert in der Regel länger als eine bestimmte Dauer, die Teil der Inaktivitätskriterien ist.
  • In einigen Ausführungsformen stellt (918) das elektronische Gerät in Reaktion auf die Bestimmung, dass die Kriterien für einen dunklen Bildschirm erfüllt sind, der Anzeige Daten zum Abblenden der gesamten Benutzerschnittstelle einschließlich des ersten Benutzerschnittstellenobjekts bereit (z. B. wird in 5WW die gesamte Benutzerschnittstelle abgeblendet).
  • Nach Bereitstellen von Daten für die Anzeige zur visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise: erfasst (920) das elektronische Gerät eine Interaktion von einem Benutzer mit dem elektronischen Gerät oder einem anderen Gerät (z. B. einer Fernbedienung) in Kommunikation mit dem elektronischen Gerät (z. B. Erfassen des Hochhebens einer Fernbedienung, des Berührens einer berührungsempfindlichen Oberfläche der Fernbedienung oder das Drücken einer Taste der Fernbedienung). In Reaktion auf das Erfassen der Interaktion des Benutzers mit dem elektronischen Gerät oder mit einem anderen Gerät in Kommunikation mit dem elektronischen Gerät stellt das elektronische Gerät der Anzeige Daten zum Beenden der visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte bereit. Zum Beispiel, wie in 5YY dargestellt, wird in Reaktion auf das Erfassen, dass ein Benutzer die Fernbedienung 5001 aufnimmt (z. B. mit einem Gyroskop oder einem Beschleunigungsmesser in der Fernbedienung 5001) die Anzeige der visuellen Unterscheidung (z. B. Abblenden der Benutzerschnittstelle außer Symbol 5015-d) beendet.
  • In einigen Ausführungsformen umfasst (922) die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Erhöhen der Größe des ersten Benutzerschnittstellenobjekts von einer ersten auf eine zweite Größe. Zum Beispiel, obwohl das Symbol 5015-d vergrößert wird, wenn der aktuelle Fokus auf Symbol 5015-d versetzt wird, wird das Symbol 5015-d weiterhin vergrößert, wenn die Inaktivitätskriterien erfüllt sind, wie in 5VV dargestellt. In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Verkleinern der Größe der anderen Benutzerschnittstellenobjekte der mehreren Benutzerschnittstellenobjekte. In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Verkleinern der Größe der mehreren Benutzerschnittstellenobjekte, die sich vom ersten Benutzerschnittstellenobjekt unterscheiden.
  • In einigen Ausführungsformen umfasst (924) das Beenden der visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Verringern der Größe des ersten Benutzerschnittstellenobjekts auf die erste Größe (z. B. wenn das Gerät erfasst, dass ein Benutzer die Fernbedienung 5001 aufnimmt, während das vergrößerte Symbol 5015-d vergrößert ist, wie in 5VV dargestellt, wird die Größe von Symbol 5015-d reduziert, wie in 5YY dargestellt).
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 9A9B beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen ersichtlich. Darüber hinaus ist es hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 600, 700, 800, 1000, 1100 und 1200) ebenso in analoger Weise auf das Verfahren 900 anwendbar sind, das oben bezüglich 9A9B beschrieben wurde. Zum Beispiel weisen die oben mit Bezugnahme auf Verfahren 900 beschriebenen Benutzerschnittstellen, Benutzerschnittstellenobjekte, Benutzereingaben und Benutzereingabegeräte optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen, Benutzerschnittstellenobjekte, Benutzereingaben und Benutzereingabegeräte auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 600, 700, 800, 1000, 1100 und 1200). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 10A10C sind Ablaufdiagramme, die das Verfahren 1000 zur Auswahl einer Medienpräsentationsoption gemäß einigen Ausführungsformen veranschaulichen. Das Verfahren 1000 wird auf einem elektronischen Gerät (z. B. Gerät 300, 3, oder tragbares Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige durchgeführt. In einigen Ausführungsformen steht das elektronische Gerät in Kommunikation mit einem Benutzereingabegerät (z. B. einem entfernten Benutzereingabegerät, wie einer Fernbedienung) mit einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen ist die Anzeige von der berührungsempfindlichen Oberfläche getrennt. In einigen Ausführungsformen ist das Benutzereingabegerät im elektronischen Gerät integriert. In einigen Ausführungsformen ist das Benutzereingabegerät vom elektronischen Gerät getrennt. Einige Operationen in Verfahren 1000 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, stellt das Verfahren 1000 eine effiziente Möglichkeit zur Auswahl einer Medienpräsentationsoperation bereit. Das Verfahren verringert die Anzahl, den Umfang und/oder die Natur der Eingaben eines Benutzers bei der Navigation durch Medieninhalt, wodurch eine effizientere Mensch-Maschine-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten ermöglicht dies einem Benutzer, eine Medienpräsentationsoption schneller und effizienter auszuwählen, was Strom spart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • In einigen Ausführungsformen stellt (1002) das Gerät der Anzeige Daten zur Präsentation einer Medieninformations-Benutzerschnittstelle für ein erstes Medieninhaltselement bereit (z. B. ein Film usw.). Zum Beispiel wird in Reaktion auf das Aktivieren des Filmpostersymbols 5062-a in 5ZZ (z. B. mit einer Antippgeste 5428) eine Produktseitenansicht 5090 für den Film „Der große Aufstieg” angezeigt, wie in 5AAA dargestellt. Die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst eine Mehrzahl an Medienquellobjekten, die jeweiligen Medienquellen entsprechen (z. B. iTunes, einem ersten Drittanbieter-Streaming-Service-Provider, einem zweiten Drittanbieter-Streaming-Service-Provider usw., wie die Medienquellensymbole 5092-a bis 5092-e in 5AAA) für das erste Medieninhaltselement. Ein erstes Medienquellobjekt der mehreren Medienquellobjekte wird visuell unterschieden, um die Auswahl des ersten Medienquellobjekts anzugeben (z. B. wird Symbol 5092-a in 5AAA visuell von den Symbolen 5092-b bis 5092-e unterschieden). Das erste Medienquellobjekt entspricht einer ersten Medienquelle (z. B. entspricht das Symbol 5092-a den Movieflix-Film-Streaming-Diensten). Die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst auch eine erste Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement (z. B. Medienverwaltungssymbole 5093-a bis 5093-c). Die erste Gruppe von Medienverwaltungsobjekten umfasst eine oder mehrere Medienpräsentations-Optionsobjekte, die dem ersten Medieninhaltselement und der ersten Medienquelle entsprechen. Die erste Gruppe von Medienverwaltungsobjekten umfasst mehrere Objekte. In einigen Ausführungsformen initiiert die Aktivierung eines Medienverwaltungsobjekts eine entsprechende Medienverwaltungsfunktion für ein entsprechendes Medieninhaltselement, wie eine Vorschau, die Wiedergabe in einer ersten Softwareanwendung, die Anzeige in einer zweiten Softwareanwendung, das Ausleihen, Kaufen oder Hinzufügen des jeweiligen Medieninhaltselements zu einer Filmliste. In einigen Ausführungsformen initiiert die Aktivierung eines Medienpräsentations-Optionsobjekts die Präsentation des zugehörigen Medieninhaltselements gemäß einer bestimmten Option. Zum Beispiel initiiert die Aktivierung eines „Vorschau”-Symbols (z. B. Symbol 5093-a) eine Präsentation einer Vorschau des jeweiligen Medieninhaltselements. Zum Beispiel initiiert die Aktivierung eines „Wiedergabe”-Symbols die Wiedergabe des jeweiligen Medieninhaltselements mit einer ersten Anwendung. Zum Beispiel initiiert die Aktivierung eines „Ansehen mit”-Symbols die Anzeige des jeweiligen Medieninhaltselements in einer zweiten Softwareanwendung, die sich von der ersten Softwareanwendung unterscheidet. In einigen Ausführungsformen umfasst das Initiieren der Anzeige des jeweiligen Medieninhaltselements in einer zweiten Softwareanwendung die Anzeige einer Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement in der zweiten Anwendung. In einigen Ausführungsformen umfasst das Initiieren der Anzeige des jeweiligen Medieninhaltselements auf einer zweiten Softwareanwendung die Initiierung der Wiedergabe des ersten Medieninhaltselements in der zweiten Anwendung.
  • In einigen Ausführungsformen weisen (1004) die mehreren Medienquellobjekte eine Reihenfolge auf, die gemäß bestimmten Quellenanordnungskriterien bestimmt wurde (z. B. basierend auf den Kosten der Wiedergabe des ersten Medieninhaltselements und der Qualität des ersten Medieninhaltelements, einer Videoauflösung, einer Framerate und ob Werbung enthalten ist oder nicht). Zum Beispiel hat in 5AAA das Symbol 5092-a eine erste Position unter den Symbolen 5092-a bis 5092-e, da der Film „Der große Aufstieg” kostenlos aus der jeweiligen Medienquelle verfügbar ist.
  • In einigen Ausführungsformen umfassen (1006) die mehreren Medienquellobjekte ein weiteres Quellobjekt (z. B. Symbol 5092-f in 5AAA), das bei Aktivierung die Anzeige einer Liste weiterer Quellobjekte initiiert, die den weiteren Quellen für das erste Medieninhaltselement entsprechen (z. B. Aktivierung von Symbol 5092-f initiiert die Anzeige einer Quellenauswahlschnittstelle 5098, die in 5HHH dargestellt ist).
  • In einigen Ausführungsformen umfasst (1008) die Medieninformations-Benutzerschnittstelle eine Gruppe von Medienobjekten, die einer Gruppe von Medieninhaltselementen entsprechen (z. B. empfohlene Filme/Fernsehshows), die sich vom ersten Medieninhaltselement unterscheiden (z. B. enthält die Produktseitenansicht 5090 in 5AAA Symbole für „Ebenso angesehene” Filme, die sich vom Film „Der große Aufstieg” unterscheiden).
  • In einigen Ausführungsformen ist (1010) die Medieninformations-Benutzerschnittstelle eine Benutzerschnittstelle einer ersten Softwareanwendung (z. B. einer integrierten Medienpräsentationsanwendung, wie einem Video-/Musikwiedergabemodul 152 in 3, mit dem ein Benutzer auf Medieninhaltselemente aus mehreren Medienquellen zugreifen kann, anstatt dem Benutzer den Zugriff auf Medieninhaltselemente nur von einer einzelnen proprietären Quelle aus zu erlauben), und die Medienpräsentations-Optionsobjekte umfassen ein Wiedergabeobjekt in der Anwendung (z. B. eine Wiedergabe-Schaltfläche 5093-b in 5AAA), das bei Aktivierung (z. B. mit einem Antippen auf einer berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während ein aktueller Fokus auf dem Wiedergabeobjekt in der Anwendung angezeigt wird) die Bereitstellung von Daten für die Anzeige zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von aus der ersten Medienquelle empfangenen Daten in einer Benutzerschnittstelle der ersten Softwareanwendung initiiert (z. B. wie in 5BBB dargestellt, wird in Reaktion auf eine Antippgeste 5450 eine Videowiedergabeansicht 5300 angezeigt, um eine Wiedergabe des Films „Der große Aufstieg” zu präsentieren). Die Medieninformations-Benutzerschnittstelle enthält auch ein Wiedergabeobjekt außerhalb der Anwendungen (z. B. eine Schaltfläche 5093-c „Auf Movieflix ansehen” in 5AAA), das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Wiedergabeobjekt außerhalb der Anwendung angezeigt wird) den Start einer zweiten Softwareanwendung initiiert, die sich von der ersten Softwareanwendung unterscheidet und der ersten Medienquelle zugeordnet ist (zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von von der ersten Medienquelle empfangenen Daten in einer Benutzerschnittstelle der zweiten Softwareanwendung) (wie z. B. in 5JJJ dargestellt, wird in Reaktion auf eine Antippgeste 5460 eine Produktseitenansicht 5064 einer Drittanbieter-Softwareanwendung, wie ein erstes Videowiedergabemodul 392 in 3, angezeigt). In einigen Ausführungsformen umfassen die Medienpräsentations-Optionsobjekte ein Vorschauobjekt, das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Vorschauobjekt angezeigt wird) eine Bereitstellung von Daten für die Anzeige zur Wiedergabe einer Vorschau des ersten Medieninhaltselements initiiert.
  • Während die Anzeige die Medieninformations-Benutzerschnittstelle darstellt, empfängt (1012, 10B) das Gerät eine Benutzereingabe (z. B. eine Antippgeste 5450 auf der Fernbedienung 5001, die in Kommunikation mit dem elektronischen Gerät steht).
  • In Reaktion auf den Empfang (1014) der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts in der ersten Gruppe der Medienverwaltungsobjekte für das erste Medieninhaltselement entspricht (z. B. Drücken einer Wiedergabetaste oder Bereitstellen einer Antippgeste auf der berührungsempfindlichen Oberfläche 451, während ein aktueller Fokus auf dem ersten Medienpräsentations-Optionsobjekt angezeigt wird, wie in 5AAA dargestellt), initiiert (1016) das Gerät die Bereitstellung von Daten (z. B. Videodaten oder andere Multimediadaten) für die Anzeige zur Wiedergabe des ersten Medieninhaltselements mit Daten, die von der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption, die dem ersten Medienpräsentations-Optionsobjekt entspricht (wie z. B. in 5BBB dargestellt, wird die Videowiedergabeansicht 5300 mit dem Film „Der große Aufstieg” auf der Anzeige 450 dargestellt). In einigen Ausführungsformen beinhaltet das Verfahren in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines zweiten Medienpräsentations-Optionsobjekts der ersten Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement entspricht, das Initiieren der Bereitstellung von Daten für die Anzeige zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von Daten, die aus der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption, die dem zweiten Medienpräsentations-Optionsobjekt entspricht.
  • In einigen Ausführungsformen stellt (1018) das Gerät ebenso in Reaktion auf den Empfang (1014) der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Auswahl eines zweiten Medienquellobjekts entspricht, das sich vom ersten Medienquellobjekt der mehreren Medienquellobjekte unterscheidet (z. B. eine Streichgeste 5454 nach rechts auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001), der Anzeige Daten zur Aktualisierung der Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereit. In einigen Ausführungsformen umfasst die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement die mehreren Medienquellobjekte, die den jeweiligen Medienquellobjekten für das erste Medieninhaltselement (z. B. Symbole 5092-a bis 5092-e) entsprechen, wobei das zweite Medienquellobjekt (z. B. Symbol 5092-b) der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des zweiten Medienquellobjekts anzugeben, wobei das zweite Medienquellobjekt einer zweiten Medienquelle entspricht, die sich von der ersten Medienquelle unterscheidet (z. B. entspricht das Symbol 5092-b Apple iTunes). In einigen Ausführungsformen wird die visuelle Unterscheidung des ersten Medienquellobjekts in der aktualisierten Medieninformations-Benutzerschnittstelle beendet (z. B. wird die Größe von Symbol 5093-a vom vergrößerten Zustand verkleinert). In einigen Ausführungsformen umfasst die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement auch eine zweite Gruppe von Medienverwaltungsobjekten, die dem ersten Medieninhaltselement und der zweiten Medienquelle entsprechen (z. B. Symbole 5093-a und Symbole 5093-c bis 5093-f). Die zweite Gruppe von Medienverwaltungsobjekten unterscheidet sich von der ersten Gruppe von Medienverwaltungsobjekten. In einigen Ausführungsformen wird die Anzeige der ersten Gruppe von Medienverwaltungsobjekten durch die Anzeige der zweiten Gruppe von Medienverwaltungsobjekten ersetzt. In einigen Ausführungsformen wird die Anzeige der ersten Gruppe von Medienverwaltungsobjekten beendet. In einigen Ausführungsformen weist die zweite Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienverwaltungsobjekte auf, die nicht in der ersten Gruppe von Medienverwaltungsobjekten enthalten sind. In einigen Ausführungsformen weist die erste Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienverwaltungsobjekte auf, die nicht in der zweiten Gruppe von Medienverwaltungsobjekten enthalten sind. In einigen Ausführungsformen weisen die erste Gruppe von Medienverwaltungsobjekten und die zweite Gruppe von Medienverwaltungsobjekten ein oder mehrere gemeinsame Medienverwaltungsobjekte auf. In einigen Ausführungsformen weisen die erste Gruppe von Medienverwaltungsobjekten und die zweite Gruppe von Medienverwaltungsobjekten keine gemeinsamen Medienverwaltungsobjekte auf.
  • In einigen Ausführungsformen beinhaltet das Verfahren den Empfang einer zweiten Benutzereingabe; und in Reaktion auf den Empfang der zweiten Benutzereingabe gemäß einer Bestimmung, dass die zweite Benutzereingabe eine Anforderung zur Aktivierung eines bestimmten Medienpräsentations-Optionsobjekts der zweiten Gruppe von Medienverwaltungsobjekten entspricht, Initiieren der Bereitstellung von Daten für die Anzeige zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von von der zweiten Medienquelle empfangenen Daten gemäß einer Medienpräsentationsoption, die dem bestimmten Medienpräsentations-Optionsobjekt entspricht (z. B. Aktivierung von Symbol 5093-d oder Symbol 5093-e in 5FFF initiiert die Anzeige des Films „Der große Aufstieg” auf der Anzeige 450 basierend auf Daten von Apple iTunes nach einer optionalen Zahlungsbestätigung).
  • In einigen Ausführungsformen weist die zweite Gruppe von Medienverwaltungsobjekten ein Leihobjekt (z. B. Symbol 5093-e in 5FFF) auf, das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Leihobjekt liegt) das Ausleihen des ersten Medieninhaltselements von der zweiten Medienquelle initiiert. In einigen Ausführungsformen wird das erste Medieninhaltselement in Reaktion auf die Aktivierung des Leihobjekts verliehen. In einigen Ausführungsformen initiiert das Aktivieren des Leihobjekts die Bereitstellung von Daten zur Anzeige einer Medieninhaltselement-Ausleih-Benutzerschnittstelle (z. B. einer Bestätigungsseite) zum Leihen des ersten Medieninhaltselements. In einigen Ausführungsformen initiiert das Leihobjekt bei Aktivierung auch die Bereitstellung von Daten für die Anzeige zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von von der zweiten Medienquelle empfangenen Daten. In einigen Ausführungsformen weist die zweite Gruppe von Medienverwaltungsobjekten auch ein Kaufobjekt (z. B. Symbol 5093-d in 5FFF) auf, das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Kaufobjekt liegt) den Kauf des ersten Medieninhaltselements von der zweiten Medienquelle initiiert. In einigen Ausführungsformen wird das erste Medieninhaltselement in Reaktion auf die Aktivierung des Kaufobjekts gekauft. In einigen Ausführungsformen initiiert das Aktivieren des Kaufobjekts die Bereitstellung von Daten zur Anzeige einer Medieninhaltselement-Kauf-Schnittstelle (z. B. einer Bestätigungsseite) zum Kaufen des ersten Medieninhaltselements. In einigen Ausführungsformen initiiert das Kaufobjekt bei Aktivierung auch die Bereitstellung von Daten für die Anzeige zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von von der zweiten Medienquelle empfangenen Daten.
  • In einigen Ausführungsformen wird das Leihobjekt mit einem Ausleihpreis für das erste Medieninhaltselement aus der zweiten Medienquelle angezeigt (z. B. wird in 5FFF das Symbol 5093-e mit dem Ausleihpreis von 2,99 $ angezeigt). In einigen Ausführungsformen wird das Kaufobjekt mit einem Kaufpreis für das erste Medieninhaltselement von der zweiten Medienquelle angezeigt (z. B. wird in 5FFF das Symbol 5093-d mit dem Kaufpreis von 9,99 $ angezeigt).
  • In einigen Ausführungsformen weist die zweite Gruppe von Medienverwaltungsobjekten ein Wiedergabeobjekt außerhalb der Anwendung auf (z. B. Symbol 5093-c), das bei Aktivierung den Start einer dritten Softwareanwendung initiiert (z. B. die iTunes-Software), die sich von der ersten Softwareanwendung und der zweiten Softwareanwendung unterscheidet und dem zweiten Medienquellelement zugeordnet ist (zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von Daten, die von der zweiten Medienquelle empfangen wurden, in einer Benutzerschnittstelle der dritten Softwareanwendung).
  • In einigen Ausführungsformen weist (1022) die zweite Gruppe von Medienverwaltungsobjekten ein Filmlistenobjekt (z. B. Symbol 5093-f in 5FFF) auf, das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Filmlistenobjekt liegt) das Hinzufügen des ersten Medieninhaltselements in eine Liste ausgewählter Medieninhaltselemente initiiert.
  • In einigen Ausführungsformen, während die Anzeige eine Medieninhalts-Browser-Benutzerschnittstelle anzeigt, empfängt (1024, 10C) das Gerät eine Auswahl des ersten Medieninhaltselements; und stellt in Reaktion auf den Empfang der Auswahl des ersten Medieninhaltselements, während die Anzeige die Medieninhalts-Browser-Benutzerschnittstelle anzeigt, der Anzeige Daten zum Ersetzen der Anzeige der Medieninhalts-Browser-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereit (z. B. wird, wie in 5ZZ bis 5AAA dargestellt, die Produktseitenansicht 5090 in Reaktion auf die Aktivierung von Symbol 5062-a auf dem Home-Bildschirm 5018 in 5ZZ angezeigt). Während die Anzeige eine Such-Benutzerschnittstelle anzeigt, empfängt das Gerät eine Auswahl des ersten Medieninhaltselements; und stellt in Reaktion auf den Empfang der Auswahl des ersten Medieninhaltselements, während die Anzeige die Such-Benutzerschnittstelle anzeigt, der Anzeige Daten zum Ersetzen der Anzeige der Such-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereit (z. B. wird, wie in 5KKK bis 5LLL dargestellt, die Produktseitenansicht 5090 in Reaktion auf eine Auswahl eines Listenelements in einer Suchseitenansicht 5066 angezeigt). Während die Anzeige eine Medieninhalts-Store-Benutzerschnittstelle anzeigt, empfängt das Gerät eine Auswahl des ersten Medieninhaltselements; und stellt in Reaktion auf den Empfang der Auswahl des ersten Medieninhaltselements, während die Anzeige die Medieninhalts-Store-Benutzerschnittstelle anzeigt, der Anzeige Daten zum Ersetzen der Anzeige der Medieninhalts-Store-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereit (z. B. wird, wie in 5MMM5NNN dargestellt, die Produktseitenansicht 5090 in Reaktion auf die Auswahl eines Medieninhaltssymbols in der Medieninhalts-Speicheransicht 5060 angezeigt).
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 10A10C beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen ersichtlich. Darüber hinaus ist es hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 600, 700, 800, 900, 1000, 1100 und 1200) ebenso in analoger Weise auf das Verfahren 1000 anwendbar sind, das oben bezüglich 10A10C beschrieben wurde. Zum Beispiel weisen die oben mit Bezugnahme auf Verfahren 1000 beschriebenen Benutzerschnittstellen, Benutzerschnittstellenobjekte, Benutzereingaben und Benutzereingabegeräte optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen, Benutzerschnittstellenobjekte, Benutzereingaben und Benutzereingabegeräte auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 600, 700, 800, 900, 1100 und 1200). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 10A11D sind Ablaufdiagramme, die ein Verfahren 1100 zur Auswahl einer Medienpräsentationsoption gemäß einigen Ausführungsformen veranschaulichen. Das Verfahren 1100 wird auf einem elektronischen Gerät (z. B. Gerät 300, 3, oder tragbares Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige durchgeführt. In einigen Ausführungsformen steht das elektronische Gerät in Kommunikation mit einem Benutzereingabegerät (z. B. einem entfernten Benutzereingabegerät, wie einer Fernbedienung) mit einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen kann die Anzeige von der berührungsempfindlichen Oberfläche getrennt sein. In einigen Ausführungsformen ist das Benutzereingabegerät im elektronischen Gerät integriert. In einigen Ausführungsformen ist das Benutzereingabegerät vom elektronischen Gerät getrennt. Einige Operationen in Verfahren 1100 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, stellt das Verfahren 1100 eine effiziente Möglichkeit zur Auswahl einer Medienpräsentationsoption bereit. Das Verfahren verringert die Anzahl, den Umfang und/oder die Natur der Eingaben eines Benutzers bei der Navigation durch Medieninhalt, wodurch eine effizientere Mensch-Maschine-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten ermöglicht dies einem Benutzer, eine Medienpräsentationsoption schneller und effizienter auszuwählen, was Strom spart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • Das Gerät stellt (1102) der Anzeige Daten zur Darstellung einer ersten Medieninformations-Benutzerschnittstelle für ein erstes Medienprogramm bereit (z. B. eine erste Fernsehserie, wie „Sad Men”). Die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm umfasst eine Mehrzahl an Medienquellobjekten (z. B. iTunes, einen ersten Drittanbieter-Streaming-Service-Provider, einen zweiten Drittanbieter-Streaming-Service-Provider, einen Fernsehkanal usw., wie die Symbole 5095-b bis 5095-e in 5OOO). Ein jeweiliges Medienquellobjekts der mehreren Medienquellobjekte entspricht einer jeweiligen Medienquelle für das erste Medienprogramm, wobei ein erstes Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des ersten Medienquellobjekts anzugeben, wobei das erste Medienquellobjekt einer ersten Medienquelle entspricht. In einigen Ausführungsformen weist die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm auch ein oder mehrere Episodenobjekte auf (z. B. Symbole 5097-a bis 5097-d in 5OOO), die einer oder mehreren Episoden für das aus der ersten Medienquelle verfügbare erste Medienprogramm entsprechen, wobei ein erstes Episodenobjekt (z. B. Symbol 5097-a in 5OOO) des einen oder der mehreren Episodenobjekte visuell unterschieden ist, um eine Auswahl des ersten Episodenobjekts anzugeben, wobei das erste Episodenobjekt einer ersten Episode des ersten Medienprogramms entspricht. In einigen Ausführungsformen umfasst ein entsprechendes Episodenobjekt ein Miniaturbild (Thumbnail) einer jeweiligen Episode. Darüber hinaus umfasst die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm eine erste Gruppe von Medienverwaltungsobjekten für die erste Episode (z. B. Symbole 5096-a bis 5096-c in 5OOO). Die erste Gruppe von Medienverwaltungsobjekten umfasst ein oder mehrere Medienpräsentations-Optionsobjekte (z. B. Wiedergabesymbol 5096-a), das/die dem ersten Medieninhaltselement und der ersten Medienquelle entspricht/entsprechen.
  • In einigen Ausführungsformen weist die erste Gruppe von Medienverwaltungsobjekten ein Episodenkaufobjekt (z. B. Symbol 5096-d in 5PPP) auf, das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Episodenkaufobjekt liegt) den Kauf der ersten Episode des ersten Medieninhaltsprogramms von der ersten Medienquelle initiiert. In einigen Ausführungsformen initiiert das Episodenkaufobjekt bei Aktivierung auch die Bereitstellung von Daten für die Anzeige zur Wiedergabe der ersten Episode unter Verwendung von von der ersten Medienquelle empfangenen Daten. In einigen Ausführungsformen weist die erste Gruppe von Medienverwaltungsobjekten auch ein Staffelkaufobjekt (z. B. Symbol 5096-e in 5PPP) auf, das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Staffelkaufobjekt angezeigt wird) den Kauf einer einzelnen Staffel mit der ersten Episode des ersten Medieninhaltsprogramms von der ersten Medienquelle initiiert. In einigen Ausführungsformen initiiert das Episodenkaufobjekt bei Aktivierung auch die Bereitstellung von Daten für die Anzeige zur Wiedergabe der ersten Episode unter Verwendung von von der ersten Medienquelle empfangenen Daten.
  • In einigen Ausführungsformen ist (1106) die Medieninformations-Benutzerschnittstelle eine Benutzerschnittstelle einer ersten Softwareanwendung (z. B. eine integrierte Medienanwendung, wie ein Video-/Musikwiedergabemodul 152 in 3) und die erste Gruppe von Medienverwaltungsobjekten umfasst auch ein Wiedergabeobjekt außerhalb der Anwendung (z. B. Symbol 5096-f in 5QQQ), das bei Aktivierung (z. B. mit einem Antippen auf der berührungsempfindlichen Oberfläche des entfernten Benutzereingabegeräts, während der aktuelle Fokus auf dem Wiedergabeobjekt außerhalb der Anwendung angezeigt wird) den Start einer zweiten Softwareanwendung initiiert, die sich von der ersten Softwareanwendung unterscheidet und der ersten Medienquelle zugeordnet ist (z. B. erstes Videowiedergabemodul 392 in 3) zur Wiedergabe der ersten Episode unter Verwendung von von der ersten Medienquelle empfangenen Daten in einer Benutzerschnittstelle der zweiten Softwareanwendung.
  • Während die Anzeige die Medieninformations-Benutzerschnittstelle darstellt, empfängt (1108) das Gerät eine Benutzereingabe (z. B. auf einem entfernten Benutzereingabegerät, das in Kommunikation mit dem elektronischen Gerät steht).
  • In Reaktion auf den Empfang (1110) der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts in der ersten Gruppe der Medienverwaltungsobjekte entspricht (z. B. Drücken einer Wiedergabetaste oder Vorsehen einer Antippgeste auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001, während ein aktueller Fokus auf Symbol 5096-d in 5PPP angezeigt wird), initiiert (1112) das Gerät die Bereitstellung von Daten (z. B. Videodaten oder andere Multimediadaten) zur Wiedergabe der ersten Episode unter Verwendung von Daten, die von der ersten Medienquelle empfangen wurden, gemäß einer dem ersten Medienpräsentations-Optionsobjekt entsprechenden Medienpräsentationsoption.
  • In einigen Ausführungsformen initiiert das Gerät in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines zweiten Medienpräsentations-Optionsobjekts (z. B. Symbol 5096-e in 5PPP) der ersten Gruppe von Medienverwaltungsobjekten entspricht, die Bereitstellung von Daten für die Anzeige zur Wiedergabe der ersten Episode unter Verwendung von Daten, die von der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption, die dem zweiten Medienpräsentations-Optionsobjekt entspricht.
  • In einigen Ausführungsformen weist (1114) die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm ein integriertes Medienquellobjekt (z. B. Symbol 5095-a in 5OOO) auf, das sich von den mehreren Medienquellobjekten unterscheidet, die mehreren Medienquellen für das erste Medienprogramm zugeordnet sind, und in Reaktion auf den Empfang der Benutzereingabe gemäß der Bestimmung, dass die Benutzereingabe einer Anforderung zur Auswahl des integrierten Medienquellobjekts entspricht (z. B. eine Streichgeste 5472 nach links auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001, wie in 5QQQ dargestellt), stellt das Gerät der Anzeige Daten zur Aktualisierung der Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereit. Die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm weist mehrere Medienquellobjekte auf (z. B. Symbole 5095-a bis 5095-e); ein oder mehrere Episodenobjekte, die der einen oder den mehreren Episoden für das erste Medienprogramm entsprechen, die aus den mehreren Medienquellen verfügbar sind (z. B. Symbole 5097-a bis 5097-d); und eine zweite Gruppe von einem oder mehreren Medienverwaltungsobjekten, die den mehreren Medienquellen entsprechen, die dem integrierten Medienquellobjekts zugeordnet sind (z. B. Symbole 5096-a bis 5096-c), und ein ausgewähltes Episodenobjekt (z. B. Symbol 5097-a) von dem einen oder den mehreren Episodenobjekten, die dem einen oder den mehreren Episoden für das erste Medienprogramm entsprechen, die von mehreren Medienquellen verfügbar sind. In einigen Ausführungsformen ist das eine oder sind die mehreren Episodenobjekte in der aktualisierten Medieninformations-Benutzerschnittstelle identisch mit dem einen oder den mehreren Episodenobjekten, die der einen oder den mehreren Episoden für das erste Medienprogramm entsprechen, das von der ersten Medienquelle verfügbar ist. In einigen Ausführungsformen unterscheidet sich das eine oder unterscheiden sich die mehreren Episodenobjekte in der aktualisierten Medieninformations-Benutzerschnittstelle von dem einen oder den mehreren Episodenobjekten, die der einen oder mehreren Episoden für das erste Medienprogramm entsprechen, das von der ersten Medienquelle verfügbar ist. In einigen Ausführungsformen wird das ausgewählte Episodenobjekt visuell unterschieden, um die Auswahl des ausgewählten Episodenobjekts anzugeben.
  • In einigen Ausführungsformen ist die zweite Gruppe von Medienverwaltungsobjekten von der ersten Gruppe von Medienverwaltungsobjekten verschieden. In einigen Ausführungsformen weist die zweite Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienverwaltungsobjekte auf, die nicht in der ersten Gruppe von Medienverwaltungsobjekten enthalten sind. In einigen Ausführungsformen weist die erste Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienverwaltungsobjekte auf, die nicht in der zweiten Gruppe von Medienverwaltungsobjekten enthalten sind. In einigen Ausführungsformen weisen die erste Gruppe von Medienverwaltungsobjekten und die zweite Gruppe von Medienverwaltungsobjekten ein oder mehrere gemeinsame Medienverwaltungsobjekte auf. In einigen Ausführungsformen weisen die erste Gruppe von Medienverwaltungsobjekten und die zweite Gruppe von Medienverwaltungsobjekten keine gemeinsamen Medienverwaltungsobjekte auf.
  • In einigen Ausführungsformen ist das integrierte Medienquellobjekt visuell von den mehreren Medienquellobjekten unterschieden, um die Auswahl des integrierten Medienquellobjekts anzugeben. In einigen Ausführungsformen wird die visuelle Unterscheidung des ersten Medienquellobjekts in der aktualisierten Medieninformations-Benutzerschnittstelle beendet.
  • In einigen Ausführungsformen weist (1116) die zweite Gruppe von einem oder mehreren Medienverwaltungsobjekten ein Wiedergabeobjekt auf (z. B. Symbol 5096-a in 5RRR), das bei Aktivierung die Bereitstellung von Daten für die Anzeige zur Wiedergabe der ersten Episode initiiert, unter Verwendung von Daten, die von einer von den mehreren dem integrierten Medienquellobjekt zugeordneten Medienquellen empfangen wurden. In einigen Ausführungsformen wird eine der mehreren Medienquellen basierend auf bestimmten Quellenauswahlkriterien ausgewählt (z. B. basierend auf den Kosten der Wiedergabe der ersten Episoden und der Qualität der ersten Episode, wie einer Videoauflösung, einer Framerate und/oder ob Werbung enthalten ist oder nicht).
  • In einigen Ausführungsformen weist (1118) die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm Kostenangaben für entsprechende Episodenobjekte auf, die jeweiligen Episoden entsprechen, die kostenpflichtig verfügbar sind (z. B. werden Episodenobjekte für Episoden, die ohne weitere Kosten verfügbar sind (z. B. aufgrund eines bestehenden Abonnements), ohne Kostenangaben angezeigt, und Episodenobjekte für Episoden, die nur gegen weitere Kosten verfügbar sind, werden mit Kostenangaben angezeigt). Zum Beispiel werden in 5PPP die Symbole 5097-a bis 5097-c mit Kostenangaben angezeigt und das Symbol 5097-d wird ohne Kostenangaben angezeigt, da die zu Symbol 5097-d zugehörige Episode kostenfrei verfügbar ist.
  • In einigen Ausführungsformen stellt das Gerät in Reaktion auf den Empfang (1110) der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Auswahl eines zweiten Medienquellobjekts entspricht, das sich vom ersten Medienquellobjekt der mehreren Medienquellobjekte unterscheidet (z. B. eine Streichgeste 5470 nach rechts auf der berührungsempfindlichen Oberfläche 451 der Fernbedienung 5001, wie in 5PPP dargestellt), der Anzeige Daten zur Aktualisierung der Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereit. Die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm weist mehrere Medienquellobjekte auf, in denen das zweite Medienquellobjekt visuell unterschieden wird, um die Auswahl des zweiten Medienquellobjekts anzugeben (z. B. ist in 5QQQ das Symbol 5095-c von den Symbolen 5095-a bis 5095-f visuell unterschieden), wobei das zweite Medienquellobjekt einer zweiten Medienquelle entspricht, die sich von der ersten Medienquelle unterscheidet. In einigen Ausführungsformen wird die visuelle Unterscheidung des ersten Medienquellobjekts in der aktualisierten Medieninformations-Benutzerschnittstelle beendet.
  • In einigen Ausführungsformen umfasst die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm auch eine dritte Gruppe von Medienverwaltungsobjekten, die der ersten Episode und der zweiten Medienquelle entsprechen (z. B. Symbole 5096-f, 5096-b und 5096-c in 5QQQ). Die dritte Gruppe von Medienverwaltungsobjekten unterscheidet sich von der ersten Gruppe von Medienverwaltungsobjekten. In einigen Ausführungsformen wird die erste Gruppe von Medienverwaltungsobjekten durch die dritte Gruppe von Medienverwaltungsobjekten ersetzt. In einigen Ausführungsformen wird die Anzeige der ersten Gruppe von Medienverwaltungsobjekten beendet. In einigen Ausführungsformen weist die dritte Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienverwaltungsobjekte auf, die nicht in der ersten Gruppe von Medienverwaltungsobjekten enthalten sind. In einigen Ausführungsformen weist die erste Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienverwaltungsobjekte auf, die nicht in der dritten Gruppe von Medienverwaltungsobjekten enthalten sind. In einigen Ausführungsformen weisen die erste Gruppe von Medienverwaltungsobjekten und die dritte Gruppe von Medienverwaltungsobjekten ein oder mehrere gemeinsame Medienverwaltungsobjekte auf. In einigen Ausführungsformen weisen die erste Gruppe von Medienverwaltungsobjekten und die dritte Gruppe von Medienverwaltungsobjekten keine gemeinsamen Medienverwaltungsobjekte auf.
  • In einigen Ausführungsformen ist die zweite Medienquelle eine abonnementbasierte Quelle (z. B. eine Quelle, die ein bezahltes Abonnement erfordert, um Daten zur Wiedergabe der ersten Episode zu empfangen). Gemäß der Bestimmung, dass das elektronische Gerät kein Abonnement für die zweite Medienquelle hat, weist die dritte Gruppe von Medienverwaltungsobjekten ein Abonnementobjekt auf, das bei Aktivierung die Anzeige einer Abonnement-Benutzerschnittstelle initiiert.
  • In einigen Ausführungsformen weist (1122) die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm ein Staffelauswahlobjekt (z. B. Symbol 5096-b in 5SSS) auf, das eine erste ausgewählte Staffel für das erste Medienprogramm angibt (z. B. Staffel 5, wie in 5SSS dargestellt). Das eine oder die mehreren Episodenobjekte in der Medieninformations-Benutzerschnittstelle entsprechen einer oder mehreren Episoden für die erste ausgewählte Staffel des ersten Medienprogramms. Das Staffelauswahlobjekt initiiert bei Aktivierung die Anzeige einer Liste von Staffeln des ersten Medienprogramms, die von der ersten Medienquelle verfügbar sind (z. B. Staffelauswahlschnittstelle 5498 in 5TTT). Das Gerät empfängt weiterhin eine Auswahl einer zweiten ausgewählten Staffel in der Liste von Staffeln, die sich von der ersten ausgewählten Staffel unterscheidet (z. B. Empfang einer Antippgeste 5480 oder eine Betätigung einer Auswahltaste, während ein aktueller Fokus auf dem Benutzerschnittstellenobjekt 5498-1 angezeigt wird, das der zweiten ausgewählten Staffel in 5UUU entspricht). In Reaktion auf den Empfang (1124) der Auswahl der zweiten ausgewählten Staffel in der Liste der Staffeln aktualisiert (1126) das Gerät das Staffelauswahlobjekt zur Angabe der zweiten ausgewählten Staffel (z. B. steht Symbol 5096-b in 5VVV für Staffel 1) und ersetzt (1128) die Anzeige von dem einen oder den mehreren Episodenobjekten in der Medieninformations-Benutzerschnittstelle, das/die der einen oder den mehreren Episoden für die erste ausgewählte Staffel des ersten Medienprogramms entspricht/entsprechen, durch die Anzeige von einem oder mehreren Episodenobjekten, das/die einer oder mehreren Episoden für die zweite ausgewählte Staffel des ersten Medienprogramms entspricht/entsprechen (z. B. ersetzt in 5VVV die Anzeige der Symbole 5097-e bis 5097-h die Anzeige der Symbole 5097-a bis 5097-d). In einigen Ausführungsformen ist das eine oder sind die mehreren Episodenobjekte in chronologischer Reihenfolge der jeweiligen Episoden angeordnet (z. B. Episode 1 gefolgt von Episode 2, gefolgt von Episode 3 usw.), wie in 5VVV dargestellt, wenn die ausgewählte Staffel geschlossen ist (z. B. ist die Staffel beendet). Dies vereinfacht einem Benutzer die Episoden in einer chronologischen Reihenfolge anzusehen. In einigen Ausführungsformen ist das eine oder sind die mehreren Episodenobjekte in umgekehrter chronologischer Reihenfolge angeordnet (z. B. Episode 3 steht vor Episode 2, die vor Episode 1 steht) der jeweiligen Episoden, wie in 5SSS dargestellt, wenn die ausgewählte Staffel geöffnet ist (z. B. ist die Staffel noch nicht beendet). Dadurch kann der Benutzer die aktuellste Episode einfacher identifizieren.
  • In einigen Ausführungsformen umfassen die einen oder mehreren Episodenobjekte ein Episodenobjekt für eine zukünftige Episode. In einigen Ausführungsformen wird das Episodenobjekt für die zukünftige Episode mit einer Sendezeit der zukünftigen Episode angezeigt. In einigen Ausführungsformen initiiert das Episodenobjekt für die zukünftige Episode bei Aktivierung die Anzeige einer Benutzerschnittstelle zum Festlegen einer Erinnerung für die Sendezeit der zukünftigen Episode.
  • In einigen Ausführungsformen empfängt (1130, 11D) das Gerät eine Auswahl des ersten Medienprogramms, während die Anzeige eine Medieninhalts-Browser-Benutzerschnittstelle anzeigt; stellt in Reaktion auf den Empfang der Auswahl des ersten Medienprogramms, während die Anzeige die Medieninhalts-Browser-Benutzerschnittstelle anzeigt, der Anzeige Daten zum Ersetzen der Anzeige der Medieninhalts-Browser-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereit; empfängt, während die Anzeige eine Such-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medienprogramms; stellt in Reaktion auf den Empfang der Auswahl des ersten Medienprogramms, während die Anzeige die Such-Benutzerschnittstelle anzeigt, der Anzeige Daten zum Ersetzen der Anzeige der Such-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereit; empfängt während die Anzeige eine Medieninhalts-Store-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medienprogramms; und stellt in Reaktion auf den Empfang der Auswahl des ersten Medienprogramms, während die Anzeige die Medieninhalts-Store-Benutzerschnittstelle anzeigt, der Anzeige Daten zum Ersetzen der Anzeige der Medieninhalts-Store-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereit. Zum Beispiel kann in einer Weise, die oben bezüglich der Operation 1024 beschrieben wurde, auf die Produktseitenansicht 5091 für das Fernsehprogramm „Sad Men” über eine Medieninhalts-Browser-Benutzerschnittstelle, eine Such-Benutzerschnittstelle (z. B. Suchseitenansicht 5066 in 5KKK) und eine Medieninhalts-Store-Benutzerschnittstelle (z. B. Medieninhalts-Speicheransicht 5060 in 5MMM) zugegriffen werden. Der Kürze halber wird hier auf solche Details nicht eingegangen.
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 11A11D beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen ersichtlich. Darüber hinaus ist hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 600, 700, 800, 900, 1000 und 1200) ebenso in analoger Weise auf das Verfahren 1100 anwendbar sind, das oben bezüglich 11A11D beschrieben wurde. Zum Beispiel weisen die oben mit Bezugnahme auf Verfahren 1100 beschriebenen Benutzerschnittstellen, Benutzerschnittstellenobjekte, Benutzereingaben und Benutzereingabegeräte optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen, Benutzerschnittstellenobjekte, Benutzereingaben und Benutzereingabegeräte auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 600, 700, 800, 900, 1000 und 1200). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 12A12E sind Ablaufdiagramme, die ein Verfahren 1200 zum Navigieren durch Medieninhalt gemäß einigen Ausführungsformen veranschaulichen. Das Verfahren 1200 wird von einem elektronischen Gerät (z. B. Gerät 300, 3, oder tragbares Multifunktionsgerät 100, 1A) in Kommunikation mit einer Anzeige durchgeführt. In einigen Ausführungsformen steht das elektronische Gerät in Kommunikation mit einem Benutzereingabegerät (z. B. einem entfernten Benutzereingabegerät, wie einer Fernbedienung) mit einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige oder ist darin integriert. In einigen Ausführungsformen kann die Anzeige von der berührungsempfindlichen Oberfläche getrennt sein. In einigen Ausführungsformen ist das Benutzereingabegerät im elektronischen Gerät integriert. In einigen Ausführungsformen ist das Benutzereingabegerät vom elektronischen Gerät getrennt. Einige Operationen in Verfahren 1200 werden optional kombiniert und/oder die Reihenfolge einiger Operationen wird optional geändert.
  • Wie im Folgenden beschrieben, stellt das Verfahren 1200 eine effiziente Möglichkeit zum Navigieren durch Medieninhalt unter Verwendung von zwei unterschiedlichen Wiedergabe-Navigationsmodi bereit. Das Verfahren verringert die Anzahl, den Umfang und/oder die Natur der Eingaben von einem Benutzer bei der Navigation durch Medieninhalt, wodurch eine effizientere Mensch-Maschine-Schnittstelle erstellt wird. Bei akkubetriebenen elektronischen Geräten ermöglicht dies einem Benutzer schneller durch Medieninhalt zu navigieren, was effizienter Strom spart und die Zeit zwischen den Akkuladevorgängen erhöht.
  • Während das Gerät in einem ersten Wiedergabe-Navigationsmodus (z. B. einem Kapitel-Wiedergabe-Navigationsmodus) arbeitet (1202), stellt (1204) das Gerät der Anzeige erste Videoinformationen zur Anzeige bereit. Die ersten Videoinformationen umfassen Informationen, die einem oder mehreren Frames eines Videos entsprechen, eine Scrubber-Leiste, die eine Zeitleiste des Videos darstellt, einen ersten Wiedergabekopf (z. B. einen Wiedergabe-Vorlauf-Wiedergabekopf), der eine aktuelle Wiedergabeposition in der Scrubber-Leiste angibt, und mehrere Wiedergabe-Positionsmarkierungen, die sich vom ersten Wiedergabekopf unterscheiden, die bestimmte Wiedergabepositionen im Video angeben (z. B. Kapitelmarkierungen oder andere Meilenstein-Markierungen in der Scrubber-Leiste). Wie zum Beispiel in 5UUU dargestellt, hat das Gerät der Anzeige 450 erste Videoinformationen bereitgestellt, die dem ersten Wiedergabe-Navigationsmodus oder dem Kapitel-Wiedergabe-Navigationsmodus entsprechen. In diesem Beispiel umfassen die ersten Videoinformationen Informationen, die einem oder mehreren Frames eines Videos, einer Scrubber-Leiste 5302, einem ersten Wiedergabekopf 5304 und mehreren Wiedergabe-Positionsmarkierungen 5314 entsprechen. In einigen Ausführungsformen entsprechen der eine oder die mehreren Frames des Videos der ersten Wiedergabeposition in der Scrubber-Leiste (z. B. die einen oder mehreren an die Anzeige gesendeten Frames des Videos sind um die erste Wiedergabekopfposition zentriert). In einigen Ausführungsformen gibt der erste Wiedergabekopf eine aktuelle Wiedergabeposition in der Scrubber-Leiste an, an der das Video aktuell abgespielt oder aktuell pausiert ist. In einigen Ausführungsformen sind die Wiedergabe-Positionsmarkierungen Kapitelmarkierungen oder andere Meilenstein-Markierungen in der Zeitleiste des angezeigten Videos.
  • Während das Gerät im ersten Wiedergabe-Navigationsmodus arbeitet (1202), empfängt (1206) das Gerät auch eine Eingabe, die einer Anforderung von einem Benutzer zum Wechseln in einen zweiten Wiedergabe-Navigationsmodus entspricht (z. B. einem Navigationsmodus bei laufender Wiedergabe). Zum Beispiel empfängt das Gerät eine Eingabe, die einer Geste zum Wechseln des Wiedergabe-Navigationsmodus auf einer berührungsempfindlichen Oberfläche entspricht, die in Kommunikation mit dem Gerät steht. Zum Beispiel wird in 5UUUU eine Benutzereingabe 5174 (z. B. eine Streichgeste nach oben) auf der berührungsempfindlichen Oberfläche 451 des Benutzereingabegeräts erfasst. In einigen Ausführungsformen ist das Benutzereingabegerät eine Fernsteuerung 5001, die von dem Gerät getrennt ist, und das Gerät empfängt von der Fernbedienung 5001 ein Signal, das der Benutzereingabe 5174 entspricht. In einigen Ausführungsformen erfasst das Gerät selbst die Eingabe (z. B. Drücken einer Taste auf dem Gerät). In einigen Ausführungsformen ist die Eingabe eine Geste (z. B. Streichen, Ziehen oder Antippen), die auf einer berührungsempfindlichen Oberfläche (z. B. Oberfläche 451) erfasst wird, ein Drücken einer Taste oder eine Bewegung des Benutzereingabegeräts (z. B. Anheben oder Absenken der Fernbedienung 5001). In einigen Ausführungsformen wird die Geste zum Wechseln des Modus an einer beliebigen Stelle auf der berührungsempfindlichen Oberfläche durchgeführt.
  • In Reaktion auf den Empfang der Eingabe, die der Anforderung des Benutzers zum Wechseln in den zweiten Wiedergabe-Navigationsmodus entspricht, geht (1208) das Gerät vom Betrieb im ersten Wiedergabe-Navigationsmodus in den Betrieb im zweiten Wiedergabe-Navigationsmodus über (z. B. ein fortlaufender oder feiner Wiedergabe-Navigationsmodus). Wie zum Beispiel in 5VVVV dargestellt, geht das Gerät vom Betrieb im ersten Wiedergabe-Navigationsmodus, der in 5UUUU dargestellt ist, in Reaktion auf den Empfang einer Benutzereingabe 5174, wie in 5UUUU dargestellt, in den in 5VVVV dargestellten zweiten Wiedergabe-Navigationsmodus über. In einigen Ausführungsformen ermöglicht der erste Wiedergabe-Navigationsmodus die Navigation durch ein Video, das auf einer Anzeige 450 angezeigt wird, basierend auf bestimmten Positionsmarkierungen (z. B. Kapitelmarkierungen). In einigen Ausführungsformen ermöglicht der zweite Wiedergabe-Navigationsmodus die Navigation durch ein Video, das auf einer Anzeige 450 angezeigt wird, in einer feineren Skalierung (z. B. auf Sekundenbasis oder einem Bruchteil davon).
  • Während das Gerät in einem zweiten Wiedergabe-Navigationsmodus arbeitet (1210), stellt (1212) das Gerät der Anzeige zweite Videoinformationen zur Anzeige bereit. Die zweiten Videoinformationen umfassen Informationen, die einem oder mehreren Frames des Videos, der Scrubber-Bildleiste und dem ersten Wiedergabekopf (z. B. 5VVVV) entsprechen.
  • In einigen Ausführungsformen umfassen (1214, 12B) die zweiten Videoinformationen Informationen, die einem zweiten Wiedergabekopf (z. B. zweiter Wiedergabekopf 5308) entsprechen, der eine erste Navigationsposition in der Scrubber-Leiste angibt (z. B. eine Position in der Scrubber-Leiste 5302, die sich von der aktuellen Wiedergabeposition unterscheidet, auf die der zweite Wiedergabekopf zeigt und auf die der erste Wiedergabekopf 5304 bei Empfang einer Eingabe versetzt wird, die angibt, dass die erste Navigationsposition die aktuelle Wiedergabeposition werden soll). In einigen Ausführungsformen weisen (1216) die zweiten Videoinformationen Text auf, der die erste Navigationsposition in der Scrubber-Leiste angibt. Zum Beispiel, wie in 5WWWW dargestellt, weisen die zweiten Videoinformationen Informationen auf, die dem zweiten Wiedergabekopf 5308 und dem zweiten Wiedergabekopftext 5312 entsprechen. Der zweite Wiedergabekopf 5308 gibt eine Position in der Scrubber-Leiste (oder Zeitleiste des angezeigten Videos) an, an die der erste Wiedergabekopf bei Empfang einer Eingabe versetzt wird, die einer Anforderung zum Bewegen des ersten Wiedergabekopfs an die Position des zweiten Wiedergabekopfs entspricht (z. B. wird in 5XXXX der erste Wiedergabekopf 5304 an die Position des zweiten Wiedergabekopfs 5308 in Reaktion auf die Benutzereingabe 5179 bewegt, wie in 5WWWW dargestellt).
  • In einigen Ausführungsformen weisen (1218) die zweiten Videoinformationen Informationen auf, die einem Vorschaufenster (z. B. Vorschaufenster 5310 in 5VVVV) entsprechen. In einigen Ausführungsformen ist das Vorschaufenster für die Anzeige naheliegend (z. B. über) zum zweiten Wiedergabekopf in der Scrubber-Leiste ausgestaltet. Das Vorschaufenster enthält einen oder mehrere Frames des Videos, die einer Navigationsposition des zweiten Wiedergabekopfs auf der Scrubber-Leiste entsprechen. In einigen Ausführungsformen enthält das Vorschaufenster auch Metadaten für den einen oder die mehreren Frames (z. B. Zeitstempel, Untertitel usw.). Zum Beispiel veranschaulicht 5CCCC die Anzeige des Vorschaufensters 5310. In diesem Beispiel umfassen die Informationen zur Anzeige des Vorschaufensters 5310 wenigstens den aktuell angezeigten Frame entsprechend dem zweiten Wiedergabekopf 5308 und dem zweiten Wiedergabetext 5312. In diesem Beispiel entsprechen der zweite Wiedergabekopf 5308 und der zweite Wiedergabekopftext 5312 der gleichen Position in der Scrubber-Leiste 5302 wie der erste Wiedergabekopf 5304 (z. B. sofort bei Anzeige des Vorschaufensters 5310), sodass das Vorschaufenster 5310 einen Frame des Videos gleichzeitig mit der Anzeige des Frames in der Video-Wiedergabeansicht 5300 anzeigt. In einigen Ausführungsformen umfassen die ersten Videoinformationen auch Informationen bezüglich des Vorschaufensters.
  • In einigen Ausführungsformen folgt das Vorschaufenster 5310 auf den zweiten Wiedergabekopf 5308, sodass der zweite Wiedergabekopf 5308 unter dem Vorschaufenster 5310 zentriert ist. Ein Beispiel davon ist in 5DDDD dargestellt. Wie in 5CCC ersichtlich, wird jedoch in einigen Ausführungsformen das Vorschaufenster 5310 vom zweiten Wiedergabekopf 5308 versetzt angezeigt (z. B. befindet sich das Vorschaufenster 5310 außerhalb der Mitte des zweiten Wiedergabekopfs 5308). In diesem Beispiel wird der zweite Wiedergabekopf 5308 weit links entlang der Scrubber-Leiste 5102 angezeigt, und das Vorschaufenster 5310 wird über dem zweiten Wiedergabekopf 5308 angezeigt, sodass eine Kante des Vorschaufensters 5308 entlang einer Kante der Anzeige 450 oder der Video-Wiedergabeansicht 5300 angezeigt wird. In einigen Ausführungsformen wird das Vorschaufenster 5310 stets an einer festen Position angezeigt (z. B. die Kante links außen oder die Kante rechts außen der Anzeige 450), während der zweite Wiedergabekopf 5308 sich in eine erste Richtung bewegt (z. B. nach rechts), bis der zweite Wiedergabekopf 5308 bezüglich des Vorschaufensters 5310 zentriert ist, wobei sich zu diesem Zeitpunkt sowohl das Vorschaufenster 5310 als auch der zweite Wiedergabekopf 5308 in die erste Richtung bewegen.
  • In einigen Ausführungsformen empfängt (1220) das Gerät eine Eingabe, die einer Anforderung zur Anzeige des Vorschaufensters entspricht, und in Reaktion auf den Empfang der Eingabe, die einer Anforderung zur Anzeige des Vorschaufensters entspricht, werden der Anzeige Informationen zur Anzeige bereitgestellt, die dem Vorschaufenster entsprechen. Wie zum Beispiel in 5BBBB und 5CCCC dargestellt, wird eine Benutzereingabe 5159 (z. B. eine Antippgeste) auf der berührungsempfindlichen Oberfläche 451 erfasst (z. B. Gerät 100 oder 300 empfängt ein Signal, das dieser Eingabe entspricht), und in Reaktion auf den Empfang der Benutzereingabe 51559 werden das Vorschaufenster 5310 und der zweite Wiedergabekopf 5308 in der Video-Wiedergabeansicht 5300 angezeigt, wie in 5CCCC gezeigt.
  • Während das Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet (1210) (z. B. im Navigationsmodus bei laufender Wiedergabe), beendet (1222, 12A) das Gerät die Bereitstellung von Informationen für die Anzeige, die den mehreren Wiedergabe-Positionsmarkierungen entsprechen, die die bestimmten Wiedergabepositionen im Video angeben. Zum Beispiel arbeitet in 5UUUU das Gerät im ersten Wiedergabe-Navigationsmodus (z. B. Kapitel-Wiedergabe-Navigationsmodus), wenn die Benutzereingabe 5174 erfasst wird. 5VVVV zeigt, dass in Reaktion auf den Empfang der Benutzereingabe 5174 das Gerät in den zweiten Wiedergabe-Navigationsmodus übergeht (z. B. in den Navigationsmodus bei laufender Wiedergabe) und die Anzeige der mehreren Wiedergabe-Positionsmarkierungen 5314 beendet wird (in 5UUUU dargestellt).
  • In einigen Ausführungsformen empfängt (1224, 12C) das Gerät während des Betriebs im zweiten Wiedergabe-Navigationsmodus (z. B. dem Navigationsmodus bei laufender Wiedergabe) eine Eingabe, die einer Anforderung zur Bewegung des zweiten Wiedergabekopfs nach vorne entspricht (z. B. eine Eingabe, die einer Streichgeste nach rechts entspricht, eine Antippgeste in einem bestimmten Bereich auf der rechten Seite der berührungsempfindlichen Oberfläche in Kommunikation mit dem Gerät oder eine andere ähnliche Geste auf der berührungsempfindlichen Oberfläche oder eine Aktivierung einer Schnellvorlauftaste auf einer Fernbedienung in Kommunikation mit dem Gerät usw.). Das Gerät stellt der Anzeige in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht, Daten zum fortlaufenden Vorsetzen des zweiten Wiedergabekopfs in einer Vorwärtsrichtung in der Scrubber-Leiste bereit (z. B. um einen Betrag, der einer Größenordnung der Eingabe entspricht und optional ohne etwaige Kapitel- oder Abschnitteinteilungen im Inhalt). In einigen Ausführungsformen wird der zweite Wiedergabekopf fortlaufend während der Erfassung der Eingabe nach vorne versetzt und hält dann an, wenn die Eingabe endet. In einigen Ausführungsformen wird der zweite Wiedergabekopf nach vorne versetzt, bis eine eigene Benutzereingabe erfasst wird, wie in 5VVVV5WWWW dargestellt. Zum Beispiel wird in 5CCCC, während das Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet, eine Benutzereingabe 5158 erfasst. In diesem Beispiel werden in Reaktion auf den Empfang der Benutzereingabe 5158 der zweite Wiedergabekopf 5308, das Vorschaufenster 5310 und der zweite Wiedergabetext 5312 nach vorne entlang der Scrubber-Leiste 5302 versetzt, wie in 5DDDD und 5EEEE dargestellt, gemäß der Bewegung der Benutzereingabe 5158. In einigen Ausführungsformen umfasst das Bewegen des zweiten Wiedergabekopfs nach vorne das zeitweilige Vorsetzen des zweiten Wiedergabekopfs entlang einer Zeitliniendarstellung des in der Video-Wiedergabeansicht 5300 angezeigten Videos.
  • In einigen Ausführungsformen empfängt das Gerät während des Betriebs im ersten Wiedergabe-Navigationsmodus (z. B. im Kapitel-Wiedergabe-Navigationsmodus) eine Eingabe, die einer Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht. In einigen Ausführungsformen ist die Eingabe, die der Anforderung zum Schnellvorlauf des Videos entspricht, die während des Betriebs im zweiten Wiedergabe-Navigationsmodus empfangen wird, die gleiche wie die Eingabe, die der Anforderung zum Schnellvorlauf des Videos entspricht, die während des Betriebs im ersten Wiedergabe-Navigationsmodus empfangen wird (z. B. entsprechen beide Eingaben der gleichen Geste oder der Aktivierung der gleichen Taste). In einigen Ausführungsformen unterscheidet sich die Eingabe, die der Anforderung zum Schnellvorlauf des Videos entspricht, die während des Betriebs im zweiten Wiedergabe-Navigationsmodus empfangen wird, von der Eingabe, die der Anforderung zum Schnellvorlauf des Videos entspricht, die während des Betriebs im ersten Wiedergabe-Navigationsmodus empfangen wird (z. B. entsprechen die Eingaben verschiedenen Gesten oder der Aktivierung verschiedener Tasten). Das Gerät stellt in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht, der Anzeige Daten bereit, um den zweiten Wiedergabekopf in der Scrubber-Leiste an eine nächste Wiedergabe-Positionsmarkierung nach vorne zu versetzen. In einigen Ausführungsformen stellt das Gerät Videoinformationen bereit, in denen die Informationen, die dem einen oder den mehreren Frames des Videos entsprechen, aktualisiert werden, um der nächsten Wiedergabe-Positionsmarkierung in der Scrubber-Leiste zu entsprechen.
  • In einigen Ausführungsformen empfängt (1226) das Gerät während des Betriebs im zweiten Wiedergabe-Navigationsmodus (z. B. dem Navigationsmodus bei laufender Wiedergabe) eine Eingabe, die einer Anforderung zur Bewegung des zweiten Wiedergabekopfs zurück entspricht (z. B. eine Eingabe, die einer Streichgeste nach links entspricht, eine Antippgeste in einem bestimmten Bereich auf der linken Seite einer berührungsempfindlichen Oberfläche in Kommunikation mit dem Gerät oder eine andere ähnliche Geste auf der berührungsempfindlichen Oberfläche oder eine Aktivierung einer Rückspul-/Rücklauftaste auf einer Fernbedienung in Kommunikation mit dem Gerät usw.). Das Gerät stellt in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs zurück entspricht, der Anzeige Daten bereit, um den zweiten Wiedergabekopf in der Scrubber-Leiste fortlaufend in die Rückwärtsrichtung zu bewegen. In einigen Ausführungsformen wird der zweite Wiedergabekopf fortlaufend während der Erfassung der Eingabe in die Rückwärtsrichtung bewegt und hält dann an, wenn die Eingabe endet. In einigen Ausführungsformen bewegt sich der zweite Wiedergabekopf in die Rückwärtsrichtung, bis eine eigenständige Benutzereingabe, wie eine separate Antippgeste oder ein separater Tastendruck, erfasst wird. In einigen Ausführungsformen stellt das Gerät Videoinformationen bereit, in denen die Informationen, die dem einen oder den mehreren Frames des Videos entsprechen, aktualisiert werden, um der Bewegung des zweiten Wiedergabekopfs in der Scrubber-Leiste zu entsprechen.
  • In einigen Ausführungsformen empfängt das Gerät während des Betriebs im ersten Wiedergabe-Navigationsmodus (z. B. im Kapitel-Wiedergabe-Navigationsmodus) eine Eingabe, die einer Anforderung zum Bewegen des zweiten Wiedergabekopfs in die Rückwärtsrichtung entspricht. In einigen Ausführungsformen ist die Eingabe, die der Anforderung zum Rücklauf des Videos entspricht, die während des Betriebs im zweiten Wiedergabe-Navigationsmodus empfangen wird, die gleiche wie die Eingabe, die der Anforderung zum Rücklauf des Videos entspricht, die während des Betriebs im ersten Wiedergabe-Navigationsmodus empfangen wird (z. B. entsprechen beide Eingaben der gleichen Geste oder der Aktivierung der gleichen Taste). In einigen Ausführungsformen unterscheidet sich die Eingabe, die der Anforderung zum Rücklauf des Videos entspricht, die während des Betriebs im zweiten Wiedergabe-Navigationsmodus empfangen wird, von der Eingabe, die der Anforderung zum Rücklauf des Videos entspricht, die während des Betriebs im ersten Wiedergabe-Navigationsmodus empfangen wird (z. B. entsprechen die Eingaben verschiedenen Gesten oder der Aktivierung verschiedener Tasten). Das Gerät stellt in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs in die Rückwärtsrichtung entspricht, der Anzeige Daten bereit, um den zweiten Wiedergabekopf in der Scrubber-Leiste auf eine vorherige Wiedergabe-Positionsmarkierung zurückzusetzen. Zum Beispiel wird in 5IIII, während das Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet, eine Benutzereingabe 5192 erfasst. In diesem Beispiel werden in Reaktion auf den Empfang der Benutzereingabe 5192 der zweite Wiedergabekopf 5308, das Vorschaufenster 5310 und der zweite Wiedergabetext 5312 in umgekehrter Richtung entlang der Scrubber-Leiste 5302 bewegt, wie in 5JJJJ und 5KKKK dargestellt.
  • In einigen Ausführungsformen, während das Gerät im ersten Wiedergabe-Navigationsmodus (z. B. dem Kapitel-Wiedergabe-Navigationsmodus) oder im zweiten Wiedergabe-Navigationsmodus (z. B. dem Navigationsmodus in der laufenden Wiedergabe) arbeitet, und die Anzeige die Scrubber-Leiste, den ersten Wiedergabekopf, den zweiten Wiedergabekopf und ein Vorschaufenster neben dem zweiten Wiedergabekopf anzeigt, empfängt (1228, 12D) das Gerät eine Eingabe, die einer Anforderung zur Wiederaufnahme der Wiedergabe des Videos an der aktuellen Wiedergabeposition in der Scrubber-Leiste entspricht. In einigen Ausführungsformen stellt das Gerät in Reaktion auf den Empfang der Eingabe, die der Anforderung zur Wiederaufnahme der Wiedergabe des Videos an der aktuellen Wiedergabekopfposition in der Scrubber-Leiste entspricht, der Anzeige dritte Videoinformationen bereit, die einer Animation des Vorschaufensters entsprechen, wobei es sich an eine Position an oder neben der aktuellen Wiedergabeposition bewegt. In einigen Ausführungsformen, nachdem das Vorschaufenster an die Position an oder neben der aktuellen Wiedergabeposition bewegt wurde, beendet das Gerät die Bereitstellung von Informationen für die Anzeige des Vorschaufensters und nimmt die Wiedergabe des Videos an einem Punkt im Video auf, der der aktuellen Wiedergabeposition in der Scrubber-Leiste entspricht. Zum Beispiel, wie in 5OOOO dargestellt, während das Gerät im ersten Wiedergabe-Navigationsmodus arbeitet (z. B. Kapitel-Navigationsmodus), wird die Benutzereingabe 5170 erfasst (z. B. das Drücken der Menütaste 5002). Wie in 5PPPP bis 5RRRR dargestellt, werden dritte Videoinformationen angezeigt, die einer Animation des Vorschaufensters 5310 entsprechen, das sich bewegt und in der Größe auf den ersten Wiedergabekopf reduziert wird. 5SSSS veranschaulicht, dass das Vorschaufenster 5310 nicht mehr angezeigt wird, nachdem das Vorschaufenster an die Position an oder nahe der aktuellen Wiedergabeposition bewegt wurde, wie in 5RRRR dargestellt, und das Gerät die Wiedergabe des Videos an der aktuellen Wiedergabeposition wieder aufnimmt. In einigen Ausführungsformen bewegt eine Animation den zweiten Wiedergabekopf auch zurück an die Position des ersten Wiedergabekopfs. In einigen Ausführungsformen, nachdem das Vorschaufenster an die Position an oder neben der aktuellen Wiedergabeposition, der Scrubber-Leiste, dem ersten Wiedergabekopf, dem zweiten Wiedergabekopf versetzt wurde, wird kein Vorschaufenster mehr angezeigt (z. B. direkt oder nach einer bestimmten Zeit, wie 0,5 Sekunden oder 1 Sekunde). In einigen Ausführungsformen werden die Scrubber-Leiste, der erste Wiedergabekopf, der zweite Wiedergabekopf und das Vorschaufenster langsam ausgeblendet (oder die Anzeige wird anderweitig beendet), wenn das Vorschaufenster in Richtung einer Position an oder neben der aktuellen Wiedergabeposition bewegt wird. In einigen Ausführungsformen wird der zweite Wiedergabekopf mit der direkten Manipulation versetzt, während sich der Finger auf der berührungsempfindlichen Oberfläche befindet. In einigen Ausführungsformen wird der zweite Wiedergabekopf mit der Trägheitskraft versetzt, nachdem der Finger von der berührungsempfindlichen Oberfläche abgehoben ist. In einigen Ausführungsformen, selbst im Kapitelmodus, kann ein Benutzer eine Streichgeste durchführen, um unterbrechungsfrei durch den Inhalt zu navigieren (und mit Klicken im Kantenbereich zwischen Kapiteln wechseln).
  • In einigen Ausführungsformen, während das Gerät in entweder dem ersten Wiedergabe-Navigationsmodus oder dem zweiten Wiedergabe-Navigationsmodus arbeitet und die Anzeige die Scrubber-Leiste, den ersten Wiedergabekopf und den zweiten Wiedergabekopf anzeigt, empfängt (1230) das Gerät eine Eingabe, die einer Anforderung zur Wiedergabe des Videos an der ersten Navigationsposition in der Scrubber-Leiste entspricht (z. B. Benutzereingabe 5179 in 5WWWW). Das Gerät nimmt in Reaktion auf den Empfang der Eingabe, die der Anforderung zur Wiedergabe des Videos an der ersten Navigationsposition in der Scrubber-Leiste entspricht, die Wiedergabe des Videos an einem Punkt im Video auf, der der ersten Navigationsposition in der Scrubber-Leiste entspricht (z. B. 5XXXX). Zum Beispiel, wie in 5WWWW dargestellt, geben das Vorschaufenster 5310, der zweite Wiedergabekopf 5308 und der zweite Wiedergabetext 5312 die erste Navigationsposition in der Scrubber-Leiste an (z. B. 1:01:44 im Video). In Reaktion auf den Empfang eines Signals, das der Erfassung einer Benutzereingabe 5179 auf der berührungsempfindlichen Oberfläche 451 entspricht, wird der erste Wiedergabekopf 5304 an eine Position in der Scrubber-Leiste 5302 bewegt, die der ersten Navigationsposition entspricht, und das in der Video-Wiedergabeansicht 5300 angezeigte Video nimmt die Wiedergabe an der ersten Navigationsposition wieder auf, wie in 5XXXX dargestellt.
  • In einigen Ausführungsformen empfängt (1232, 12E) das Gerät während des Betriebs im zweiten Wiedergabe-Navigationsmodus (z. B. Navigationsmodus bei laufender Wiedergabe) eine Eingabe, die einer Anforderung vom Benutzer zum Wechseln in den ersten Wiedergabe-Navigationsmodus entspricht (z. B. den Kapitel-Wiedergabe-Navigationsmodus). Zum Beispiel empfängt das Gerät eine Eingabe, die einer Geste zum Wechseln des Wiedergabe-Navigationsmodus auf einer berührungsempfindlichen Oberfläche entspricht, die in Kommunikation mit dem Gerät steht. In einigen Ausführungsformen wird die Geste zum Wechseln des Modus an einer beliebigen Stelle auf der berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Geste zum Wechseln des Modus eine Streichgeste oder eine Antippgeste. In einigen Ausführungsformen ist die Geste zum Wechseln des Modus ein Tastendruck. Das Gerät geht in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Wechseln in den ersten Wiedergabe-Navigationsmodus (z. B. den Kapitel-Wiedergabe-Navigationsmodus) entspricht, vom Betrieb im zweiten Wiedergabe-Navigationsmodus (z. B. dem Navigationsmodus bei laufender Wiedergabe) in den Betrieb im ersten Wiedergabe-Navigationsmodus (z. B. dem Kapitel-Wiedergabe-Navigationsmodus) über. In einigen Ausführungsformen stellt das Gerät der Anzeige vierte Videoinformationen zur Anzeige bereit. Die vierten Videoinformationen umfassen Informationen, die einem oder mehreren von den Frames des Videos, der Scrubber-Leiste, dem ersten Wiedergabekopf und den mehreren Wiedergabe-Positionsmarkierungen entsprechen, die sich vom ersten Wiedergabekopf unterscheiden, die bestimmte Wiedergabepositionen im Video angeben (z. B. Kapitelmarkierungen oder andere Meilenstein-Markierungen in der Scrubber-Leiste). Zum Beispiel, wie in 5UUUU dargestellt, wird eine Benutzereingabe 5194 erfasst, während das Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet (z. B. im Navigationsmodus bei laufender Wiedergabe). In Reaktion auf den Empfang eines Signals, das einer Erfassung einer Benutzereingabe 5194 entspricht, geht das Gerät vom Betrieb im zweiten Wiedergabe-Navigationsmodus (z. B. dem Navigationsmodus bei laufender Wiedergabe) zum Betrieb im ersten Wiedergabe-Navigationsmodus (z. B. dem Kapitel-Wiedergabe-Navigationsmodus) über und mehrere Wiedergabe-Positionsmarkierungen (z. B. Kapitelmarkierungen) werden angezeigt, wie in 5MMMM dargestellt.
  • In einigen Ausführungsformen, während des Betriebs im zweiten Wiedergabe-Navigationsmodus (oder im Navigationsmodus bei laufender Wiedergabe) empfängt (1234) das Gerät eine Eingabe, die einer Anforderung zum Wechseln in einen Wiedergabemodus entspricht, und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Wechseln in den Wiedergabemodus entspricht, geht das Gerät vom Betrieb im zweiten Navigationsmodus zum Betrieb in einem Wiedergabemodus über, der das Video auf der Anzeige wiedergibt, und die Anzeige der Scrubber-Leiste, des ersten Wiedergabekopfs und des zweiten Wiedergabekopfs beendet. In einigen Ausführungsformen werden die mehreren Wiedergabe-Positionsmarkierungen im Wiedergabemodus nicht angezeigt. Zum Beispiel empfängt das Gerät in 5XXXX, während des Betriebs im zweiten Wiedergabemodus (z. B. im Navigationsmodus bei laufender Wiedergabe) ein Signal, das einer Erfassung einer Benutzereingabe 5178 entspricht (z. B. eine Antipp- und Haltegeste). 5YYYY veranschaulicht einen daraus folgenden Wechsel zum Betrieb in einen Wiedergabemodus. Während des Betriebs im Wiedergabemodus, wie in 5YYYY dargestellt, wird die Anzeige der verschiedenen in 5XXXX angezeigten Navigationselemente, wie die Scrubber-Leiste 5302, der erste Wiedergabekopf 5304 und der zweite Wiedergabekopf 5308 beendet. In einigen Ausführungsformen initiiert die Anforderung zum Wechseln in den Wiedergabemodus das Ausblenden des ersten Wiedergabekopfs und des zweiten Wiedergabekopfs, so dass nur ein Wiedergabekopf angezeigt wird, der einer aktuellen Wiedergabeposition im Inhalt entspricht.
  • In einigen Ausführungsformen während des Betriebs im ersten Wiedergabe-Navigationsmodus (oder im Kapitel-Wiedergabe-Navigationsmodus) empfängt das Gerät eine Eingabe, die einer Anforderung zum Wechseln in einen Wiedergabemodus entspricht, und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Wechseln in den Wiedergabemodus entspricht, geht das Gerät vom Betrieb im ersten Navigationsmodus zum Betrieb im Wiedergabemodus über, der das Video auf der Anzeige wiedergibt, und die Anzeige der Scrubber-Leiste und des ersten Wiedergabekopfs beendet (und des zweiten Wiedergabekopfs, wenn vorhanden).
  • In einigen Ausführungsformen empfängt (1236) das Gerät eine Eingabe, die einer Anforderung zum Schnellvorlauf oder Rücklauf des Videos entspricht. In einigen Ausführungsformen umfasst das Erfassen der Eingabe das Erfassen einer Druckgeste (z. B. ein Klick einer mechanischen Taste oder das Erfassen einer erhöhten Intensität eines Kontakts um mehr als einen bestimmten Betrag oder über einem bestimmten Intensitätsgrenzwert) nach dem Erfassen eines Kontakts auf einer Kante einer berührungsempfindlichen Oberfläche für wenigstens eine bestimmte Zeitspanne. Das Gerät stellt in Reaktion auf den Empfang der Eingabe, die einer Anforderung zum Schnellvorlauf oder Rücklauf des Videos entspricht, der Anzeige Daten zum Weiterspringen im Video um eine bestimmte Zeitspanne gemäß der Eingabe bereit. Zum Beispiel wird in 5YYYY eine Benutzereingabe 5180 in einem Teilbereich 5208-f erfasst, während das Gerät im Wiedergabemodus arbeitet. 5ZZZZ veranschaulicht das Vorsetzen (z. B. den Vorlauf) der Wiedergabe des Videos in einem bestimmten Zeitschritt (z. B. 10, 30 oder 90 Sekunden). Das kann durch Verfolgen der Positionsänderung von Greg der Ziege am Berg beobachtet werden, wie in der Video-Wiedergabeansicht 5300 dargestellt. In einigen Ausführungsformen stellt das Gerät Daten bereit, um M Sekunden weiterzuspringen (in einer Schnellvorlaufrichtung) in Reaktion auf den Empfang einer Eingabe vom Benutzer, die einer Anforderung des Benutzers zum Schnellvorlauf des Videos entspricht. In einigen Ausführungsformen stellt das Gerät Daten bereit, um N Sekunden zurückzugehen (in einer Rückwärtsrichtung) in Reaktion auf den Empfang der Eingabe vom Benutzer, die einer Anforderung des Benutzers zum Rücklauf des Videos entspricht. In einigen Ausführungsformen ist M größer als 1. In einigen Ausführungsformen ist N größer als 1. In einigen Ausführungsformen ist M gleich N (z. B. sind sowohl M und N gleich 1). In einigen Ausführungsformen unterscheiden sich M und N.
  • In einigen Ausführungsformen empfängt (1238) das Gerät während des Betriebs im Wiedergabemodus eine Eingabe, die einer Anforderung zum Wechseln in den zweiten Wiedergabe-Navigationsmodus (z. B. in den Navigationsmodus bei fortlaufender Wiedergabe) entspricht. Zum Beispiel empfängt das Gerät eine Eingabe, die einer Geste zum Wechseln des Modus auf einer berührungsempfindlichen Oberfläche entspricht, die in Kommunikation mit dem Gerät steht. In einigen Ausführungsformen wird die Geste zum Wechseln des Modus an einer beliebigen Stelle auf der berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Geste zum Wechseln des Modus eine Streichgeste oder eine Antippgeste. In einigen Ausführungsformen ist die Geste zum Wechseln des Modus ein Tastendruck. Das Gerät geht in Reaktion auf den Empfang der Eingabe, die einer Anforderung zum Wechseln des zweiten Wiedergabe-Navigationsmodus entspricht, vom Wiedergabemodus in den zweiten Wiedergabe-Navigationsmodus über (z. B. den Navigationsmodus bei laufender Wiedergabe). Zum Beispiel arbeitet in 5AAAA das Gerät im Wiedergabemodus, während eine Benutzereingabe 5154 erfasst wird. 5BBBB veranschaulicht, dass die Scrubber-Leiste 5302, der erste Wiedergabekopf 5304 und der Gesamtzeit-Text 5309 in Reaktion auf den Empfang eines Signals angezeigt werden, was einer Erfassung der Benutzereingabe 5154 entspricht, während das Gerät im zweiten Navigations-Wiedergabemodus arbeitet (z. B. dem Navigationsmodus bei laufender Wiedergabe).
  • Es versteht sich, dass die bestimmte Reihenfolge, in der die Operationen in 12A12E beschrieben wurden, nur beispielhafter Natur ist und nicht dazu gedacht ist, die beschriebene Reihenfolge als einzige Reihenfolge anzugeben, in der die Operationen ausgeführt werden können. Für einen Fachmann sind verschiedene Möglichkeiten der Neuanordnung der hier beschriebenen Operationen erkennbar. Darüber hinaus ist hervorzuheben, dass die Details anderer Prozesse, die im vorliegenden Dokument mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (z. B. die Verfahren 600, 700, 800, 900, 1000 und 1100) ebenso in gleicher Weise auf das Verfahren 1200 anwendbar sind, das oben bezüglich 12A12E beschrieben wurde. Zum Beispiel weisen die Benutzerschnittstellen und Benutzereingaben, die oben bezüglich Verfahren 1200 beschrieben wurden, optional eine oder mehrere der Eigenschaften der Benutzerschnittstellen und Benutzereingaben auf, die hier mit Bezugnahme auf andere hier beschriebene Verfahren beschrieben wurden (z. B. die Verfahren 600, 700, 800, 900, 1000 und 1100). Der Kürze halber werden diese Details hier nicht wiederholt.
  • Gemäß einigen Ausführungsformen zeigt 13 ein funktionales Blockdiagramm des elektronischen Geräts 1300, das gemäß den Grundsätzen der verschiedenen beschriebenen Ausführungsformen ausgestaltet ist. Die Funktionsblöcke des Geräts werden optional durch Hardware, Software, Firmware oder eine Kombination davon implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu verwirklichen. Fachleute werden verstehen, dass die in 13 beschriebenen Funktionsblöcke optional in Unterblöcke kombiniert oder aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Daher unterstützt die hier ausgeführte Beschreibung optional jede mögliche Kombination oder Trennung oder weitere Definition der hier beschriebenen Funktionsblöcke.
  • Wie in 13 dargestellt, steht das elektronische Gerät 1300 in Kommunikation mit der Anzeigeeinheit 1302 und einem entfernten Benutzereingabegerät 1304. Das elektronische Gerät 1300 enthält die Verarbeitungseinheit 1309 in Kommunikation mit der Anzeigeeinheit und der entfernten Benutzerschnittstelleneinheit. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 1309: eine Datenbereitstellungseinheit 1308, eine Eingabeempfangseinheit 1310, eine Bestimmungseinheit 1312, eine Beendigungseinheit 1314 und eine Änderungseinheit 1319.
  • Die Verarbeitungseinheit 1309 ist dazu ausgestaltet: während das elektronische Gerät in einem Bildschirmschonermodus arbeitet: der Anzeigeeinheit 1302 Daten zur Präsentation eines ersten Mediums bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308), das einen ersten visuellen Bewegungseffekt aufweist; während die Anzeigeeinheit das erste Medium präsentiert, das den ersten visuellen Bewegungseffekt aufweist, eine Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 zu empfangen (z. B. mit der Eingabeempfangseinheit 1310); und in Reaktion auf den Empfang der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304: einen Typ der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 zu bestimmen (z. B. mit der Bestimmungseinheit 1312); gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines ersten Typs ist, der Anzeigeeinheit 1302 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308), um das erste Medium zu präsentieren, das einen zweiten visuellen Bewegungseffekt aufweist, ohne den Bildschirmschonermodus zu verlassen, wobei der zweite visuelle Bewegungseffekt sich vom ersten visuellen Bewegungseffekt unterscheidet; und gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines zweiten Typs ist, der sich vom ersten Typ unterscheidet, den Bildschirmschonermodus zu beenden (z. B. mit der Beendigungseinheit 1314).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1309 dazu ausgestaltet, nach der Bestimmung, dass die Benutzereingabe vom ersten Typ ist, während die Anzeigeeinheit 1302 das erste Medium präsentiert, das den zweiten visuellen Bewegungseffekt aufweist, zu bestimmen (z. B. mit der Bestimmungseinheit 1314), dass die Erfassung der Benutzereingabe des ersten Typs auf der entfernten Benutzereingabeeinheit 1304 beendet wurde, und in Reaktion auf die Bestimmung, dass die Erfassung der Benutzereingabe des ersten Typs auf der entfernten Benutzereingabeeinheit 1304 beendet wurde, der Anzeigeeinheit 1302 Daten zur Präsentation eines Mediums bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308), das den ersten visuellen Bewegungseffekt aufweist.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1309 dazu ausgestaltet, in Reaktion auf den Empfang der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines vierten Typs ist, der Anzeigeeinheit 1302 Daten zum Ersetzen des ersten Mediums mit dem ersten visuellen Bewegungseffekt durch ein zweites Medium bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308), das aus mehreren Medien ausgewählt ist, das einen dritten visuellen Bewegungseffekt aufweist.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1309 dazu ausgestaltet: in Reaktion auf den Empfang der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304: gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines dritten Typs ist, der Anzeigeeinheit 1302 Daten zum Präsentieren des ersten Mediums mit dem ersten visuellen Bewegungseffekt mit zugehörigem beschreibendem Text bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1309 dazu ausgestaltet: in Reaktion auf den Empfang der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304: gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines fünften Typs ist, der Anzeigeeinheit 1302 Daten zum Präsentieren des ersten Mediums mit dem ersten visuellen Bewegungseffekt mit Informationen, die die aktuelle Uhrzeit und/oder das aktuelle Datum angeben, bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308).
  • In einigen Ausführungsformen geht das elektronische Gerät in den Bildschirmschonermodus gemäß einer Bestimmung über, dass ein oder mehrere Bildschirmschoner-Aktivierungskriterien erfüllt sind, wobei das eine oder die mehreren Bildschirmschoner-Aktivierungskriterien gemäß der Bestimmung erfüllt sind, dass die entfernte Benutzereingabeeinheit 1304 unbewegt ist.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1309 dazu ausgestaltet: in Reaktion auf den Empfang der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 und gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe des zweiten Typs ist, der Anzeigeeinheit 1302 Daten zum Ersetzen des ersten Mediums mit dem ersten visuellen Bewegungseffekt durch eine Benutzerschnittstelle mit mehreren Objekten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1308), wobei: die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Objekt und ein zweites Objekt, das sich auf der Anzeigeeinheit 1302 neben dem ersten Objekt befindet; und ein aktueller Fokus auf dem ersten Objekt der mehreren Objekte liegt.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1309 dazu ausgestaltet: in Reaktion auf den Empfang der Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304: gemäß der Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines sechsten Typs ist, einen visuellen Bewegungseffekt zur Präsentation des ersten Mediums auf der Anzeigeeinheit 1302 zu ändern (z. B. mit der Änderungseinheit 1316).
  • In einigen Ausführungsformen umfasst das Bereitstellen von Daten für die Anzeigeeinheit 1302 zur Präsentation des ersten Mediums mit dem ersten visuellen Bewegungseffekt das Bereitstellen von Daten für die Anzeigeeinheit zur Darstellung einer Wiedergabe eines ersten Videos; und die Verarbeitungseinheit 1309 ist dazu ausgestaltet, gemäß einer Bestimmung, dass die Benutzereingabe auf der entfernten Benutzereingabeeinheit 1304 eine Benutzereingabe eines siebten Typs ist, eine Wiedergaberichtung des ersten Videos gemäß einer Benutzereingabe zu ändern (z. B. mit der Änderungseinheit 1316).
  • Gemäß einigen Ausführungsformen zeigt 14 ein funktionales Blockdiagramm des elektronischen Geräts 1400, das gemäß den Grundsätzen der verschiedenen beschriebenen Ausführungsformen ausgestaltet ist. Die Funktionsblöcke des Geräts werden optional durch Hardware, Software, Firmware oder eine Kombination davon implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu verwirklichen. Fachleute werden verstehen, dass die in 14 beschriebenen Funktionsblöcke optional in Unterblöcke kombiniert oder aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Daher unterstützt die hier dargelegte Beschreibung optional jede mögliche Kombination oder Trennung oder weitere Definition der hier beschriebenen Funktionsblöcke.
  • Wie in 14 dargestellt, steht das elektronische Gerät 1400 in Kommunikation mit Anzeigeeinheit 1402. Die Anzeigeeinheit 1402 ist dazu ausgestaltet, eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten anzuzeigen. Das elektronische Gerät 1400 umfasst die Verarbeitungseinheit 1404 in Kommunikation mit der Anzeigeeinheit 1402. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 1404: die Datenbereitstellungseinheit 1409 und die Eingabeempfangseinheit 1408.
  • Die Verarbeitungseinheit 1404 ist dazu ausgestaltet: der Anzeigeeinheit 1402 Daten zur Darstellung der Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1406), wobei: die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeigeeinheit befindet; wobei ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeigeeinheit die Benutzerschnittstelle darstellt, eine erste Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1408), die einer Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht; und in Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, der Anzeigeeinheit 1402 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1406) zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: den aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt zu bewegen und das erste Benutzerschnittstellenobjekt in Richtung der ersten Position zurückzubewegen und/oder das erste Benutzerschnittstellenobjekt in Richtung der ersten Ausrichtung zurückzuneigen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1404 dazu ausgestaltet, in Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, der Anzeigeeinheit 1402 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1406) zum: Vergrößern der Größe des ersten Benutzerschnittstellenobjekts auf der Anzeigeeinheit 1402 und Verkleinern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeigeeinheit 1402.
  • In einigen Ausführungsformen wird ein Name des ersten Benutzerschnittstellenobjekts auf oder neben dem ersten Benutzerschnittstellenobjekt angezeigt, während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt, und die Verarbeitungseinheit 1404 ist dazu ausgestaltet, in Reaktion auf den Empfang der ersten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, der Anzeigeeinheit 1402 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1406) zum: Beenden der Anzeige des Namens des ersten Benutzerschnittstellenobjekts und Anzeigen eines Namens des zweiten Benutzerschnittstellenobjekts auf oder neben dem zweiten Benutzerschnittstellenobjekt, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt.
  • In einigen Ausführungsformen enthält das erste Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen, die in einer Z-Anordnung angeordnet sind, und die Ebenen verschieben sich auf der Anzeige gemäß der Neigung des ersten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen umfasst das erste Benutzerschnittstellenobjekt eine oder mehrere Reflexionen und die einen oder mehreren Reflexionen ändern sich gemäß der Neigung des ersten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen umfasst das erste Benutzerschnittstellenobjekt eine oder mehrere Farben und die einen oder mehreren Farben ändern sich gemäß der Neigung des ersten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen nimmt eine Größenordnung der Bewegung des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts ab, wenn die Geschwindigkeit der Bewegung des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt zum zweiten Benutzerschnittstellenobjekt ansteigt.
  • In einigen Ausführungsformen nimmt eine Größenordnung der Neigung des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts ab, wenn die Geschwindigkeit der Versetzung des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt ansteigt.
  • In einigen Ausführungsformen erfolgt das Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt in Reaktion auf den Empfang der ersten Eingabe ohne Bewegen eines beliebigen Benutzerschnittstellenobjekts vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1404 dazu ausgestaltet, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt, eine zweite Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1408), die einer Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht; und in Reaktion auf den Empfang der zweiten Eingabe, die der Anforderung zum Versetzen des aktuellen Fokus in der Benutzerschnittstelle entspricht, der Anzeigeeinheit 1402 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1406) zum: Bewegen des zweiten Benutzerschnittstellenobjekts von einer zweiten Position in Richtung eines dritten Benutzerschnittstellenobjekts neben dem zweiten Benutzerschnittstellenobjekt und/oder Neigen des zweiten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung in Richtung des dritten Benutzerschnittstellenobjekts; und nach Bewegen des zweiten Benutzerschnittstellenobjekts von der zweiten Position in Richtung des dritten Benutzerschnittstellenobjekts und/oder Neigen des zweiten Benutzerschnittstellenobjekts in Richtung des dritten Benutzerschnittstellenobjekts: den aktuellen Fokus vom zweiten Benutzerschnittstellenobjekt auf das dritte Benutzerschnittstellenobjekt zu versetzen und das zweite Benutzerschnittstellenobjekt in Richtung der zweiten Position zurückzuversetzen und/oder das zweite Benutzerschnittstellenobjekt in Richtung der zweiten Ausrichtung zurückzuneigen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1404 dazu ausgestaltet, während sich der aktuelle Fokus auf dem dritten Benutzerschnittstellenobjekt befindet, eine dritte Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1408); und in Reaktion auf den Empfang der dritten Eingabe der Anzeigeeinheit 1402 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1406) zum: Bewegen des dritten Benutzerschnittstellenobjekts von einer dritten Position in Richtung eines vierten Benutzerschnittstellenobjekts neben dem dritten Benutzerschnittstellenobjekt und/oder Neigen des dritten Benutzerschnittstellenobjekts von einer dritten Ausrichtung in Richtung des vierten Benutzerschnittstellenobjekts; und nach Bewegen des dritten Benutzerschnittstellenobjekts von der dritten Position in Richtung des vierten Benutzerschnittstellenobjekts und/oder dem Neigen des dritten Benutzerschnittstellenobjekts in Richtung des vierten Benutzerschnittstellenobjekts: den aktuellen Fokus auf dem dritten Benutzerschnittstellenobjekt beizubehalten und das dritte Benutzerschnittstellenobjekt zurück in Richtung der dritten Position zu bewegen und/oder das dritte Benutzerschnittstellenobjekt zurück in Richtung der dritten Ausrichtung zu neigen.
  • Gemäß einigen Ausführungsformen zeigt 15 ein funktionales Blockdiagramm des elektronischen Geräts 1500, das gemäß den Grundsätzen der verschiedenen beschriebenen Ausführungsformen ausgestaltet ist. Die Funktionsblöcke des Geräts werden optional durch Hardware, Software, Firmware oder eine Kombination davon implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu verwirklichen. Fachleute werden verstehen, dass die in 15 beschriebenen Funktionsblöcke optional in Unterblöcke kombiniert oder aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Daher unterstützt die hier dargelegte Beschreibung optional jede mögliche Kombination oder Trennung oder weitere Definition der hier beschriebenen Funktionsblöcke.
  • Wie in 15 dargestellt, steht das elektronische Gerät 1500 in Kommunikation mit Anzeigeeinheit 1502. Die Anzeigeeinheit 1502 ist dazu ausgestaltet, eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten anzuzeigen. Das elektronische Gerät 1500 umfasst die Verarbeitungseinheit 1504 in Kommunikation mit der Anzeigeeinheit 1502. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 1504: die Datenbereitstellungseinheit 1509 und die Eingabeempfangseinheit 1508.
  • Die Verarbeitungseinheit 1504 ist dazu ausgestaltet, der Anzeigeeinheit 1502 Daten zur Darstellung der Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506), wobei: die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeigeeinheit 1502 befindet; wobei ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeigeeinheit die Benutzerschnittstelle darstellt, eine erste Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1508); und in Reaktion auf den Empfang der ersten Eingabe der Anzeigeeinheit 1502 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506) zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeigeeinheit 1502 zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1504 dazu ausgestaltet, nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus nicht erfüllt, der Anzeigeeinheit 1502 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506) zum: Beibehalten des aktuellen Fokus auf dem ersten Benutzerschnittstellenobjekt und Bewegen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  • In einigen Ausführungsformen wird ein Name des ersten Benutzerschnittstellenobjekts auf oder neben dem ersten Benutzerschnittstellenobjekt angezeigt, während der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt liegt, und die Verarbeitungseinheit 1504 ist dazu ausgestaltet, gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, der Anzeigeeinheit 1502 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506) zum: Beenden der Anzeige des Namens des ersten Benutzerschnittstellenobjekts; und Anzeigen eines Namens des zweiten Benutzerschnittstellenobjekts auf oder neben dem zweiten Benutzerschnittstellenobjekt, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt.
  • In einigen Ausführungsformen weist das erste Benutzerschnittstellenobjekt eine oder mehrere Reflexionen auf und die Verarbeitungseinheit 1504 ist dazu ausgestaltet: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, der Anzeigeeinheit 1502 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506) zum: Beenden der Anzeige von einer oder mehreren Reflexionen des ersten Benutzerschnittstellenobjekts; und Anzeigen von einer oder mehreren Reflexionen des zweiten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1504 dazu ausgestaltet: während sich der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt befindet, eine zweite Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1508); und in Reaktion auf den Empfang der zweiten Eingabe der Anzeigeeinheit 1502 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506) zum: Bewegen des zweiten Benutzerschnittstellenobjekts von einer zweiten Position in Richtung eines dritten Benutzerschnittstellenobjekts neben dem zweiten Benutzerschnittstellenobjekt und/oder Neigen des zweiten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung in Richtung des dritten Benutzerschnittstellenobjekts; und nach Bewegen des zweiten Benutzerschnittstellenobjekts von der zweiten Position in Richtung des dritten Benutzerschnittstellenobjekts und/oder Neigen des zweiten Benutzerschnittstellenobjekts in Richtung des dritten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die zweite Eingabe das Navigationskriterium zum zweiten aktuellen Fokus erfüllt, der Anzeigeeinheit Daten bereitzustellen zum: Versetzen des aktuellen Fokus vom zweiten Benutzerschnittstellenobjekt auf das dritte Benutzerschnittstellenobjekt und Bewegen des zweiten Benutzerschnittstellenobjekts zurück in Richtung der zweiten Position und/oder Neigen des zweiten Benutzerschnittstellenobjekts zurück in Richtung der zweiten Ausrichtung.
  • In einigen Ausführungsformen unterscheiden sich das Navigationskriterium zum ersten aktuellen Fokus und das Navigationskriterium zum zweiten aktuellen Fokus.
  • In einigen Ausführungsformen entspricht die erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus horizontal in der Benutzerschnittstelle und die zweite Eingabe entspricht einer Anforderung zum Versetzen des aktuellen Fokus vertikal in der Benutzerschnittstelle.
  • In einigen Ausführungsformen entspricht die erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten des gleichen Typs und die zweite Eingabe entspricht einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten verschiedener Typen.
  • In einigen Ausführungsformen enthält das erste Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen, die in einer Z-Anordnung von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind, und die Ebenen verschieben sich auf der Anzeigeeinheit 1502 gemäß der Neigung des ersten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen umfasst das Neigen des ersten Benutzerschnittstellenobjekts den Verzicht auf die Anzeige von einem oder mehreren Bereichen der zwei oder mehreren überlappenden Ebenen, die sich von der Hintergrundebene unterscheiden, die über eine Begrenzung der Hintergrundebene hinausgehen.
  • In einigen Ausführungsformen ist eine projizierte Tiefe zwischen der Vordergrundebene und der Hintergrundebene unabhängig von einer Anzahl der zwischen der Vordergrundebene und der Hintergrundebene liegenden Ebenen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1504 dazu ausgestaltet: in Reaktion auf das Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt, der Anzeigeeinheit 1502 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1506) zum: Verkleinern der Größe des ersten Benutzerschnittstellenobjekts auf der Anzeigeeinheit; und Verkleinern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeigeeinheit; wobei das zweite Benutzerschnittstellenobjekt Grafiken in zwei oder mehr überlappenden Ebenen aufweist, die in einer Z-Reihenfolge von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind; das Vergrößern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeigeeinheit 1502 das Vergrößern der Größen der jeweiligen Ebenen der zwei oder mehr überlappenden Ebenen um entsprechende Vergrößerungsverhältnisse umfasst; und ein Vergrößerungsverhältnis für die Vordergrundebene größer ist als ein Vergrößerungsverhältnis für die Hintergrundebene.
  • Gemäß einigen Ausführungsformen zeigt 16 ein funktionales Blockdiagramm des elektronischen Geräts 1600, das gemäß den Grundsätzen der verschiedenen beschriebenen Ausführungsformen ausgestaltet ist. Die Funktionsblöcke des Geräts werden optional durch Hardware, Software, Firmware oder eine Kombination davon implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu verwirklichen. Fachleute werden verstehen, dass die in 16 beschriebenen Funktionsblöcke optional in Unterblöcke kombiniert oder aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Daher unterstützt die hier dargelegte Beschreibung optional jede mögliche Kombination oder Trennung oder weitere Definition der hier beschriebenen Funktionsblöcke.
  • Wie in 16 dargestellt, steht das elektronische Gerät 1600 in Kommunikation mit der Anzeigeeinheit 1602. Die Anzeigeeinheit 1602 ist dazu ausgestaltet, eine Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten anzuzeigen. Das elektronische Gerät 1600 umfasst die Verarbeitungseinheit 1604 in Kommunikation mit der Anzeigeeinheit 1602. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 1604: eine Datenbereitstellungseinheit 1609, eine Bestimmungseinheit 1608 und eine Erfassungseinheit 1610.
  • Die Verarbeitungseinheit 1604 ist dazu ausgestaltet, der Anzeigeeinheit 1602 Daten zur Darstellung der Benutzerschnittstelle mit den mehreren Benutzerschnittstellenobjekten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1606), wobei: die mehreren Benutzerschnittstellenobjekte ein erstes Benutzerschnittstellenobjekt aufweisen und ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt liegt; während die Anzeigeeinheit die Benutzerschnittstelle darstellt, bestimmt wird (z. B. mit der Bestimmungseinheit 1608), dass Inaktivitätskriterien erfüllt sind, in Reaktion auf die Bestimmung, dass die Inaktivitätskriterien erfüllt sind, der Anzeigeeinheit 1602 Daten zur visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in einer ersten Weise von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte bereitgestellt werden (z. B. mit der Datenbereitstellungseinheit 1606); und nach dem Bereitstellen von Daten für die Anzeigeeinheit das erste Benutzerschnittstellenobjekt in der ersten Weise visuell zu unterscheiden: eine Interaktion eines Benutzers mit dem elektronischen Gerät oder einem anderen Gerät in Kommunikation mit dem elektronischen Gerät zu erfassen (z. B. mit der Erfassungseinheit 1610); und in Reaktion auf das Erfassen der Interaktion von dem Benutzer mit dem elektronischen Gerät oder mit einem anderen Gerät in Kommunikation mit dem elektronischen Gerät der Anzeigeeinheit 1602 Daten bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1606), um die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise von den anderen Benutzerschnittstellenobjekten der mehreren Benutzerschnittstellenobjekte zu beenden.
  • In einigen Ausführungsformen sind die Inaktivitätskriterien erfüllt, wenn keine Benutzereingabe vom elektronischen Gerät oder einem anderen Gerät in Kommunikation mit dem elektronischen Gerät für eine bestimmte Zeitspanne erfasst wurde.
  • In einigen Ausführungsformen sind die Inaktivitätskriterien erfüllt, wenn das elektronische Gerät oder eine Fernbedienung in Kommunikation mit dem elektronischen Gerät erfasst, dass die Fernbedienung unbewegt ist.
  • In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Vergrößern der Größe des ersten Benutzerschnittstellenobjekts von einer ersten auf eine zweite Größe.
  • In einigen Ausführungsformen umfasst das Beenden der visuellen Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Verkleinern der Größe des ersten Benutzerschnittstellenobjekts auf die erste Größe.
  • In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Hervorheben des ersten Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen umfasst die visuelle Unterscheidung des ersten Benutzerschnittstellenobjekts in der ersten Weise das Abblenden von einem oder mehreren Teilen der Benutzerschnittstelle, der/die sich vom ersten Benutzerschnittstellenobjekt unterscheiden.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1604 dazu ausgestaltet: in Reaktion auf die Bestimmung, dass die Kriterien für einen dunklen Bildschirm erfüllt sind, der Anzeigeeinheit 1602 Daten zur Anzeige eines leeren Bildschirms bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1606).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1604 dazu ausgestaltet: in Reaktion auf die Bestimmung, dass die Kriterien für einen dunklen Bildschirm erfüllt sind, der Anzeigeeinheit 1602 Daten zum Abblenden der gesamten Benutzerschnittstelle einschließlich des ersten Benutzerschnittstellenobjekts bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1606).
  • Gemäß einigen Ausführungsformen zeigt 17 ein funktionales Blockdiagramm des elektronischen Geräts 1700, das gemäß den Grundsätzen der verschiedenen beschriebenen Ausführungsformen ausgestaltet ist. Die Funktionsblöcke des Geräts werden optional durch Hardware, Software, Firmware oder eine Kombination davon implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu verwirklichen. Fachleute werden verstehen, dass die in 17 beschriebenen Funktionsblöcke optional in Unterblöcke kombiniert oder aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Daher unterstützt die hier dargelegte Beschreibung optional jede mögliche Kombination oder Trennung oder weitere Definition der hier beschriebenen Funktionsblöcke.
  • Wie in 17 dargestellt, steht das elektronische Gerät 1700 in Kommunikation mit der Anzeigeeinheit 1702 und optional in Kommunikation mit einer entfernten Benutzereingabegeräteeinheit 1710. Die Anzeigeeinheit 1702 ist dazu ausgestaltet, Video-Wiedergabeinformationen anzuzeigen. Das elektronische Gerät 1700 enthält die Verarbeitungseinheit 1704. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 1704 gemäß einigen Ausführungsformen die Anzeigedaten-Bereitstellungseinheit 1706 und die Eingabeempfangseinheit 1708.
  • Die Verarbeitungseinheit 1704 ist dazu ausgestaltet, der Anzeigeeinheit 1702 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706) Daten zum Darstellen einer Medieninformations-Benutzerschnittstelle für ein erstes Medieninhaltselement bereitzustellen. Die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst: (a) mehrere Medienquellobjekte, die jeweiligen Medienquellen für das erste Medieninhaltselement entsprechen, wobei ein erstes Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des ersten Medienquellobjekts anzuzeigen, wobei das erste Medienquellobjekt einer ersten Medienquelle entspricht; und (b) eine erste Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement. Die erste Gruppe von Medienverwaltungsobjekten umfasst eine oder mehrere Medienpräsentations-Optionsobjekte, die dem ersten Medieninhaltselement und der ersten Medienquelle entsprechen.
  • In einigen Ausführungsformen weist die Mehrzahl der Medienquellobjekte eine Reihenfolge auf, die gemäß bestimmten Quellenanordnungskriterien bestimmt wurde.
  • In einigen Ausführungsformen weisen die mehreren Medienquellobjekte ein weiteres Quellobjekt auf, das bei Aktivierung die Anzeige einer Liste von weiteren Quellobjekten initiiert, die weiteren Quellen für das erste Medieninhaltselement entsprechen.
  • In einigen Ausführungsformen umfasst die Medieninformations-Benutzerschnittstelle eine Gruppe von Medienobjekten, die einer Gruppe von Medieninhaltselementen entsprechen, die sich vom ersten Medieninhaltselement unterscheiden.
  • In einigen Ausführungsformen ist die Medieninformations-Benutzerschnittstelle eine Benutzerschnittstelle einer ersten Softwareanwendung; und die Medienpräsentations-Optionsobjekte umfassen: (a) ein Wiedergabeobjekt in einer Anwendung, das bei Aktivierung die Bereitstellung von Daten für die Anzeigeeinheit 1702 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706) initiiert, um das erste Medieninhaltselement unter Verwendung von Daten wiederzugeben, die von der ersten Medienquelle in einer Benutzerschnittstelle der ersten Softwareanwendung empfangen wurden (z. B. mit der Eingabeempfangseinheit 1708 oder optional zusammen mit der entfernten Benutzereingabe-Geräteeinheit 1710); (b) ein Wiedergabeobjekt außerhalb einer Anwendung, das bei Aktivierung den Start einer zweiten Softwareanwendung initiiert, die sich von der ersten Softwareanwendung unterscheidet und der ersten Medienquelle zugeordnet ist.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1704 dazu ausgestaltet, während die Anzeigeeinheit 1702 die Medieninformations-Benutzerschnittstelle darstellt, eine Benutzereingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1708 oder optional zusammen mit einer entfernten Benutzereingabegeräteeinheit 1710).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1704 dazu ausgestaltet, in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts der ersten Gruppe von Medienverwaltungsobjekten für das erste Medieninhaltselement entspricht, eine Bereitstellung von Daten für die Anzeigeeinheit 1702 zu initiieren (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706) zur Wiedergabe des ersten Medieninhaltselements unter Verwendung von Daten, die von der ersten Medienquelle empfangen wurden, gemäß einer Medienpräsentationsoption, die dem ersten Medienpräsentations-Optionsobjekt entspricht.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1704 dazu ausgestaltet, in Reaktion auf eine Bestimmung, dass die Benutzereingabe einer Anforderung zur Auswahl eines zweiten Medienquellobjekts entspricht, das sich vom ersten Medienquelleobjekt der mehreren Medienquellobjekte unterscheidet, der Anzeigeeinheit 1702 Daten zur Aktualisierung der Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706). Die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement umfasst: (a) mehrere Medienquellobjekte, die jeweiligen Medienquellen für das erste Medieninhaltselement entsprechen, wobei das zweite Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden ist, um die Auswahl des zweiten Medienquellobjekts anzuzeigen, wobei das zweite Medienquellobjekt einer zweiten Medienquelle entspricht, die sich von der ersten Medienquelle unterscheidet; und (b) eine zweite Gruppe von Medienverwaltungsobjekten, die dem ersten Medieninhaltselement und der zweiten Medienquelle entspricht, wobei sich die zweite Gruppe von Medienverwaltungsobjekten von der ersten Gruppe von Medienverwaltungsobjekten unterscheidet.
  • In einigen Ausführungsformen umfasst die zweite Gruppe von Medienverwaltungsobjekten: (a) ein Leihobjekt, das bei Aktivierung das Ausleihen des ersten Medieninhaltselements von der zweiten Medienquelle initiiert; und (b) ein Kaufobjekt, das bei Aktivierung den Kauf des ersten Medieninhaltselements von der zweiten Medienquelle initiiert.
  • In einigen Ausführungsformen umfasst die zweite Gruppe von Medienverwaltungsobjekten ein Filmlistenobjekt, das bei Aktivierung das Hinzufügen des ersten Medieninhaltselements zu einer Liste ausgewählter Medieninhaltselemente initiiert.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1704 dazu ausgestaltet: während die Anzeigeeinheit 1702 eine Medieninhalts-Browser-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medieninhaltselements zu empfangen (z. B. mit der Eingabeempfangseinheit 1708 und optional in Verbindung mit der entfernten Benutzereingabegeräteeinheit 1710); in Reaktion auf den Empfang der Auswahl des ersten Medieninhaltselements, während die Anzeigeeinheit die Medieninhalts-Browser-Benutzerstelle anzeigt, der Anzeigeeinheit 1702 Daten zum Ersetzen der Anzeige der Medieninhalts-Browser-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706); während die Anzeigeeinheit 1702 eine Such-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medieninhaltselements zu empfangen (z. B. mit der Eingabeempfangseinheit 1708 und optional in Verbindung mit einer entfernten Benutzereingabegeräteeinheit 1710); in Reaktion auf den Empfang der Auswahl des ersten Medieninhaltselements, während die Anzeigeeinheit 1702 die Such-Benutzerschnittstelle anzeigt, der Anzeigeeinheit 1702 Daten zum Ersetzen der Anzeige der Such-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706); während die Anzeigeeinheit 1702 eine Medieninhalts-Store-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medieninhaltselements zu empfangen (z. B. mit der Eingabeempfangseinheit 1708 und optional in Verbindung mit der entfernten Benutzereingabegeräteinheit 1710); und in Reaktion auf den Empfang der Auswahl des ersten Medieninhaltselements, während die Anzeigeeinheit 1702 die Medieninhalts-Store-Benutzerschnittstelle anzeigt, der Anzeigeeinheit 1702 Daten zum Ersetzen der Anzeige der Medieninhalts-Store-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medieninhaltselement bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1706).
  • Gemäß einigen Ausführungsformen zeigt 18 ein funktionales Blockdiagramm des elektronischen Geräts 1800, das gemäß den Grundsätzen der verschiedenen beschriebenen Ausführungsformen ausgestaltet ist. Die Funktionsblöcke des Geräts werden optional durch Hardware, Software, Firmware oder eine Kombination davon implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu verwirklichen. Fachleute werden verstehen, dass die in 18 beschriebenen Funktionsblöcke optional in Unterblöcke kombiniert oder aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Daher unterstützt die hier dargelegte Beschreibung optional jede mögliche Kombination oder Trennung oder weitere Definition der hier beschriebenen Funktionsblöcke.
  • Wie in 18 dargestellt, steht das elektronische Gerät 1800 in Kommunikation mit der Anzeigeeinheit 1802 und optional in Kommunikation mit einer entfernten Benutzereingabegeräteeinheit 1810. Die Anzeigeeinheit 1802 ist dazu ausgestaltet, Video-Wiedergabeinformationen anzuzeigen. Das elektronische Gerät 1800 umfasst die Verarbeitungseinheit 1804, die weiterhin die Anzeigedaten-Bereitstellungseinheit 1806, die Eingabeempfangseinheit 1808, die Kaufeinheit 1802 und die Starteinheit 1804 gemäß einigen Ausführungsformen umfasst.
  • Die Verarbeitungseinheit 1804 ist dazu ausgestaltet, der Anzeigeeinheit 1802 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806) Daten zum Darstellen einer Medieninformations-Benutzerschnittstelle für ein erstes Medienprogramm bereitzustellen. Die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm enthält mehrere Medienquellobjekte. Ein jeweiliges Medienquellobjekt der mehreren Medienquellobjekte entspricht einer jeweiligen Medienquelle für das erste Medienprogramm, wobei ein erstes Medienquellobjekt der mehreren Medienquellobjekte visuell unterschieden wird, um die Auswahl des ersten Medienquellobjekts anzugeben, wobei das erste Medienquellobjekt einer ersten Medienquelle entspricht. Die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm umfasst auch ein oder mehrere Episodenobjekte, die einer oder mehreren Episoden des aus der ersten Medienquelle verfügbaren ersten Medienprogramms entsprechen, wobei ein erstes Episodenobjekt der einen oder mehreren Episodenobjekte visuell unterschieden ist, um die Auswahl des ersten Episodenobjekts anzugeben, wobei das erste Episodenobjekt einer ersten Episode des ersten Medienprogramms entspricht; und eine erste Gruppe von Medienverwaltungsobjekten für die erste Episode, wobei die erste Gruppe von Medienverwaltungsobjekten ein oder mehrere Medienpräsentations-Optionsobjekte umfasst, die der ersten Episode und der ersten Medienquelle entsprechen.
  • In einigen Ausführungsformen umfasst die erste Gruppe von Medienverwaltungsobjekten ein Episodenkaufobjekt, das bei Aktivierung den Kauf (z. B. mit der Kaufeinheit 1812) der ersten Episode des ersten Medieninhaltsprogramms von der ersten Medienquelle initiiert; und/oder ein Staffelkaufobjekt, das bei Aktivierung den Kauf einer einzelnen Staffel, die die erste Episode enthält, des ersten Medienprogramms von der ersten Medienquelle initiiert.
  • In einigen Ausführungsformen ist die Medieninformations-Benutzerschnittstelle eine Benutzerschnittstelle einer ersten Softwareanwendung und die erste Gruppe von Medienverwaltungsobjekten umfasst ein Wiedergabeobjekt außerhalb einer Anwendung, das bei Aktivierung einen Start (z. B. mit der Starteinheit 1814) einer zweiten Softwareanwendung initiiert, die sich von der ersten Softwareanwendung unterscheidet und der ersten Medienquelle zugeordnet ist.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1804 dazu ausgestaltet, während die Anzeigeeinheit 1802 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806) die Medieninformations-Benutzerschnittstelle darstellt, eine Benutzereingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1808 oder optional zusammen mit einer entfernten Benutzereingabegeräteeinheit 180).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1804 dazu ausgestaltet, in Reaktion auf den Empfang der Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Aktivierung eines ersten Medienpräsentations-Optionsobjekts der ersten Gruppe von Medienverwaltungsobjekten entspricht, eine Bereitstellung von Daten für die Anzeigeeinheit 1802 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806) zur Wiedergabe der ersten Episode unter Verwendung von von der ersten Medienquelle empfangenen Daten gemäß einer Medienpräsentationsoption, die dem ersten Medienpräsentations-Optionsobjekt entspricht, zu initiieren.
  • In einigen Ausführungsformen weist die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm ein integriertes Medienquellobjekt auf, das sich von den mehreren Medienquellobjekten unterscheidet, die den mehreren Medienquellen für das erste Medienprogramm zugeordnet sind; und die Verarbeitungseinheit 1804 ist dazu ausgestaltet, in Reaktion auf den Empfang der Benutzereingabe gemäß der Bestimmung, dass die Benutzereingabe einer Anforderung zum Auswählen des integrierten Medienquellobjekts entspricht, der Anzeigeeinheit 1802 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806) Daten zur Aktualisierung der Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereitzustellen. Die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm umfasst: (a) die mehreren Medienquellobjekte; (b) ein oder mehrere Episodenobjekte, die einer oder mehreren Episoden für das aus den mehreren Medienquellen verfügbare erste Medienprogramm entsprechen; und (c) eine zweite Gruppe von einem oder mehreren Medienverwaltungsobjekten, die mehreren Medienquellen entsprechen, die dem integrierten Medienquellobjekt zugeordnet sind, und ein ausgewähltes Episodenobjekt von dem einen oder den mehreren Episodenobjekten, die der einen oder den mehreren Episoden für das aus den mehreren Medienquellen verfügbare erste Medienprogramm entsprechen. In einigen Ausführungsformen unterscheidet sich die zweite Gruppe von Medienverwaltungsobjekten von der ersten Gruppe von Medienverwaltungsobjekten; und das integrierte Medienquellobjekt ist visuell von den mehreren Medienquellobjekten unterschieden, um die Auswahl des integrierten Medienquellobjekts anzugeben.
  • In einigen Ausführungsformen weist die zweite Gruppe von einem oder mehreren Medienverwaltungsobjekten ein Wiedergabeobjekt auf, das bei Aktivierung die Bereitstellung von Daten für die Anzeigeeinheit 1802 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806) zur Wiedergabe der ersten Episode unter Verwendung von Daten, die von einer von den mehreren dem integrierten Medienquellobjekt zugeordneten Medienquellen empfangen wurden, initiiert.
  • In einigen Ausführungsformen umfasst die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm Kosteninformationen für entsprechende Episodenobjekte, die den jeweiligen kostenfrei verfügbaren Episoden entsprechen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit dazu ausgestaltet, in Reaktion auf den Empfang einer Benutzereingabe gemäß einer Bestimmung, dass die Benutzereingabe einer Anforderung zur Auswahl eines zweiten Medienquellobjekts entspricht, das sich vom ersten Medienquelleobjekt der mehreren Medienquellobjekte unterscheidet, der Anzeigeeinheit 1802 (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806) Daten zur Aktualisierung der Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereitzustellen. Die aktualisierte Medieninformations-Benutzerschnittstelle für das erste Medienprogramm umfasst: (a) die mehreren Medienquellobjekte, in denen das zweite Medienquellobjekt zur Angabe der Auswahl des zweiten Medienquellobjekts visuell unterschieden ist, wobei das zweite Medienquellobjekt einer zweiten Medienquelle entspricht, die sich von der ersten Medienquelle unterscheidet; und (b) eine dritte Gruppe von Medienverwaltungsobjekten, die der ersten Episode und der zweiten Medienquelle entsprechen, wobei die dritte Gruppe von Medienverwaltungsobjekten sich von der ersten Gruppe von Medienverwaltungsobjekten unterscheidet.
  • In einigen Ausführungsformen umfasst die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm ein Staffelauswahlobjekt, das eine erste ausgewählte Staffel für das erste Medienprogramm angibt. In einigen Ausführungsformen entsprechen ein oder mehrere Episodenobjekte in der Medieninformations-Benutzerschnittstelle einer oder mehreren Episoden für die erste ausgewählte Staffel des ersten Medienprogramms. In einigen Ausführungsformen initiiert das Staffelauswahlobjekt bei Aktivierung die Anzeige einer Liste von Staffeln des ersten Medienprogramms, die von der ersten Medienquelle verfügbar sind. In einigen Ausführungsformen ist die Verarbeitungseinheit 1804 dazu ausgestaltet: eine Auswahl einer zweiten ausgewählten Staffel in der Liste von Staffeln zu empfangen (z. B. mit der Eingabeempfangseinheit 1808 oder optional in Verbindung mit der entfernten Benutzereingabegeräteeinheit 1810), die sich von der ersten ausgewählten Staffel unterscheidet; und in Reaktion auf den Empfang der Auswahl der zweiten ausgewählten Staffel in der Liste von Staffeln, das Staffelauswahlobjekt zu aktualisieren, um die zweite ausgewählte Staffel anzugeben; und die Anzeige von der einen oder den mehreren Episodenobjekten in der Medieninformations-Benutzerschnittstelle zu ersetzen, die der einen oder den mehreren Episoden für die erste ausgewählte Staffel des ersten Medienprogramms entsprechen, durch die Anzeige von einem oder mehreren Episodenobjekten, die einer oder mehreren Episoden der zweiten ausgewählten Staffel des ersten Medienprogramms entsprechen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1804 dazu ausgestaltet: während die Anzeigeeinheit 1802 eine Medieninhalts-Browser-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medienprogramms zu empfangen (z. B. mit der Eingabeempfangseinheit 1808 und optional in Verbindung mit der entfernten Benutzereingabegeräteeinheit 1810); in Reaktion auf den Empfang der Auswahl des ersten Medienprogramms, während die Anzeigeeinheit 1802 die Medieninhalts-Browser-Benutzerstelle anzeigt, der Anzeigeeinheit 1802 Daten zum Ersetzen der Anzeige der Medieninhalts-Browser-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806); während die Anzeigeeinheit 1802 eine Such-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medienprogramms zu empfangen (z. B. mit der Eingabeempfangseinheit 1808 und optional in Verbindung mit einer entfernten Benutzereingabegeräteeinheit 1810); in Reaktion auf den Empfang der Auswahl des ersten Medienprogramms, während die Anzeigeeinheit 1802 die Such-Benutzerschnittstelle anzeigt, der Anzeigeeinheit 1802 Daten zum Ersetzen der Anzeige der Such-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806); während die Anzeigeeinheit 1802 eine Medieninhalts-Store-Benutzerschnittstelle anzeigt, eine Auswahl des ersten Medienprogramms zu empfangen (z. B. mit der Eingabeempfangseinheit 1808 und optional in Verbindung mit der entfernten Benutzereingabegeräteeinheit 1810); und in Reaktion auf den Empfang der Auswahl des ersten Medienprogramms, während die Anzeigeeinheit 1802 die Medieninhalts-Store-Benutzerschnittstelle anzeigt, der Anzeigeeinheit 1802 Daten zum Ersetzen der Anzeige der Medieninhalts-Store-Benutzerschnittstelle durch die Medieninformations-Benutzerschnittstelle für das erste Medienprogramm bereitzustellen (z. B. mit der Anzeigedaten-Bereitstellungseinheit 1806).
  • Wie in 19 dargestellt, steht das elektronische Gerät 1900 in Kommunikation mit der Anzeigeeinheit 1902. Die Anzeigeeinheit 1902 ist dazu ausgestaltet, Video-Wiedergabeinformationen anzuzeigen. Das elektronische Gerät 1900 umfasst die Verarbeitungseinheit 1904 in Kommunikation mit der Anzeigeeinheit 1902. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 1904: eine Videoinformations-Bereitstellungseinheit 1909, eine Eingabeempfangseinheit 1908, eine Wiedergabe-Navigationsmodus-Übergangseinheit 1910, eine Datenbereitstellungseinheit 1912, eine Anzeigebeendigungseinheit 1914 und eine Wiedergabeeinheit 1919.
  • Die Verarbeitungseinheit 1904 ist dazu ausgestaltet, während das Gerät in einem ersten Wiedergabe-Navigationsmodus arbeitet: der Anzeigeeinheit 1902 erste Videoinformationen zur Anzeige bereitzustellen (z. B. mit der Videoinformations-Bereitstellungseinheit 1906), wobei die ersten Videoinformationen Informationen umfassen, die einem oder mehreren Frames eines Videos entsprechen, eine Scrubber-Leiste, die eine Zeitleiste des Videos darstellt, einen ersten Wiedergabekopf, der die aktuelle Wiedergabeposition in der Scrubber-Leiste angibt, und mehrere Wiedergabe-Positionsmarkierungen, die sich vom ersten Wiedergabekopf unterscheiden, die bestimmte Wiedergabepositionen im Video angeben; und eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung von einem Benutzer zum Wechsel in einen zweiten Wiedergabe-Navigationsmodus entspricht; in Reaktion auf den Empfang der Eingabe, die der Anforderung vom Benutzer zum Wechsel in den zweiten Wiedergabe-Navigationsmodus entspricht, vom Betrieb im ersten Wiedergabe-Navigationsmodus zum Betrieb im zweiten Wiedergabe-Navigationsmodus überzugehen (z. B. mit der Wiedergabe-Navigationsmodus-Übergangseinheit 1910); und während das Gerät im zweiten Wiedergabe-Navigationsmodus arbeitet: der Anzeigeeinheit 1902 zweite Videoinformationen zur Anzeige bereitzustellen (z. B. mit der Videoinformations-Bereitstellungseinheit 1906), wobei die zweiten Videoinformationen Informationen umfassen, die einem oder mehreren Frames des Videos, der Scrubber-Zeitleiste und dem ersten Wiedergabekopf entsprechen; und die Bereitstellung von Informationen, die den mehreren Wiedergabe-Positionsmarkierungen entsprechen, die die bestimmten Wiedergabepositionen im Video angeben, zu beenden (z. B. mit der Videoinformations-Bereitstellungseinheit 1906).
  • In einigen Ausführungsformen weisen die zweiten Videoinformationen Informationen auf, die einem zweiten Wiedergabekopf entsprechen, der eine erste Navigationsposition in der Scrubber-Leiste angibt.
  • In einigen Ausführungsformen weisen die zweiten Videoinformationen Text auf, der die erste Navigationsposition in der Scrubber-Leiste angibt.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während des Betriebs im zweiten Wiedergabe-Navigationsmodus: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht, der Anzeigeeinheit 1902 Daten zum fortlaufenden Vorsetzen des zweiten Wiedergabekopfs in einer Vorwärtsrichtung in der Scrubber-Leiste bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1912); und während des Betriebs im ersten Wiedergabe-Navigationsmodus: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs nach vorne entspricht, der Anzeigeeinheit 1902 Daten zum Springen des zweiten Wiedergabekopfs in der Vorwärtsrichtung an eine nächste Wiedergabe-Positionsmarkierung in der Scrubber-Leiste bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1912).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während des Betriebs im zweiten Wiedergabe-Navigationsmodus: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zum Bewegen des zweiten Wiedergabekopfs zurück entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs zurück entspricht, der Anzeigeeinheit 1902 Daten zum fortlaufenden Bewegen des zweiten Wiedergabekopfs in einer Rückwärtsrichtung in der Scrubber-Leiste bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1912); und während des Betriebs im ersten Wiedergabe-Navigationsmodus: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zum Bewegen des zweiten Wiedergabekopfs zurück entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Bewegen des zweiten Wiedergabekopfs in die Rückwärtsrichtung entspricht, der Anzeigeeinheit 1902 Daten zum Springen des zweiten Wiedergabekopfs in der Rückwärtsrichtung an eine vorherige Wiedergabe-Positionsmarkierung in der Scrubber-Leiste bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1912):
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während das Gerät entweder im ersten Wiedergabe-Navigationsmodus oder im zweiten Wiedergabe-Navigationsmodus arbeitet, und die Anzeigeeinheit 1902 die Scrubber-Leiste, den ersten Wiedergabekopf, der die aktuelle Wiedergabeposition in der Scrubber-Leiste angibt, den zweiten Wiedergabekopf, der die erste Navigationsposition in der Scrubber-Leiste angibt, und ein Vorschaufenster neben dem zweiten Wiedergabekopf anzeigt: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zur Wiederaufnahme der Wiedergabe des Videos an der aktuellen Wiedergabeposition in der Scrubber-Leiste entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zur Wiederaufnahme der Wiedergabe des Videos an der aktuellen Wiedergabeposition in der Scrubber-Leiste bespricht, der Anzeigeeinheit 1902 dritte Videoinformationen bereitzustellen (z. B. mit der Videoinformations-Bereitstellungseinheit 1906), die einer Animation des Vorschaufensters entsprechen, das an eine Position an oder neben der aktuellen Wiedergabeposition bewegt wird, und nachdem sich das Vorschaufenster an die Position an oder neben der aktuellen Wiedergabeposition bewegt hat, die Anzeige des Vorschaufensters zu beenden (z. B. mit der Anzeigebeendigungseinheit 1914) und die Wiedergabe (z. B. mit der Wiedergabeeinheit 1916) des Videos an einem Punkt im Video wiederaufzunehmen, der der aktuellen Wiedergabeposition in der Scrubber-Leiste entspricht.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während das Gerät entweder im ersten Wiedergabe-Navigationsmodus oder im zweiten Wiedergabe-Navigationsmodus arbeitet, und die Anzeigeeinheit 1902 die Scrubber-Leiste, den ersten Wiedergabekopf, der die aktuelle Wiedergabeposition in der Scrubber-Leiste angibt, und den zweiten Wiedergabekopf, der die erste Navigationsposition in der Scrubber-Leiste angibt, anzeigt: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zur Wiedergabe des Videos an der ersten Navigationsposition in der Scrubber-Leiste entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zur Wiedergabe des Videos an der ersten Navigationsposition in der Scrubber-Leiste entspricht, die Wiedergabe (z. B. mit der Wiedergabeeinheit 1916) des Videos an einem Punkt im Video wieder aufzunehmen, der der ersten Navigationsposition in der Scrubber-Leiste entspricht.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während des Betriebs im zweiten Wiedergabe-Navigationsmodus eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung des Benutzers zum Wechsel in den ersten Wiedergabe-Navigationsmodus entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Wechseln in den ersten Wiedergabe-Navigationsmodus entspricht: vom Betrieb im zweiten Wiedergabe-Navigationsmodus in den Betrieb im ersten Wiedergabe-Navigationsmodus überzugehen (z. B. mit der Wiedergabe-Navigationsmodus-Übergangseinheit 1910); und der Anzeigeeinheit 1902 vierte Videoinformationen zur Anzeige bereitzustellen (z. B. mit der Videoinformations-Bereitstellungseinheit 1906), wobei die vierten Videoinformationen Informationen enthalten, die einem oder den mehreren Frames des Videos, der Scrubber Leiste, dem ersten Wiedergabekopf und den mehreren Wiedergabe-Positionsmarkierungen entsprechen, die sich vom ersten Wiedergabekopf unterscheiden, die bestimmte Wiedergabepositionen im Video angeben.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während des Betriebs im zweiten Wiedergabe-Navigationsmodus eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung des Benutzers zum Wechsel in einen Wiedergabemodus entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Wechseln in den ersten Wiedergabemodus entspricht: vom Betrieb im zweiten Navigationsmodus zum Betrieb in einem Wiedergabemodus überzugehen (z. B. mit der Wiedergabe-Navigationsmodus-Übergangseinheit 1910), in dem das Video auf der Anzeigeeinheit 1902 wiedergegeben und die Anzeige der Scrubber-Leiste, des ersten Wiedergabekopfs und des zweiten Wiedergabekopfs beendet wird.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während des Betriebs im Wiedergabemodus: eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zum Schnellvorlauf oder Rücklauf des Videos entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Schnellvorlauf oder Rücklauf des Videos entspricht, der Anzeigeeinheit 1902 Daten zum Überspringen des Videos um eine bestimmte Zeitspanne gemäß der Eingabe bereitzustellen (z. B. mit der Datenbereitstellungseinheit 1912).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: während des Betriebs im Wiedergabemodus eine Eingabe zu empfangen (z. B. mit der Eingabeempfangseinheit 1908), die einer Anforderung zum Wechsel in den zweiten Wiedergabe-Navigationsmodus entspricht; und in Reaktion auf den Empfang der Eingabe, die der Anforderung zum Wechseln in den zweiten Wiedergabe-Navigationsmodus entspricht, vom Wiedergabemodus in den zweiten Wiedergabe-Navigationsmodus überzugehen (z. B. mit der Wiedergabe-Navigationsmodus-Übergangseinheit 1910).
  • In einigen Ausführungsformen umfassen die zweiten Videoinformationen Informationen, die einem Vorschaufenster entsprechen, wobei das Vorschaufenster einen oder mehrere Frames des Videos enthält, der/die einer Navigationsposition des zweiten Wiedergabekopfs auf der Scrubber-Leiste entspricht/entsprechen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1904 dazu ausgestaltet: eine Eingabe, die einer Anforderung zur Anzeige des Vorschaufensters entspricht, zu empfangen (z. B. mit der Eingabeempfangseinheit 1908) und in Reaktion auf den Empfang der Eingabe, die einer Anforderung zur Anzeige des Vorschaufensters entspricht, der Anzeigeeinheit 1902 Informationen zur Anzeige bereitzustellen (z. B. mit der Videoinformations-Bereitstellungseinheit 1906), die dem Vorschaufenster entsprechen.
  • Die oben mit Bezugnahme auf 12A12E beschriebenen Operationen werden optional durch Komponenten implementiert, die in 1A1B oder 19 dargestellt werden. Zum Beispiel werden die Empfangsoperation 1209, die Übergangsoperation 1208 und die Bereitstellungsoperation 1210 optional durch den Ereignissortierer 170, das Ereigniserkennungsmodul 180 und den Event Handler 190 implementiert. Der Ereignismonitor 171 im Ereignissortierer 170 erfasst einen Kontakt auf einer berührungsempfindlichen Anzeige 112, und das Ereignis-Dispatcher-Modul 174 leitet die Ereignisinformationen an die Anwendung 136-1 weiter. Ein jeweiliges Ereigniserkennungsmodul 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Position auf der berührungsempfindlichen Oberfläche (oder ob das Gerät gedreht wird) einem bestimmten Ereignis oder untergeordneten Ereignis entspricht, wie einer Auswahl eines Objekts auf einer Benutzerschnittstelle oder der Rotation des Geräts von einer Ausrichtung in eine andere. Wenn ein jeweiliges bestimmtes Ereignis oder untergeordnetes Ereignis erfasst wird, aktiviert das Ereigniserkennungsmodul 180 einen Event Handler 190, der der Erfassung des Ereignisses oder des untergeordneten Ereignisses zugeordnet ist. Der Event Handler 190 nutzt optional den Daten-Updater 176 oder den Objekt-Updater 177 oder ruft ihn auf, um den internen Anwendungszustand 192 zu aktualisieren. In einigen Ausführungsformen greift der Event Handler 190 auf einen entsprechenden GUI-Updater 178 zu, um die von der Anwendung angezeigten Inhalte zu aktualisieren. Ebenso ist es für Fachleute einsichtig, wie andere Prozesse basierend auf den in 1A1B dargestellten Komponenten implementiert werden können.
  • Die obige Beschreibung wurde mit Bezugnahme auf spezielle Ausführungsformen zum Zwecke der Erläuterung beschrieben. Die der Veranschaulichung dienenden obigen Erörterungen sollen aber nicht als erschöpfend bzw. als Beschränkung der Erfindung auf die exakten offengelegten Formen angesehen werden. Angesichts der obigen Lehren sind viele Modifikationen und Variationen möglich. Die Ausführungsformen wurden gewählt und beschrieben, um die Prinzipien der Erfindung und deren praktischen Anwendungen bestmöglich zu erklären, um es dadurch anderen Fachleuten zu ermöglichen, die Erfindung und die verschiedenen beschriebenen Ausführungsformen davon mit verschiedenen für die bestimmte angedachte Verwendung geeigneten Modifikationen bestmöglich zu nutzen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11a [0055]
    • IEEE 802.11ac [0055]
    • IEEE 802.11ax [0055]
    • IEEE 802.11b [0055]
    • IEEE 802.11g [0055]
    • IEEE 802.11n [0055]

Claims (24)

  1. Elektronisches Gerät, das aufweist: einen oder mehrere Prozessoren; Speicher (Memory); und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und dazu ausgestaltet sind, von dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Anweisungen aufweisen zum: Bereitstellen von Daten für eine Anzeige in Kommunikation mit dem elektronischen Gerät zur Darstellung einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten, wobei: die mehreren Benutzerschnittstellenobjekte beinhalten: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeige befindet; und ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeige die Benutzerschnittstelle darstellt Empfangen einer ersten Eingabe; und in Reaktion auf den Empfang der ersten Eingabe Bereitstellen von Daten für die Anzeige zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeige zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt, und Bewegen des ersten Benutzerschnittstellenobjekts zurück an die erste Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  2. Elektronisches Gerät nach Anspruch 1, das Anweisungen enthält zum: nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus nicht erfüllt, Bereitstellen von Daten für die Anzeige zum: Beibehalten des aktuellen Fokus auf dem ersten Benutzerschnittstellenobjekt; und Bewegen des ersten Benutzerschnittstellenobjekts zurück an die erste Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  3. Elektronisches Gerät nach Anspruch 1, wobei ein Name des ersten Benutzerschnittstellenobjekts auf oder neben dem ersten Schnittstellenobjekt angezeigt wird, während sich der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt befindet und das elektronische Gerät Anweisungen umfasst zum: gemäß der Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeige zum: Beenden der Anzeige des Namens des ersten Benutzerschnittstellenobjekts; und Anzeigen eines Namens des zweiten Benutzerschnittstellenobjekts auf oder neben dem zweiten Benutzerschnittstellenobjekt, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt.
  4. Elektronisches Gerät nach Anspruch 1, wobei das erste Benutzerschnittstellenobjekt eine oder mehrere Reflexionen aufweist, und das elektronische Gerät Anweisungen enthält zum: gemäß der Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeige zum: Beenden der Anzeige der einen oder der mehreren Reflexionen des ersten Benutzerschnittstellenobjekts; und Anzeigen von einer oder mehreren Reflexionen des zweiten Benutzerschnittstellenobjekts.
  5. Elektronisches Gerät nach Anspruch 1, das Anweisungen enthält zum: während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt, Empfangen einer zweiten Eingabe; und in Reaktion auf den Empfang der zweiten Eingabe Bereitstellen von Daten für die Anzeige zum: Bewegen des zweiten Benutzerschnittstellenobjekts von einer zweiten Position in Richtung eines dritten Benutzerschnittstellenobjekts neben dem zweiten Benutzerschnittstellenobjekt und/oder Neigen des zweiten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung in Richtung des dritten Benutzerschnittstellenobjekts; und nach dem Bewegen des zweiten Benutzerschnittstellenobjekts von der zweiten Position in Richtung des dritten Benutzerschnittstellenobjekts und/oder dem Neigen des zweiten Benutzerschnittstellenobjekts in Richtung des dritten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die zweite Eingabe das Navigationskriterium zum zweiten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeige zum: Versetzen des aktuellen Fokus vom zweiten Benutzerschnittstellenobjekt auf das dritte Benutzerschnittstellenobjekt, und Bewegen des zweiten Benutzerschnittstellenobjekts zurück an die zweite Position und/oder Neigen des zweiten Benutzerschnittstellenobjekts zurück in Richtung der zweiten Ausrichtung.
  6. Elektronisches Gerät nach Anspruch 5, wobei das Navigationskriterium zum ersten aktuellen Fokus und das Navigationskriterium zum zweiten aktuellen Fokus sich unterscheiden.
  7. Elektronisches Gerät nach Anspruch 6, wobei die erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus horizontal in der Benutzerschnittstelle entspricht und die zweite Eingabe einer Anforderung zum Versetzen des aktuellen Fokus vertikal in der Benutzerschnittstelle entspricht.
  8. Elektronisches Gerät nach Anspruch 6, wobei die erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten des gleichen Typs entspricht und die zweite Eingabe einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten unterschiedlicher Typen entspricht.
  9. Elektronisches Gerät nach Anspruch 1, wobei das erste Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen enthält, die in einer Z-Anordnung von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind, und die Ebenen sich auf der Anzeige gemäß der Neigung des ersten Benutzerschnittstellenobjekts verschieben.
  10. Elektronisches Gerät nach Anspruch 9, wobei das Neigen des ersten Benutzerschnittstellenobjekts den Verzicht auf die Anzeige von einem oder mehreren Bereichen der zwei oder mehreren überlappenden Ebenen, die sich von der Hintergrundebene unterscheiden, die über eine Begrenzung der Hintergrundebene hinausgehen, umfasst.
  11. Elektronisches Gerät nach Anspruch 9, wobei eine projizierte Tiefe zwischen der Vordergrundebene und der Hintergrundebene unabhängig von einer Anzahl von zwischen der Vordergrundebene und der Hintergrundebene liegenden Ebenen ist.
  12. Elektronisches Gerät nach Anspruch 1, das Anweisungen enthält zum: in Reaktion auf das Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt Bereitstellen von Daten auf der Anzeige zum: Verringern der Größe des ersten Benutzerschnittstellenobjekts auf der Anzeige; und Vergrößern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige, wobei: das zweite Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen enthält, die in einer Z-Anordnung von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind; das Vergrößern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige das Vergrößern der Größen der jeweiligen Ebenen der zwei oder mehreren überlappenden Ebenen in jeweiligen Vergrößerungsverhältnissen aufweist; und ein Vergrößerungsverhältnis der Vordergrundebene höher ist als ein Vergrößerungsverhältnis der Hintergrundebene.
  13. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Anweisungen aufweisen, die bei Ausführung durch ein elektronisches Gerät mit einem oder mehreren Prozessoren und Speicher das elektronische Gerät dazu veranlassen: Daten für eine Anzeige in Kommunikation mit dem elektronischen Gerät zur Darstellung einer Benutzerschnittstelle mit mehreren Benutzerschnittstellenobjekten bereitzustellen, wobei: die mehreren Benutzerschnittstellenobjekte umfassen: ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt, das sich neben dem ersten Benutzerschnittstellenobjekt auf der Anzeige befindet; und ein aktueller Fokus auf dem ersten Benutzerschnittstellenobjekt der mehreren Benutzerschnittstellenobjekte liegt; während die Anzeige die Benutzerschnittstelle darstellt, eine erste Eingabe zu empfangen; und in Reaktion auf den Empfang der ersten Eingabe Daten für die Anzeige bereitzustellen zum: Bewegen des ersten Benutzerschnittstellenobjekts von einer ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder Neigen des ersten Benutzerschnittstellenobjekts von einer ersten Ausrichtung in Richtung des zweiten Benutzerschnittstellenobjekts; und nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Bereitstellen von Daten für die Anzeige zum: Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt, und Bewegen des ersten Benutzerschnittstellenobjekts zurück an die erste Position und/oder Neigen des ersten Benutzerschnittstellenobjekts zurück in Richtung der ersten Ausrichtung.
  14. Computerlesbares Speichermedium nach Anspruch 13, das Anweisungen aufweist, die bei Ausführung durch das elektronische Gerät das elektronische Gerät dazu veranlassen: nach dem Bewegen des ersten Benutzerschnittstellenobjekts von der ersten Position in Richtung des zweiten Benutzerschnittstellenobjekts und/oder dem Neigen des ersten Benutzerschnittstellenobjekts in Richtung des zweiten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus nicht erfüllt, Bereitstellen von Daten für die Anzeige, um: den aktuellen Fokus auf dem ersten Benutzerschnittstellenobjekt beizubehalten; und das erste Benutzerschnittstellenobjekt an die erste Position zurückzuversetzen und/oder das erste Benutzerschnittstellenobjekt in Richtung der ersten Ausrichtung zurückzuneigen.
  15. Computerlesbares Speichermedium nach Anspruch 13, wobei ein Name des ersten Benutzerschnittstellenobjekts auf oder neben dem ersten Schnittstellenobjekt angezeigt wird, während sich der aktuelle Fokus auf dem ersten Benutzerschnittstellenobjekt befindet, und das eine Programm oder die mehreren Programme Anweisungen enthalten, die bei Ausführung durch das elektronische Gerät das Gerät dazu veranlassen: gemäß der Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, der Anzeige Daten bereitzustellen, um: die Anzeige des Namens des ersten Benutzerschnittstellenobjekts zu beenden; und einen Namen des zweiten Benutzerschnittstellenobjekts auf oder neben dem zweiten Benutzerschnittstellenobjekt anzuzeigen, während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt.
  16. Computerlesbares Speichermedium nach Anspruch 13, wobei das erste Benutzerschnittstellenobjekt eine oder mehrere Reflexionen aufweist und das eine Programm oder die mehreren Programme Anweisungen aufweisen, die bei Ausführung durch das elektronische Gerät das elektronische Gerät dazu veranlassen: gemäß der Bestimmung, dass die erste Eingabe das Navigationskriterium zum ersten aktuellen Fokus erfüllt, Daten für die Anzeige bereitzustellen, um: die Anzeige der einen oder der mehreren Reflexionen des ersten Benutzerschnittstellenobjekts zu beenden; und eine oder mehrere Reflexionen des zweiten Benutzerschnittstellenobjekts anzuzeigen.
  17. Computerlesbares Speichermedium nach Anspruch 13, das Anweisungen aufweist, die bei Ausführung durch das elektronische Gerät das elektronische Gerät dazu veranlassen: während der aktuelle Fokus auf dem zweiten Benutzerschnittstellenobjekt liegt, eine zweite Eingabe zu empfangen; und in Reaktion auf den Empfang der zweiten Eingabe Daten für die Anzeige bereitzustellen zum: Bewegen des zweiten Benutzerschnittstellenobjekts von einer zweiten Position in Richtung eines dritten Benutzerschnittstellenobjekts neben dem zweiten Benutzerschnittstellenobjekt und/oder Neigen des zweiten Benutzerschnittstellenobjekts von einer zweiten Ausrichtung in Richtung des dritten Benutzerschnittstellenobjekts; und nach dem Bewegen des zweiten Benutzerschnittstellenobjekts von der zweiten Position in Richtung des dritten Benutzerschnittstellenobjekts und/oder dem Neigen des zweiten Benutzerschnittstellenobjekts in Richtung des dritten Benutzerschnittstellenobjekts: gemäß einer Bestimmung, dass die zweite Eingabe das Navigationskriterium zum zweiten aktuellen Fokus erfüllt, Daten für die Anzeige bereitzustellen zum: Versetzen des aktuellen Fokus vom zweiten Benutzerschnittstellenobjekt auf das dritte Benutzerschnittstellenobjekt, und Bewegen des zweiten Benutzerschnittstellenobjekts zurück an die zweite Position und/oder Neigen des zweiten Benutzerschnittstellenobjekts zurück in Richtung die zweite Ausrichtung.
  18. Computerlesbares Speichermedium nach Anspruch 17, wobei das Navigationskriterium zum ersten aktuellen Fokus und das Navigationskriterium zum zweiten aktuellen Fokus sich unterscheiden.
  19. Computerlesbares Speichermedium nach Anspruch 18, wobei die erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus horizontal in der Benutzerschnittstelle entspricht und die zweite Eingabe einer Anforderung zum Versetzen des aktuellen Fokus vertikal in der Benutzerschnittstelle entspricht.
  20. Computerlesbares Speichermedium nach Anspruch 18, wobei die erste Eingabe einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten des gleichen Typs entspricht und die zweite Eingabe einer Anforderung zum Versetzen des aktuellen Fokus zwischen Benutzerschnittstellenobjekten verschiedener Typen entspricht.
  21. Computerlesbares Speichermedium nach Anspruch 13, wobei das erste Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen enthält, die in einer Z-Anordnung von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind, und die Ebenen verschieben sich auf der Anzeige gemäß der Neigung des ersten Benutzerschnittstellenobjekts.
  22. Computerlesbares Speichermedium nach Anspruch 21, wobei das Neigen des ersten Benutzerschnittstellenobjekts das Verzichten auf die Anzeige von einem oder mehreren Gebieten der zwei oder mehreren überlappenden Ebenen, die sich von der Hintergrundebene unterscheiden, die über eine Begrenzung der Hintergrundebene hinausgehen, umfasst.
  23. Computerlesbares Speichermedium nach Anspruch 21, wobei eine projizierte Tiefe zwischen der Vordergrundebene und der Hintergrundebene unabhängig von einer Anzahl von dazwischenliegenden Ebenen zwischen der Vordergrundebene und der Hintergrundebene ist.
  24. Computerlesbares Speichermedium nach Anspruch 13, das Anweisungen aufweist, die bei Ausführung durch das elektronische Gerät das elektronische Gerät dazu veranlassen: in Reaktion auf das Versetzen des aktuellen Fokus vom ersten Benutzerschnittstellenobjekt auf das zweite Benutzerschnittstellenobjekt der Anzeige Daten bereitzustellen zum: Verringern der Größe des ersten Benutzerschnittstellenobjekts auf der Anzeige; und Vergrößern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige, wobei: das zweite Benutzerschnittstellenobjekt Grafiken in zwei oder mehreren überlappenden Ebenen enthält, die in einer Z-Anordnung von einer Vordergrundebene zu einer Hintergrundebene angeordnet sind; das Vergrößern der Größe des zweiten Benutzerschnittstellenobjekts auf der Anzeige das Vergrößern der Größen der jeweiligen Ebenen der zwei oder mehreren überlappenden Ebenen um entsprechende Vergrößerungsverhältnisse umfasst; und ein Vergrößerungsverhältnis der Vordergrundebene höher ist als ein Vergrößerungsverhältnis der Hintergrundebene.
DE202016003233.0U 2015-06-18 2016-05-20 Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt Active DE202016003233U1 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201562181698P 2015-06-18 2015-06-18
US62/181,698 2015-06-18
US201562215644P 2015-09-08 2015-09-08
US62/215,644 2015-09-08
US14/867,004 US9652125B2 (en) 2015-06-18 2015-09-27 Device, method, and graphical user interface for navigating media content
US14/867,004 2015-09-27

Publications (1)

Publication Number Publication Date
DE202016003233U1 true DE202016003233U1 (de) 2016-08-29

Family

ID=56109829

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112016000085.5T Active DE112016000085B4 (de) 2015-06-18 2016-05-20 Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
DE202016003233.0U Active DE202016003233U1 (de) 2015-06-18 2016-05-20 Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112016000085.5T Active DE112016000085B4 (de) 2015-06-18 2016-05-20 Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt

Country Status (9)

Country Link
US (7) US9652125B2 (de)
EP (4) EP3244413B1 (de)
JP (5) JP6310570B2 (de)
KR (7) KR102471681B1 (de)
CN (6) CN116909437A (de)
AU (3) AU2016100650B4 (de)
DE (2) DE112016000085B4 (de)
DK (2) DK179350B1 (de)
WO (1) WO2016204936A1 (de)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018081157A1 (en) * 2016-10-26 2018-05-03 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11057682B2 (en) 2019-03-24 2021-07-06 Apple Inc. User interfaces including selectable representations of content items
US11070889B2 (en) 2012-12-10 2021-07-20 Apple Inc. Channel bar user interface
US11194546B2 (en) 2012-12-31 2021-12-07 Apple Inc. Multi-user TV user interface
US11245967B2 (en) 2012-12-13 2022-02-08 Apple Inc. TV side bar user interface
US11290762B2 (en) 2012-11-27 2022-03-29 Apple Inc. Agnostic media delivery system
US11297392B2 (en) 2012-12-18 2022-04-05 Apple Inc. Devices and method for providing remote control hints on a display
US11461397B2 (en) 2014-06-24 2022-10-04 Apple Inc. Column interface for navigating in a user interface
US11467726B2 (en) 2019-03-24 2022-10-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US11520858B2 (en) 2016-06-12 2022-12-06 Apple Inc. Device-level authorization for viewing content
US11543938B2 (en) 2016-06-12 2023-01-03 Apple Inc. Identifying applications on which content is available
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11797606B2 (en) 2019-05-31 2023-10-24 Apple Inc. User interfaces for a podcast browsing and playback application
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
USD851663S1 (en) * 2013-04-05 2019-06-18 Thales Avionics, Inc. Display screen or portion thereof with graphical user interface
USD738394S1 (en) 2013-06-09 2015-09-08 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD741350S1 (en) 2013-06-10 2015-10-20 Apple Inc. Display screen or portion thereof with animated graphical user interface
CN104571786B (zh) * 2013-10-25 2018-09-14 富泰华工业(深圳)有限公司 具有动态拼图界面的电子装置及其控制方法与系统
US10789642B2 (en) 2014-05-30 2020-09-29 Apple Inc. Family accounts for an online content storage sharing service
KR101933201B1 (ko) 2014-06-24 2018-12-27 애플 인크. 입력 디바이스 및 사용자 인터페이스 상호작용
USD809562S1 (en) * 2014-12-22 2018-02-06 Adtile Technologies Inc. Display screen with motion-activated graphical user interface
US10088993B2 (en) * 2015-04-01 2018-10-02 Ebay Inc. User interface for controlling data navigation
WO2016172619A1 (en) 2015-04-23 2016-10-27 Apple Inc. Digital viewfinder user interface for multiple cameras
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
USD849027S1 (en) * 2015-08-03 2019-05-21 Google Llc Display screen with animated graphical user interface
USD848458S1 (en) * 2015-08-03 2019-05-14 Google Llc Display screen with animated graphical user interface
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
USD775649S1 (en) * 2015-09-08 2017-01-03 Apple Inc. Display screen or portion thereof with animated graphical user interface
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
USD789979S1 (en) * 2015-12-12 2017-06-20 Adp, Llc Display screen with graphical user interface
USD789980S1 (en) * 2015-12-12 2017-06-20 Adp, Llc. Display screen with graphical user interface
US10397632B2 (en) * 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
WO2017197188A2 (en) * 2016-05-11 2017-11-16 Aclipsa Mobile Video Solutions, Llc System and method for analyzing content usage events
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
KR102494584B1 (ko) * 2016-08-18 2023-02-02 삼성전자주식회사 디스플레이 장치 및 그 컨텐츠 디스플레이 방법
AU2017101431B4 (en) * 2016-10-26 2018-05-17 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
US10976913B2 (en) * 2017-10-12 2021-04-13 Disney Enterprises, Inc. Enabling undo on scrubber/seekbar UI widgets
USD849033S1 (en) * 2017-11-17 2019-05-21 Nnamudi Nam Mokwunye Computer display with graphical user interface
WO2019111515A1 (ja) * 2017-12-08 2019-06-13 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
DK201870347A1 (en) 2018-01-24 2019-10-08 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10540015B2 (en) * 2018-03-26 2020-01-21 Chian Chiu Li Presenting location related information and implementing a task based on gaze and voice detection
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11507619B2 (en) 2018-05-21 2022-11-22 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US10965985B2 (en) 2018-05-21 2021-03-30 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. SETUP PROCEDURES FOR AN ELECTRONIC DEVICE
USD877175S1 (en) 2018-06-04 2020-03-03 Apple Inc. Electronic device with graphical user interface
JP6865721B2 (ja) * 2018-07-27 2021-04-28 任天堂株式会社 プログラム、情報処理装置、情報処理方法、および、情報処理システム
US11526556B2 (en) * 2018-08-06 2022-12-13 Yahoo Assets Llc Presenting content of an application
CN109254706A (zh) * 2018-08-16 2019-01-22 青岛海信电器股份有限公司 一种应用程序图标的位置调整方法及显示终端
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
USD883319S1 (en) 2018-10-29 2020-05-05 Apple Inc. Electronic device with graphical user interface
KR102228788B1 (ko) * 2018-11-07 2021-03-16 주식회사 엘지유플러스 Iptv 서비스를 위한 수신 장치 및 이의 동작 방법
CN109618177B (zh) * 2018-12-26 2020-02-28 北京微播视界科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN109640188B (zh) * 2018-12-28 2020-02-07 北京微播视界科技有限公司 视频预览方法、装置、电子设备及计算机可读存储介质
US11526269B2 (en) * 2019-01-12 2022-12-13 Shanghai marine diesel engine research institute Video playing control method and apparatus, device, and storage medium
WO2020143795A1 (zh) 2019-01-12 2020-07-16 北京字节跳动网络技术有限公司 一种视频上展示信息的方法、装置、设备和存储介质
CN109618206B (zh) * 2019-01-24 2021-11-05 海信视像科技股份有限公司 呈现用户界面的方法和显示设备
USD925587S1 (en) 2019-02-08 2021-07-20 Wayne Fueling Systems Llc Display screen with animated graphical user interface
USD933699S1 (en) 2019-02-08 2021-10-19 Wayne Fueling Systems Llc Display screen with animated graphical user interface
WO2020171107A1 (ja) * 2019-02-19 2020-08-27 株式会社Nttドコモ 情報処理装置
US11314383B2 (en) * 2019-03-24 2022-04-26 Apple Inc. Stacked media elements with selective parallax effects
CN112887586B (zh) * 2019-05-06 2022-05-10 苹果公司 用于捕获和管理视觉媒体的用户界面
CN111901479B (zh) * 2019-05-06 2021-05-25 苹果公司 一种用于显示相机用户界面的方法、电子设备和非暂态计算机可读存储介质
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN111601138A (zh) * 2019-06-17 2020-08-28 北京比利信息技术有限公司 搜索信息的方法和装置
US11709557B1 (en) 2019-09-25 2023-07-25 Apple Inc. Multipurpose controller device
US10990828B2 (en) 2019-09-30 2021-04-27 LogMeln, Inc. Key frame extraction, recording, and navigation in collaborative video presentations
US11237716B2 (en) * 2019-10-14 2022-02-01 Sling TV L.L.C. Devices, systems and processes for facilitating user adaptive progressions through content
US11726752B2 (en) 2019-11-11 2023-08-15 Klarna Bank Ab Unsupervised location and extraction of option elements in a user interface
US11379092B2 (en) * 2019-11-11 2022-07-05 Klarna Bank Ab Dynamic location and extraction of a user interface element state in a user interface that is dependent on an event occurrence in a different user interface
US11442749B2 (en) 2019-11-11 2022-09-13 Klarna Bank Ab Location and extraction of item elements in a user interface
US11366645B2 (en) 2019-11-11 2022-06-21 Klarna Bank Ab Dynamic identification of user interface elements through unsupervised exploration
CN112256165B (zh) * 2019-12-13 2022-05-10 华为技术有限公司 一种应用图标的显示方法及电子设备
CN113119761B (zh) * 2019-12-31 2023-06-16 北京新能源汽车股份有限公司 一种动力电池充电速率调整方法及装置
US11386356B2 (en) 2020-01-15 2022-07-12 Klama Bank AB Method of training a learning system to classify interfaces
US11409546B2 (en) 2020-01-15 2022-08-09 Klarna Bank Ab Interface classification system
WO2021142999A1 (zh) * 2020-01-17 2021-07-22 青岛海信传媒网络技术有限公司 基于内容的语音播报方法及显示设备
US11393180B2 (en) * 2020-01-31 2022-07-19 Unity Technologies Sf Applying non-destructive edits to nested instances for efficient rendering
US10846106B1 (en) 2020-03-09 2020-11-24 Klarna Bank Ab Real-time interface classification in an application
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
CN111677406A (zh) * 2020-06-11 2020-09-18 中国银行股份有限公司 一种银行尾箱的监控方法及相关设备
US11287964B2 (en) * 2020-06-17 2022-03-29 Rovi Guides, Inc. Systems and methods for navigating content
US20230305680A1 (en) * 2020-08-13 2023-09-28 Huawei Technologies Co., Ltd. Method for invoking capability of another device, electronic device, and system
US10990361B1 (en) * 2020-09-11 2021-04-27 Microsoft Technology Licensing, Llc Customizable graphical user interface for data management
CN112153454B9 (zh) * 2020-09-25 2023-05-30 北京字跳网络技术有限公司 提供多媒体内容的方法、装置和设备
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112000893B (zh) * 2020-09-29 2024-04-12 北京百度网讯科技有限公司 常驻区域预测方法、装置、设备及存储介质
CN112423136B (zh) * 2020-10-15 2023-08-01 深圳Tcl新技术有限公司 视频的播放方法、系统、装置及计算机可读存储介质
KR102633219B1 (ko) * 2020-12-03 2024-02-02 경인전자 주식회사 인풋 디바이스
CN112667343B (zh) * 2021-01-07 2024-03-01 苏州沁游网络科技有限公司 一种界面调整方法、装置、设备及存储介质
US11809641B2 (en) 2021-02-05 2023-11-07 Nokia Technologies Oy Orientation of visual content rendered on a display of a mobile device
CN112835453B (zh) * 2021-03-04 2023-05-09 网易(杭州)网络有限公司 模拟人眼聚焦时界面效果的方法、设备和存储介质
CN113110736B (zh) * 2021-03-26 2023-08-18 联想(北京)有限公司 一种控制方法、装置、设备及计算机可读存储介质
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
CN113427888B (zh) * 2021-06-15 2022-06-17 清华大学 印章单元的设计方法、印章单元及印章
USD1013705S1 (en) * 2021-07-20 2024-02-06 Splunk Inc. Display screen or portion thereof having a graphical user interface with a time slider for a map
CN113900567B (zh) * 2021-10-08 2023-12-26 杭州当贝网络科技有限公司 封面交互展示的控制方法、封面交互展示装置及大屏终端
USD1024095S1 (en) * 2021-11-15 2024-04-23 Lemon Inc. Display screen or portion thereof with a graphical user interface
USD1024096S1 (en) * 2021-11-15 2024-04-23 Lemon Inc. Display screen or portion thereof with a graphical user interface
USD1029870S1 (en) * 2021-11-15 2024-06-04 Lemon Inc. Display screen or portion thereof with a graphical user interface
USD1029854S1 (en) * 2021-11-15 2024-06-04 Lemon Inc. Display screen or portion thereof with a graphical user interface
USD1029852S1 (en) * 2021-11-15 2024-06-04 Lemon Inc. Display screen or portion thereof with a graphical user interface
USD1029853S1 (en) * 2021-11-15 2024-06-04 Lemon Inc. Display screen or portion thereof with a graphical user interface
CN114138226B (zh) * 2021-11-30 2023-05-23 重庆长安汽车股份有限公司 一种车机音频混音方法、装置、控制器及汽车
USD1025130S1 (en) * 2022-05-05 2024-04-30 Capital One Services, Llc Display screen with graphical user interface for card communication
USD1025131S1 (en) * 2022-05-05 2024-04-30 Capital One Services, Llc Display screen with graphical user interface for card communication
USD1019691S1 (en) * 2022-05-13 2024-03-26 Travelshift ehf. Display screen with graphical user interface
CN115138588B (zh) * 2022-06-27 2024-03-15 重庆大学 一种高精度、高效的塑料瓶自动分拣集成系统与装置
US11886685B1 (en) 2022-10-20 2024-01-30 Stardock Corporation Desktop container peek interface

Family Cites Families (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367631A (en) 1992-04-14 1994-11-22 Apple Computer, Inc. Cursor control device with programmable preset cursor positions
US5374942A (en) 1993-02-05 1994-12-20 Gilligan; Federico G. Mouse and method for concurrent cursor position and scrolling control
US6160536A (en) 1995-03-27 2000-12-12 Forest; Donald K. Dwell time indication method and apparatus
US6903723B1 (en) 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
US5973694A (en) 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
US6005549A (en) 1995-07-24 1999-12-21 Forest; Donald K. User interface method and apparatus
US5999895A (en) 1995-07-24 1999-12-07 Forest; Donald K. Sound operated menu method and apparatus
US5687331A (en) 1995-08-03 1997-11-11 Microsoft Corporation Method and system for displaying an animated focus item
US5870079A (en) 1996-11-12 1999-02-09 Legaltech, Inc. Computer input device and controller therefor
JP3409834B2 (ja) * 1997-07-10 2003-05-26 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
JPH11352949A (ja) 1998-06-04 1999-12-24 Casio Comput Co Ltd 表示制御装置及び表示制御のプログラムを記録した媒体
US7992163B1 (en) 1999-06-11 2011-08-02 Jerding Dean F Video-on-demand navigational system
EP1111497A1 (de) 1999-12-24 2001-06-27 CANAL+ Société Anonyme Navigation
US7249326B2 (en) * 2000-04-06 2007-07-24 Microsoft Corporation Method and system for reducing notification area clutter
US20010030667A1 (en) * 2000-04-10 2001-10-18 Kelts Brett R. Interactive display interface for information objects
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US20020055986A1 (en) * 2000-11-08 2002-05-09 Lavaflow, Llp Method of downloadinga screen saver to a cellular telephone
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120934A1 (en) 2001-02-28 2002-08-29 Marc Abrahams Interactive television browsing and buying method
US20020128067A1 (en) 2001-03-09 2002-09-12 Victor Keith Blanco Method and apparatus for creating and playing soundtracks in a gaming system
US7650569B1 (en) * 2001-08-29 2010-01-19 Allen Paul G System and method for focused navigation within a user interface
US7299418B2 (en) * 2001-09-10 2007-11-20 International Business Machines Corporation Navigation method for visual presentations
US7068309B2 (en) 2001-10-09 2006-06-27 Microsoft Corp. Image exchange with image annotation
WO2003065190A2 (en) 2002-01-29 2003-08-07 Meta4Hand Inc. Computer pointer control
US20030169306A1 (en) * 2002-03-07 2003-09-11 Nokia Corporation Creating a screen saver from downloadable applications on mobile devices
US20030203731A1 (en) 2002-04-29 2003-10-30 Lavaflow, Llp Cellular telephone and method of displaying account information
JP2004038896A (ja) 2002-06-28 2004-02-05 Clarion Co Ltd 表示制御手段
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US20040041849A1 (en) 2002-08-30 2004-03-04 Von Mock Display screen saver with two way messaging capability and method therefor
JP2004197339A (ja) 2002-12-16 2004-07-15 Inax Corp タイル施工面及びタイルの施工方法
US20040197339A1 (en) * 2003-01-29 2004-10-07 Brown Paul R. Vaccine for Lyme disease
US7571393B2 (en) 2003-04-15 2009-08-04 Microsoft Corporation Method for navigation between elements on a page of content in a handheld device
JP4269155B2 (ja) 2003-06-25 2009-05-27 日本電気株式会社 ポインティングデバイス制御システムおよび電子機器
JP4500528B2 (ja) * 2003-10-22 2010-07-14 クラリオン株式会社 電子機器
US7167162B2 (en) 2003-12-12 2007-01-23 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus and method for controlling a screen pointer
US20050204138A1 (en) 2004-03-12 2005-09-15 Taiwan Semiconductor Manufacturing Co., Ltd. System and method for an email screen saver
KR101017737B1 (ko) * 2004-03-12 2011-02-28 엘지전자 주식회사 영상표시기기의 부화면(pip) 처리장치 및 방법
US7301528B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
US20050212760A1 (en) 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7434173B2 (en) 2004-08-30 2008-10-07 Microsoft Corporation Scrolling web pages using direct interaction
US7386806B2 (en) 2005-01-05 2008-06-10 Hillcrest Laboratories, Inc. Scaling and layout methods and systems for handling one-to-many objects
US8289158B2 (en) * 2005-04-14 2012-10-16 Research In Motion Limited System and method for customizing notifications in a mobile electronic device
JP4533791B2 (ja) 2005-04-19 2010-09-01 株式会社日立製作所 情報閲覧装置
US20090144153A1 (en) 2005-04-27 2009-06-04 Kondrk Roberth H Techniques for acquiring a set of digital media assets
US7797641B2 (en) * 2005-05-27 2010-09-14 Nokia Corporation Mobile communications terminal and method therefore
US20070055947A1 (en) 2005-09-02 2007-03-08 Microsoft Corporation Animations and transitions
JP4817779B2 (ja) 2005-09-14 2011-11-16 ソニー株式会社 電子機器、電子機器の表示制御方法、グラフィカル・ユーザ・インターフェースおよび表示制御プログラム
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US7966577B2 (en) * 2005-10-11 2011-06-21 Apple Inc. Multimedia control center
CN1956516B (zh) 2005-10-28 2010-05-26 深圳Tcl新技术有限公司 通过图片结合语音显示电视功能界面的方法
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20070192734A1 (en) * 2006-02-16 2007-08-16 Viktors Berstis Methods and arrangements to control pop-up windows
JP2007257336A (ja) * 2006-03-23 2007-10-04 Sony Corp 情報処理装置、情報処理方法及びそのプログラム
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US9565387B2 (en) 2006-09-11 2017-02-07 Apple Inc. Perspective scale video with navigation menu
US20080104537A1 (en) 2006-10-30 2008-05-01 Sherryl Lee Lorraine Scott Method of improved viewing of visual objects on a display, and handheld electronic device
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US9270963B2 (en) 2007-01-03 2016-02-23 Tivo Inc. Program shortcuts
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US20080229206A1 (en) 2007-03-14 2008-09-18 Apple Inc. Audibly announcing user interface elements
US20090013254A1 (en) 2007-06-14 2009-01-08 Georgia Tech Research Corporation Methods and Systems for Auditory Display of Menu Items
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US10225389B2 (en) 2007-06-29 2019-03-05 Nokia Technologies Oy Communication channel indicators
WO2009028160A1 (ja) 2007-08-24 2009-03-05 Panasonic Corporation 受信装置および受信方法
US20110138319A1 (en) * 2007-11-08 2011-06-09 David Sidman Apparatuses, Methods and Systems for Hierarchical Multidimensional Information Interfaces
US20090121903A1 (en) 2007-11-12 2009-05-14 Microsoft Corporation User interface with physics engine for natural gestural control
JP4882989B2 (ja) * 2007-12-10 2012-02-22 ソニー株式会社 電子機器、再生方法及びプログラム
US20090158222A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Interactive and dynamic screen saver for use in a media system
US8365235B2 (en) * 2007-12-18 2013-01-29 Netflix, Inc. Trick play of streaming media
US9170649B2 (en) 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US8230360B2 (en) * 2008-01-04 2012-07-24 Apple Inc. User interface for selection from media collection
US8612888B2 (en) * 2008-04-01 2013-12-17 Litl, Llc Method and apparatus for managing digital media content
US7552396B1 (en) 2008-04-04 2009-06-23 International Business Machines Corporation Associating screen position with audio location to detect changes to the performance of an application
US8339403B2 (en) * 2008-04-16 2012-12-25 Microsoft Corporation Multi-layered slide transitions
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8249423B2 (en) 2008-05-08 2012-08-21 Sony Ericsson Mobile Communications Ab Electronic devices and methods that insert addressable chapter marks relative to advertising content in video streams
US8595232B1 (en) 2008-05-16 2013-11-26 Houman Azarm System and method of linking media content information
JP5658144B2 (ja) * 2008-05-28 2015-01-21 グーグル・インコーポレーテッド 視覚ナビゲーション方法、システム、およびコンピュータ可読記録媒体
TWI374382B (en) * 2008-09-01 2012-10-11 Htc Corp Icon operation method and icon operation module
US20100064222A1 (en) * 2008-09-08 2010-03-11 Apple Inc. Object-aware transitions
US8176438B2 (en) 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
EP2175359A3 (de) * 2008-10-08 2011-07-06 Research In Motion Limited Elektronische Vorrichtung mit statusbewusstem Berührungsbildschirm
KR101503835B1 (ko) 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
JP5166371B2 (ja) * 2008-10-31 2013-03-21 株式会社ソニー・コンピュータエンタテインメント 端末装置、画像表示方法、およびプログラム
US8645871B2 (en) * 2008-11-21 2014-02-04 Microsoft Corporation Tiltable user interface
US20100138357A1 (en) * 2008-12-03 2010-06-03 Morgan Stanley (A Delaware Corporation) Trading system
US10158823B2 (en) 2008-12-31 2018-12-18 Tivo Solutions Inc. Methods and techniques for adaptive search
US8266690B2 (en) 2009-01-23 2012-09-11 Sony Corporation Temporally synchronized video display unit screensaver or wallpaper based on user preferences
US8482520B2 (en) 2009-01-30 2013-07-09 Research In Motion Limited Method for tap detection and for interacting with and a handheld electronic device, and a handheld electronic device configured therefor
JP2010186281A (ja) * 2009-02-12 2010-08-26 Funai Electric Co Ltd 情報表示装置および情報表示システム
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8181120B2 (en) 2009-04-02 2012-05-15 Sony Corporation TV widget animation
US8429530B2 (en) * 2009-06-11 2013-04-23 Apple Inc. User interface for media playback
US9009622B2 (en) * 2009-06-30 2015-04-14 Verizon Patent And Licensing Inc. Media content instance search methods and systems
KR101595386B1 (ko) * 2009-07-31 2016-02-18 엘지전자 주식회사 출력 장치 및 그 방법
US8244600B2 (en) 2009-09-08 2012-08-14 Apple Inc. Presentation of information or representations pertaining to digital products available for digital distribution
US10357714B2 (en) * 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US20110148774A1 (en) 2009-12-23 2011-06-23 Nokia Corporation Handling Tactile Inputs
KR101661973B1 (ko) * 2010-01-05 2016-10-04 엘지전자 주식회사 영상표시장치
US8473860B2 (en) 2010-02-12 2013-06-25 Microsoft Corporation Multi-layer user interface with flexible parallel and orthogonal movement
US8793731B2 (en) * 2010-02-19 2014-07-29 Thomson Licensing Enhanced content search
US9317837B2 (en) 2010-03-17 2016-04-19 Intellectual Ventures Fund 83 Llc Dynamic graphic indicator for connected tasks
US20110289455A1 (en) 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
JP2011243070A (ja) 2010-05-19 2011-12-01 Sony Corp 情報処理システムおよび情報処理装置
KR101673925B1 (ko) * 2010-05-26 2016-11-09 삼성전자주식회사 터치 락 상태를 가지는 단말기 및 이의 운용 방법
NL2004780C2 (nl) 2010-05-28 2012-01-23 Activevideo Networks B V Visueel element werkwijze en systeem.
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US9009594B2 (en) 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
DE112010005736B4 (de) 2010-07-13 2020-03-26 Lg Electronics Inc. Mobiles Endgerät und Konfigurationsverfahren für einen Ruhebildschirm desselben
KR20120010433A (ko) 2010-07-26 2012-02-03 엘지전자 주식회사 영상표시기기의 동작 방법
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US20120038571A1 (en) * 2010-08-11 2012-02-16 Marco Susani System and Method for Dynamically Resizing an Active Screen of a Handheld Device
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8826134B2 (en) 2010-09-10 2014-09-02 Sony Computer Entertainment America Llc Pivot command for playlist
US9602849B2 (en) 2010-09-17 2017-03-21 Futurewei Technologies, Inc. Method and apparatus for scrub preview services
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
JP5742187B2 (ja) * 2010-11-26 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8963847B2 (en) 2010-12-06 2015-02-24 Netflix, Inc. User interface for a remote control device
US20120221971A1 (en) * 2011-02-28 2012-08-30 Sony Network Entertainment Inc. User interface for presenting graphical elements
CN110337039A (zh) 2011-03-08 2019-10-15 TiVo解决方案有限公司 多个源媒体和目的媒体的发现和管理平台
US10372191B2 (en) * 2011-05-12 2019-08-06 Apple Inc. Presence sensing
JP2013009299A (ja) * 2011-05-25 2013-01-10 Panasonic Corp 画像編集装置、及び画像編集方法
KR101789225B1 (ko) * 2011-06-23 2017-11-20 삼성전자주식회사 디바이스 및 그 신호 처리 방법
US20120331506A1 (en) 2011-06-24 2012-12-27 Sony Network Entertainment International Llc User interface and content integration
JP6050352B2 (ja) 2011-08-05 2016-12-21 トムソン ライセンシングThomson Licensing ビデオ・ピーキング(peeking)
US20130055119A1 (en) 2011-08-23 2013-02-28 Anh Luong Device, Method, and Graphical User Interface for Variable Speed Navigation
US9933935B2 (en) * 2011-08-26 2018-04-03 Apple Inc. Device, method, and graphical user interface for editing videos
JP2013054470A (ja) * 2011-09-01 2013-03-21 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US9965151B2 (en) 2011-09-09 2018-05-08 Cloudon Ltd. Systems and methods for graphical user interface interaction with cloud-based applications
JP5527304B2 (ja) 2011-10-17 2014-06-18 株式会社デンソー 入力装置
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
US20130147721A1 (en) * 2011-12-12 2013-06-13 Benjamin McGeever Device for Operating Touch Screen Devices in a Protective Housing
KR20130093721A (ko) 2011-12-23 2013-08-23 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
US20130179796A1 (en) * 2012-01-10 2013-07-11 Fanhattan Llc System and method for navigating a user interface using a touch-enabled input device
JP5641001B2 (ja) 2012-02-20 2014-12-17 株式会社デンソー 表示制御装置および表示システム
CN104145237B (zh) 2012-02-24 2017-10-13 皇家飞利浦有限公司 用于处理指针移动的系统和方法
US9965158B2 (en) * 2012-03-14 2018-05-08 Nokia Technologies Oy Touch screen hover input handling
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
JP5367191B2 (ja) * 2012-04-17 2013-12-11 シャープ株式会社 メニュー表示装置、メニュー表示方法、メニュー表示プログラム、メニュー表示装置を備えたテレビジョン受像機、及び、記録媒体
CN103390124B (zh) * 2012-05-08 2017-12-15 阿姆有限公司 安全输入和处理口令的设备、系统和方法
AU2013259630B2 (en) * 2012-05-09 2016-07-07 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to gesture
KR101864620B1 (ko) 2012-05-09 2018-06-07 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
DE112013002381T5 (de) * 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9454303B2 (en) 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
GB2503654B (en) * 2012-06-27 2015-10-28 Samsung Electronics Co Ltd A method and apparatus for outputting graphics to a display
US20140002581A1 (en) 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player
US9268424B2 (en) 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
EP2690879B1 (de) 2012-07-23 2016-09-07 LG Electronics, Inc. Mobiles Endgerät und Verfahren zu dessen Steuerung
US20140047393A1 (en) * 2012-08-07 2014-02-13 Samsung Electronics Co., Ltd. Method and portable apparatus with a gui
US20140053113A1 (en) 2012-08-15 2014-02-20 Prss Holding BV Processing user input pertaining to content movement
US9304595B2 (en) 2012-10-19 2016-04-05 Google Inc. Gesture-keyboard decoding using gesture path deviation
TWI467467B (zh) 2012-10-29 2015-01-01 Pixart Imaging Inc 畫面物件移動控制方法及裝置
KR102042461B1 (ko) 2012-10-31 2019-11-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR101990036B1 (ko) 2012-10-31 2019-06-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US8997021B2 (en) * 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
KR20140063272A (ko) 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
KR101436585B1 (ko) 2012-12-26 2014-10-30 전자부품연구원 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR101984592B1 (ko) * 2013-01-04 2019-05-31 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
KR20140105691A (ko) * 2013-02-23 2014-09-02 삼성전자주식회사 터치스크린을 구비하는 사용자 기기의 오브젝트 조작 방법 및 그 장치
US9292202B2 (en) 2013-02-28 2016-03-22 Sony Corporation Client device, operating method, and recording medium
US8879888B2 (en) 2013-03-12 2014-11-04 Fuji Xerox Co., Ltd. Video clip selection via interaction with a hierarchic video segmentation
US9383890B2 (en) * 2013-03-14 2016-07-05 General Electric Company Semantic zoom of graphical visualizations in industrial HMI systems
WO2014143633A1 (en) 2013-03-15 2014-09-18 Apple Inc. Device, method, and graphical user interface for orientation-based parallax dispaly
KR20140115761A (ko) * 2013-03-22 2014-10-01 삼성전자주식회사 스크린 락 제어 방법 및 이를 지원하는 전자 장치
US9417791B2 (en) * 2013-03-29 2016-08-16 Deere & Company Active feedback interface for touch screen display
US20140292706A1 (en) 2013-04-01 2014-10-02 Lenovo (Singapore) Pte. Ltd. Non-visual touch input targeting
US9250773B2 (en) 2013-04-30 2016-02-02 International Business Machines Corporation Accessible chart navigation using object neighborhood
GB2516820A (en) 2013-07-01 2015-02-11 Nokia Corp An apparatus
CN104375755B (zh) * 2013-08-14 2018-03-27 联想(北京)有限公司 信息处理方法和信息处理设备
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
CN103455237A (zh) 2013-08-21 2013-12-18 中兴通讯股份有限公司 菜单处理方法及装置
US9521459B2 (en) 2013-08-22 2016-12-13 aioTV, Inc. Method and system for delivering video content from multiple platforms to subscribers
US20150058796A1 (en) 2013-08-23 2015-02-26 General Electric Company Navigation control for a tabletop computer system
US9311545B2 (en) * 2013-09-18 2016-04-12 Blackberry Limited Multicolor biometric scanning user interface
KR20150049900A (ko) * 2013-10-31 2015-05-08 엘지전자 주식회사 제어 장치 및 그 동작 방법
JP2015127872A (ja) 2013-12-27 2015-07-09 ソニー株式会社 制御装置、制御方法、及び、プログラム
JP2015127870A (ja) 2013-12-27 2015-07-09 ソニー株式会社 制御装置、制御方法、プログラム、及び、電子機器
US9509753B2 (en) 2014-01-08 2016-11-29 Samsung Electronics Co., Ltd. Mobile apparatus and method for controlling thereof, and touch device
US8943036B1 (en) 2014-01-09 2015-01-27 Funded Ventures LLC Search controls using sliders and lightboxes
GB201408258D0 (en) * 2014-05-09 2014-06-25 British Sky Broadcasting Ltd Television display and remote control
US10042537B2 (en) 2014-05-30 2018-08-07 Apple Inc. Video frame loupe
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
US20150358685A1 (en) 2014-06-05 2015-12-10 Eric Adjesson System to Enhance Television Viewing by Merging Television and the Internet
EP3105669B1 (de) 2014-06-24 2021-05-26 Apple Inc. Anwendungsmenü für ein videosystem
US9338493B2 (en) * 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US20170205967A1 (en) * 2014-08-04 2017-07-20 Swirl Design (Pty) Ltd Display and interaction method in a user interface
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
USD791143S1 (en) * 2014-09-03 2017-07-04 Apple Inc. Display screen or portion thereof with graphical user interface
CN104618788B (zh) 2014-12-29 2018-08-07 北京奇艺世纪科技有限公司 一种显示视频信息的方法及装置
EP3048800B1 (de) * 2015-01-22 2020-09-23 Sky CP Limited Interaktive Fernsehanwendungen
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
CN104954848A (zh) 2015-05-12 2015-09-30 乐视致新电子科技(天津)有限公司 智能终端的显示图形用户界面的控制方法及装置
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US9898851B2 (en) * 2015-06-24 2018-02-20 Eyespage Inc. Icon animation based on detected activity
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11314846B1 (en) * 2016-09-29 2022-04-26 OR Link, Inc. Surgical communication and computerization infrastructure
WO2019094130A1 (en) * 2017-11-07 2019-05-16 Tandon Prem V Scrolling interface control for computer display
US11520482B2 (en) * 2021-02-22 2022-12-06 Salesforce.Com, Inc. Navigating displayed graphical user interface panels using assigned keyboard shortcut key(s)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11ac
IEEE 802.11ax
IEEE 802.11b
IEEE 802.11g
IEEE 802.11n

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11290762B2 (en) 2012-11-27 2022-03-29 Apple Inc. Agnostic media delivery system
US11070889B2 (en) 2012-12-10 2021-07-20 Apple Inc. Channel bar user interface
US11317161B2 (en) 2012-12-13 2022-04-26 Apple Inc. TV side bar user interface
US11245967B2 (en) 2012-12-13 2022-02-08 Apple Inc. TV side bar user interface
US11297392B2 (en) 2012-12-18 2022-04-05 Apple Inc. Devices and method for providing remote control hints on a display
US11822858B2 (en) 2012-12-31 2023-11-21 Apple Inc. Multi-user TV user interface
US11194546B2 (en) 2012-12-31 2021-12-07 Apple Inc. Multi-user TV user interface
US11461397B2 (en) 2014-06-24 2022-10-04 Apple Inc. Column interface for navigating in a user interface
US11520858B2 (en) 2016-06-12 2022-12-06 Apple Inc. Device-level authorization for viewing content
US11543938B2 (en) 2016-06-12 2023-01-03 Apple Inc. Identifying applications on which content is available
US11609678B2 (en) 2016-10-26 2023-03-21 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US10209866B2 (en) 2016-10-26 2019-02-19 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
WO2018081157A1 (en) * 2016-10-26 2018-05-03 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11750888B2 (en) 2019-03-24 2023-09-05 Apple Inc. User interfaces including selectable representations of content items
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11445263B2 (en) 2019-03-24 2022-09-13 Apple Inc. User interfaces including selectable representations of content items
US11467726B2 (en) 2019-03-24 2022-10-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11057682B2 (en) 2019-03-24 2021-07-06 Apple Inc. User interfaces including selectable representations of content items
US12008232B2 (en) 2019-03-24 2024-06-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US11797606B2 (en) 2019-05-31 2023-10-24 Apple Inc. User interfaces for a podcast browsing and playback application
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels

Also Published As

Publication number Publication date
KR102245736B1 (ko) 2021-04-28
KR102471681B1 (ko) 2022-11-29
AU2022291520B2 (en) 2024-01-25
US9639241B2 (en) 2017-05-02
AU2024202699A1 (en) 2024-05-16
DE112016000085B4 (de) 2021-02-11
JP2021166059A (ja) 2021-10-14
US10073591B2 (en) 2018-09-11
KR20220047396A (ko) 2022-04-15
US20160370976A1 (en) 2016-12-22
EP3127119A1 (de) 2017-02-08
AU2016100650B4 (en) 2016-11-10
DK201500590A1 (en) 2017-01-09
DK178983B1 (en) 2017-07-24
CN110554818B (zh) 2022-11-04
EP3127119B1 (de) 2019-07-24
AU2022291520A1 (en) 2023-02-02
CN110554818A (zh) 2019-12-10
KR102384310B1 (ko) 2022-04-08
KR20170135975A (ko) 2017-12-08
US20160370956A1 (en) 2016-12-22
CN106257392B (zh) 2019-09-17
US9652125B2 (en) 2017-05-16
JP6310570B2 (ja) 2018-04-11
EP3244413B1 (de) 2019-07-24
CN110543268B (zh) 2023-08-01
KR102139322B1 (ko) 2020-07-29
JP2023065400A (ja) 2023-05-12
WO2016204936A1 (en) 2016-12-22
JP2017534934A (ja) 2017-11-24
AU2016100650A4 (en) 2016-06-16
JP7223811B2 (ja) 2023-02-16
KR20200091955A (ko) 2020-07-31
US20180364877A1 (en) 2018-12-20
CN116909437A (zh) 2023-10-20
EP4365886A2 (de) 2024-05-08
DE112016000085T5 (de) 2017-08-10
EP3244413A1 (de) 2017-11-15
KR20220162867A (ko) 2022-12-08
DK201500591A1 (en) 2017-01-09
US11816303B2 (en) 2023-11-14
US10545635B2 (en) 2020-01-28
KR101975369B1 (ko) 2019-05-07
JP6538223B2 (ja) 2019-07-03
US10073592B2 (en) 2018-09-11
KR102551150B1 (ko) 2023-07-03
KR20180037076A (ko) 2018-04-10
CN116909436A (zh) 2023-10-20
KR20190049914A (ko) 2019-05-09
CN106257392A (zh) 2016-12-28
CN110543268A (zh) 2019-12-06
KR101847796B1 (ko) 2018-04-10
EP3547316A1 (de) 2019-10-02
US20160370957A1 (en) 2016-12-22
US20200150836A1 (en) 2020-05-14
US20160370982A1 (en) 2016-12-22
US10572109B2 (en) 2020-02-25
JP6898964B2 (ja) 2021-07-07
KR20210049185A (ko) 2021-05-04
JP2018152073A (ja) 2018-09-27
CN106257391A (zh) 2016-12-28
DK179350B1 (en) 2018-05-14
US20180364878A1 (en) 2018-12-20
JP2019179550A (ja) 2019-10-17
CN106257391B (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
DE112016000085B4 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE202016002906U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202015009347U1 (de) Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202016002908U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE202016003234U1 (de) Vorrichtung zum Einfangen von und Interagieren mit erweiterten digitalen Bildern
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE102015208532B4 (de) Verfahren, computerlesbares Speichermedium und elektronisches Gerät zum Anzeigen der Benutzung einer Anwendung auf einem externen Gerät
DE202016003250U1 (de) Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
AU2021200248B2 (en) Device, method and, graphical user interface for navigating media content
US20240045572A1 (en) Device, method, and graphical user interface for navigating media content
DE202014004477U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Verwalten von Ordnern mit mehreren Seiten

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years