DE202014004560U1 - Vorrichtung und grafische Benutzerschnittstelle zum Synchronisieren zweier oder mehrerer Anzeigen - Google Patents

Vorrichtung und grafische Benutzerschnittstelle zum Synchronisieren zweier oder mehrerer Anzeigen Download PDF

Info

Publication number
DE202014004560U1
DE202014004560U1 DE202014004560.7U DE202014004560U DE202014004560U1 DE 202014004560 U1 DE202014004560 U1 DE 202014004560U1 DE 202014004560 U DE202014004560 U DE 202014004560U DE 202014004560 U1 DE202014004560 U1 DE 202014004560U1
Authority
DE
Germany
Prior art keywords
display
input
user interface
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202014004560.7U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202014004560U1 publication Critical patent/DE202014004560U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724098Interfacing with an on-board device of a vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/38Universal adapter
    • G06F2213/3806Mobile device

Abstract

Nichtflüchtiges computerlesbares Speichermedium, welches eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfasst/umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: Anzeigen einer ersten Benutzerschnittstelle auf der ersten Anzeige, wobei: die erste Benutzerschnittstelle eine Auswahl aus einer Vielzahl von auswählbaren Objekten ermöglicht; die erste Benutzerschnittstelle einer zweiten Benutzerschnittstelle entspricht, die auf einer zweiten Anzeige angezeigt wird, die unterschiedlich ist von der ersten Anzeige; und ein erstes Objekt aus der Vielzahl von auswählbaren Objekten angezeigt wird als ein ausgewähltes Objekt in der zweiten Benutzerschnittstelle; während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt wird: Erkennen einer ersten Eingabe eines Benutzers, die einer Anfrage entspricht, Informationen über ein zweites Objekt der Vielzahl von auswählbaren Objekten in der ersten Benutzerschnittstelle anzuzeigen; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um jeweilige Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird; und nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, Erkennen einer zweiten Eingabe eines Benutzers, die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen; und in Antwort auf das Erkennen der zweiten Eingabe: Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Objekt als das ausgewählte Objekt anzuzeigen; und Bereitstellen an die zweite Anzeige von Informationen, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen.

Description

  • Querverweise auf verwandte Anmeldungen
  • Diese Anmeldung ist verwandt mit den folgenden Anmeldungen: vorläufige US-Anmeldung Seriennr. 61/793,924, eingereicht am 15. März 2013 mit dem Titel ”Voice and Touch User Interface” (Stimmen- und Berührungsbenutzerschnittstelle); US-Anmeldung Seriennr. 13/032,614, eingereicht am 22. Februar 2011 mit dem Titel ”Pushing a Graphical User Interface to a Remote Device with Display Rules Provided by the Remote Device” (Verschieben einer grafischen Benutzerschnittstelle zu einer entfernten Vorrichtung mit Anzeigeregeln, die von der entfernten Vorrichtung bereitgestellt werden); US-Anmeldung Seriennr. 12/683,218, eingereicht am 6. Januar 2010 mit dem Titel ”Pushing a User Interface to a Remote Device” (Verschieben einer Benutzerschnittstelle zu einer entfernten Vorrichtung); US-Anmeldung Seriennr. 12/119,960, eingereicht am 13. Mai 2008 mit dem Titel ”Pushing a User Interface to a Remote Device” (Verschieben einer Benutzerschnittstelle zu einer entfernten Vorrichtung); US-Anmeldung Seriennr. 13/175,581, eingereicht am 1. Juli 2011 mit dem Titel ”Pushing a User Interface to a Remote Device” (Verschieben einer Benutzerschnittstelle zu einer entfernten Vorrichtung); US-Anmeldung Seriennr. 13/161,339, eingereicht am 15. Juni 2011 mit dem Titel ”Pushing a Graphical User Interface to a Remote Device with Display Rules Provided by the Remote Device” (Verschieben einer grafischen Benutzerschnittstelle zu einer entfernten Vorrichtung mit Anzeigeregeln, die von der entfernten Vorrichtung bereitgestellt werden); US-Anmeldung Seriennr. 13/250,947, eingereicht am 30. September 2011 mit dem Titel ”Automatically Adapting User Interfaces for Hands-Free Interaktion” (Automatisches Anpassen von Benutzerschnittstellen für freihändige Interaktion); US-Anmeldung Seriennr. 12/987,982, eingereicht am 10. Januar 2011 mit dem Titel ”Intelligent Automated Assistant” (Intelligenter automatisierter Assistent); vorläufige US-Anmeldung Seriennr. 61/295,774, eingereicht am 18. Januar 2010 mit dem Titel ”Intelligent Automated Assistant” (Intelligenter automatisierter Assistent); vorläufige US-Anmeldung Seriennr. 61/493,201, eingereicht am 3. Juni 2011 mit dem Titel ”Generating and Processing Data Items that Represent Tasks to Perform” (Erzeugen und Verarbeiten von Datenelementen, die zu erledigende Aufgaben darstellen); vorläufige US-Anmeldung Seriennr. 61/657,744, eingereicht am 9. Juni 2012 mit dem Titel” Automatically Adapting User Interface for Hands-Free Interaction” (Automatisches Anpassen einer Benutzerschnittstelle für freihändige Interaktion); US-Anmeldung Seriennr. 12/207,316, eingereicht am 9. September 2008 mit dem Titel ”Radio with Personal DJ” (Radio mit einem persönlichen DJ); vorläufige US-Anmeldung Seriennr. 61/727,554, eingereicht am 16. November 2012 mit dem Titel ”System and Method for Negotiating Control of a Shared Audio or Visual Resource” (System und Verfahren zum Verhandeln über Steuerung einer geteilten Audio- oder visuellen Quelle); US-Anmeldung Seriennr. 61/832,818, eingereicht am 8. Juni 2013 mit dem Titel ”Mapping Application with Several User Interfaces” (Kartenanwendung mit verschiedenen Benutzerschnittstellen); vorläufige US-Anmeldung Seriennr. 61/832,841, eingereicht am 8. Juni 2013 mit dem Titel ”Device and Method for Generating User Interfaces from a Template” (Vorrichtung und Verfahren zum Erzeugen von Benutzerschnittstellen von einer Vorlage); US-Anmeldung Seriennr. 13/913,428, eingereicht am 8. Juni 2013 mit dem Titel ”Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts” (Anwendungs-Gateway zum Bereitstellen verschiedener Benutzerschnittstellen für beschränkte Ablenkungs- und nicht-beschränkte Ablenkungszusammenhänge), deren Anmeldungen hierin durch Verweis in ihrer Gesamtheit aufgenommen sind.
  • Technisches Gebiet
  • Dies bezieht sich allgemein auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, einschließlich aber nicht beschränkt auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, die zwei oder mehrere Anzeigen synchronisieren.
  • Hintergrund
  • Die Verwendung von berührungsempfindlichen Oberflächen als Eingabevorrichtungen für Computer und andere elektronische Rechenvorrichtungen hat in den letzten Jahren signifikant zugenommen. Beispielhafte berührungsempfindliche Oberflächen beinhalten Touchpads und Touchscreen-Anzeigen. Solche Oberflächen werden häufig verwendet, um Benutzerschnittstellen-Objekte auf einer ersten Anzeige, die mit der ersten elektronischen Vorrichtung verknüpft ist, zu beeinflussen.
  • Beispielhafte Beeinflussungen beinhalten Anpassen der Position und/oder der Größe eines oder mehrerer Benutzerschnittstellen-Objekte oder Aktivieren von Knöpfen oder Öffnen von Dateien/Anwendungen, die durch die Benutzerschnittstellen-Objekte dargestellt werden, oder anderweitiges Beeinflussen von Benutzerschnittstellen. Beispielhafte Benutzerschnittstellen-Objekte beinhalten digitale Bilder, Video, Text, Icons, Steuerelemente wie z. B. Knöpfe oder andere Grafiken.
  • Manchmal haben Benutzer Zugriff auf mehrere verschiedene Anzeigen, die fähig sind, unterschiedlichen Inhalt anzuzeigen. Zum Beispiel kann ein Passagier in einem Auto oder in einem anderen Fahrzeug Zugriff auf ein Smartphone und seine Anzeige haben sowie Zugriff auf ein Autoinformations-/Unterhaltungssystem und seine Anzeige(n). Aber wenn mehrere verschiedene Anzeigen verfügbar sind, sind Verfahren zum Anzeigen von Inhalt auf diesen unterschiedlichen Anzeigen mühselig und ineffizient. Zum Beispiel stellt das Anzeigen derselben Information auf den unterschiedlichen Anzeigen im Allgemeinen keine nützlichen zusätzlichen Informationen für den Benutzer bereit, während das Anzeigen nicht zusammenhängender Informationen auf unterschiedlichen Anzeigen für den Benutzer verwirrend und ineffizient sein kann und manchmal den Benutzer veranlasst, mehr Zeit damit zu verbringen, dass relevanter Inhalt auf beiden Vorrichtungen angezeigt bleibt. Zusätzlich dauern diese Verfahren länger als nötig, wodurch sie Energie vergeuden. Diese letztere Überlegung ist besonders wichtig bei batteriebetriebenen Vorrichtungen.
  • Zusammenfassung
  • Dementsprechend besteht ein Bedarf für elektronische Vorrichtungen mit effizienteren Verfahren und Schnittstellen zum Synchronisieren zweier oder mehrerer Anzeigen. Solche Verfahren und Schnittstellen ergänzen optional oder ersetzen konventionelle Verfahren zum Anzeigen von Informationen auf zwei oder mehreren Vorrichtungen. Solche Verfahren und Schnittstellen reduzieren die geistige Last eines Benutzers und produzieren eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Vorrichtungen sparen solche Verfahren und Schnittstellen Leistung und erhöhen die Zeit zwischen Batterieladevorgängen.
  • Zusätzlich sind in vielen Situationen Steuerungen für die Verwendung bei der Interaktion mit solchen Benutzerschnittstellen, die auf den Anzeigen angezeigt werden, oft feststehend mit einer einzigen Anzeige verknüpft. Dies beschränkt die Flexibilität der Steuerungen, was zu einer ineffizienten Benutzerschnittstelle führen kann. Dementsprechend besteht ein Bedarf für ein System, das nahtlos Steuerungen und andere Eingabequellen auf Benutzerschnittstellen, die auf unterschiedlichen Anzeigen angezeigt werden, auf eine flexible Art abbildet. Jedoch, wenn unterschiedliche Steuerungen auf unterschiedliche Anzeigen abgebildet werden, wäre es einfach fälschlicherweise eine Steuerung mit der falschen Anzeige zu verknüpfen. Weiterhin würde das Benötigen einer langen Zeit zum Bestimmen, welche Anzeige mit einer bestimmten Steuerung verknüpft ist, eine Verzögerung bei den Interaktionen des Benutzers mit der Benutzerschnittstelle einführen, was die Benutzererfahrung verschlechtern würde. Als solches besteht ein Bedarf für ein schnelles, genaues und effizientes System und ein Verfahren zum Abbilden von Steuerungen und anderen Eingabequellen auf unterschiedliche Anzeigen auf den zwei oder mehreren Anzeigen.
  • Die vorangegangenen Mängel und andere Probleme, die mit Benutzerschnittstellen für elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen verknüpft sind, werden reduziert oder beseitigt durch die offenbarten Vorrichtungen. In einigen Ausführungsformen ist die Vorrichtung ein Desktop Computer. In einigen Ausführungsformen ist die Vorrichtung tragbar (z. B. ein Notebook Computer, ein Tablet Computer oder eine handgehaltene Vorrichtung). In einigen Ausführungsformen hat die Vorrichtung ein Touchpad. In einigen Ausführungsformen hat die Vorrichtung eine berührungsempfindliche Anzeige (auch bekannt als ein ”Touchscreen” oder ”ein Touchscreen-Display”). In einigen Ausführungsformen hat die Vorrichtung eine grafische Benutzerschnittstelle (Graphical User Interface, GUI), einen oder mehrere Prozessoren, Speicher und eines oder mehrere Module, Programme oder Sätze von Befehlen, die in dem Speicher gespeichert sind, zum Ausführen mehrerer Funktionen. In einigen Ausführungsformen interagiert der Benutzer mit der GUI hauptsächlich durch Fingerkontakt und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen beinhalten die Funktionen optional Bildbearbeitung, Zeichnen, Darstellen, Textverarbeitung, Webseitenerstellen, Erstellen von Disks, Erstellen von Tabellenkalkulationen, Spielen von Spielen, Telefonieren, Führen von Videokonferenzen, Schreiben von Emails, Instant Messaging, Trainingsunterstützung, digitales Fotografieren, digitales Aufzeichnen von Videos, Web-Browsing, Abspielen digitaler Musik und/oder Abspielen digitaler Videos. Ausführbare Befehle zum Ausführen dieser Funktionen sind optional in einem nichtflüchtigen computerlesbaren Speichermedium oder einem anderen Computerprogrammprodukt beinhaltet, die eingerichtet sind zur Ausführung durch einen oder mehrere Prozessoren.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren bei einer ersten elektronischen Vorrichtung ausgeführt, die eine erste Anzeige beinhaltet. Das Verfahren beinhaltet: Anzeigen einer ersten Benutzerschnittstelle auf der ersten Anzeige, wobei: die erste Benutzerschnittstelle die Auswahl zwischen einer Vielzahl von auswählbaren Objekten ermöglicht; die erste Benutzerschnittstelle einer zweiten Benutzerschnittstelle entspricht, die auf einer zweiten Anzeige angezeigt wird, die unterschiedlich von der ersten Anzeige ist; und ein erstes Objekt aus der Vielzahl von auswählbaren Objekten als ein ausgewähltes Objekt auf der zweiten Benutzerschnittstelle angezeigt wird. Während das erste Objekt als das ausgewählte Objekt auf der zweiten Benutzerschnittstelle angezeigt wird, beinhaltet das Verfahren: Erkennen einer ersten Eingabe von einem Benutzer, die einer Anfrage entspricht, Informationen über ein zweites Objekt aus der Vielzahl von auswählbaren Objekten auf der zweiten Benutzerschnittstelle anzuzeigen; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um entsprechende Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt auf der zweiten Benutzerschnittstelle aufrecht erhalten wird; und nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, Erkennen einer zweiten Eingabe von einem Benutzer, die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen. In Übereinstimmung mit dem Erkennen der zweiten Eingabe beinhaltet das Verfahren weiterhin: Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Objekt als das ausgewählte Objekt anzuzeigen; und Bereitstellen von Informationen an die zweite Anzeige, die es ermöglichen, dass die zweite Benutzerschnittstelle auf der zweiten Anzeige aktualisiert wird, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine erste elektronische Vorrichtung eine erste Anzeigeeinheit, die eingerichtet ist, um eine erste Benutzerschnittstelle auf der ersten Anzeigeeinheit anzuzeigen, wobei: Die erste Benutzerschnittstelle die Auswahl aus einer Vielzahl von auswählbaren Objekten ermöglicht; wobei die erste Benutzerschnittstelle einer zweiten Benutzerschnittstelle entspricht, die auf einer zweiten Anzeigeeinheit, die unterschiedlich ist von der ersten Anzeigeeinheit, angezeigt wird; und ein erstes Objekt aus der Vielzahl von auswählbaren Objekten als ein ausgewähltes Objekt auf der zweiten Benutzerschnittstelle angezeigt wird. Die erste elektronische Vorrichtung beinhaltet ebenso eine Verarbeitungseinheit, die mit der ersten Anzeigeeinheit gekoppelt ist. Während das erste Objekt als das ausgewählte Objekt auf der zweiten Benutzerschnittstelle angezeigt wird, ist die Verarbeitungseinheit eingerichtet, um: Eine erste Eingabe von einem Benutzer zu erkennen, die einer Anfrage entspricht, um die Anzeige von Informationen über ein zweites Objekt aus der Vielzahl von auswählbaren Objekten auf der ersten Benutzerschnittstelle zu ermöglichen; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeigeeinheit in Übereinstimmung mit der ersten Eingabe, um die Anzeige von entsprechenden Informationen über das zweite Objekt zu ermöglichen, während die Anzeige des ersten Objekts als das ausgewählte Objekt auf der zweiten Benutzerschnittstelle aufrecht erhalten wird; und nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, Erkennen einer zweiten Eingabe von einem Benutzer, die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen. In Antwort auf das Erkennen der zweiten Eingabe, ist die Verarbeitungseinheit weiter eingerichtet, um: Die erste Benutzerschnittstelle auf der ersten Anzeigeeinheit zu aktualisieren in Übereinstimmung mit der zweiten Eingabe, um die Anzeige des zweiten Objekts als das ausgewählte Objekt zu ermöglichen; und an die zweite Anzeigeeinheit Informationen bereitzustellen, die es ermöglichen, dass die zweite Benutzerschnittstelle auf der zweiten Anzeige aktualisiert wird, um die Anzeige des zweiten Objekts als das ausgewählte Objekt anstelle des ersten Objekts zu ermöglichen.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren bei einer tragbaren elektronischen Vorrichtung ausgeführt, welche eine tragbare Vorrichtungsanzeige beinhaltet und welche in Kommunikation mit einer Fahrzeuganzeige eines Fahrzeugs ist. Das Verfahren beinhaltet: Erhalten eines Satzes von Kartensuchergebnissen, die eine Vielzahl von Kandidatenzielen beinhaltet; Anzeigen einer tragbaren Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeige, wobei die tragbare Vorrichtungsnavigationsschnittstelle die Auswahl von Zielen aus der Vielzahl von Kandidatenzielen ermöglicht; und Senden von Informationen an die Fahrzeuganzeige, die es ermöglichen, dass die Fahrzeuganzeige eine Fahrzeugnavigationsschnittstelle anzeigt, in der ein erstes Ziel aus der Vielzahl von Kandidatenzielen ein ausgewähltes Ziel auf der Fahrzeugnavigationsschnittstelle ist. Während das erste Ziel das ausgewählte Ziel auf der Fahrzeugnavigationsschnittstelle ist, beinhaltet das Verfahren: Erkennen einer ersten Eingabe von einem Benutzer, die einer Anfrage entspricht, Informationen über ein oder mehrere Kandidatenziele aus der Vielzahl von Kandidatenzielen anzuzeigen, die anders sind als das erste Ziel; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeige in Übereinstimmung mit der ersten Eingabe, ohne dass die Fahrzeugnavigationsschnittstelle auf der Fahrzeuganzeige aktualisiert wird; und nach dem Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle in Übereinstimmung mit der ersten Eingabe Erkennen einer zweiten Eingabe von einem Benutzer, die einer Anfrage entspricht, ein zweites Ziel aus der Vielzahl von Kandidatenzielen als das ausgewählte Ziel auszuwählen. In Antwort auf das Erkennen der zweiten Eingabe beinhaltet das Verfahren weiterhin: Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Ziel als das ausgewählte Ziel anzuzeigen, und Senden von Informationen an die Fahrzeuganzeige, die es der Fahrzeuganzeige ermöglichen, die Fahrzeugnavigationsschnittstelle in Übereinstimmung mit der zweiten Eingabe zu aktualisieren, um das zweite Ziel als das ausgewählte Ziel anzuzeigen.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine tragbare elektronische Vorrichtung eine tragbare Vorrichtungsanzeigeeinheit, die eingerichtet ist, eine tragbare Vorrichtungsnavigationsschnittstelle anzuzeigen, eine Kommunikationsschnittstelleneinheit, die eingerichtet ist, um mit einer Fahrzeuganzeigeeinheit eines Fahrzeugs zu kommunizieren, und eine Verarbeitungseinheit, die mit der tragbaren Vorrichtungsanzeigeeinheit und der Kommunikationsschnittstelleneinheit gekoppelt ist. Die Verarbeitungseinheit ist eingerichtet, um: Einen Satz von Kartensuchergebnissen zu erhalten, der eine Vielzahl von Kandidatenzielen beinhaltet; eine Anzeige der tragbaren Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeigeeinheit zu ermöglichen, wobei die tragbare Vorrichtungsnavigationsschnittstelle die Auswahl eines Ziels aus der Vielzahl von Kandidatenzielen ermöglicht; und Informationen an die Fahrzeuganzeigeeinheit zu senden, die es der Fahrzeuganzeigeeinheit ermöglichen, ein Anzeigen einer Fahrzeugnavigationsschnittstelle zu ermöglichen, wobei ein erstes Ziel der Vielzahl von Kandidatenzielen ein ausgewähltes Ziel auf der Fahrzeugnavigationsschnittstelle ist. Während das erste Ziel das ausgewählte Ziel auf der Fahrzeugnavigationsschnittstelle ist, ist die Verarbeitungseinheit auch eingerichtet, um: Eine erste Eingabe von einem Benutzer zu erkennen, die einer Anfrage entspricht, ein Anzeigen von Informationen über eines oder mehrere Kandidatenziele aus der Vielzahl von Kandidatenzielen zu ermöglichen, welche anders sind als das erste Ziel; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeigeeinheit in Übereinstimmung mit der ersten Eingabe, ohne dass die Fahrzeugnavigationsschnittstelle auf der Fahrzeuganzeigeeinheit aktualisiert wird; und nach dem Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle in Übereinstimmung mit der ersten Eingabe, Erkennen einer zweiten Eingabe von einem Benutzer, die einer Anfrage entspricht, ein zweites Ziel aus der Vielzahl von Kandidatenzielen als das ausgewählte Ziel auszuwählen. In Antwort auf das Erkennen der zweiten Eingabe ist die Verarbeitungseinheit weiterhin eingerichtet, um: Die tragbare Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeigeeinheit in Übereinstimmung mit der zweiten Eingabe zu aktualisieren, um ein Anzeigen des zweiten Ziels als das ausgewählte Ziel zu ermöglichen; und Informationen an die Fahrzeuganzeigeeinheit zu senden, die es der Fahrzeuganzeigeeinheit ermöglichen, die Fahrzeugnavigationsschnittstelle in Übereinstimmung mit der zweiten Eingabe zu aktualisieren, um ein Anzeigen des zweiten Ziels als das ausgewählte Ziel zu ermöglichen.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren bei einer elektronischen Vorrichtung ausgeführt, die sich in Kommunikation mit einer Vielzahl von Anzeigen befindet, die eine erste Anzeige und eine zweite Anzeige beinhaltet. Das Verfahren beinhaltet ein Empfangen einer ersten Eingabeinformation, die anzeigend ist für eine erste Eingabe, die von einer ersten Eingabequelle einer Vielzahl von Eingabequellen erkannt worden ist, wobei die erste Eingabeinformation beinhaltet: Einen ersten Identifikator für die erste Eingabequelle; und eine erste Eingabebeschreibung, die die erste Eingabe beschreibt. Das Verfahren beinhaltet ebenso ein Auswählen einer ersten betroffenen Anzeige aus der Vielzahl von Anzeigen auf der Grundlage des ersten Identifikators und einer Eingabequellenabbildung, die die Eingabequellen auf die entsprechenden Anzeigen abbildet. Das Verfahren beinhaltet weiterhin das Senden von Aktualisierungsinformationen an die erste betroffene Anzeige, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe aktualisiert zu werden.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Kommunikationsschnittstelleneinheit, die eingerichtet ist, um mit einer Vielzahl von Anzeigeeinheiten zu kommunizieren, die eine erste Anzeigeeinheit und eine zweite Anzeigeeinheit beinhaltet, und eine Verarbeitungseinheit, die mit der Kommunikationsschnittstelleneinheit gekoppelt ist. Die Verarbeitungseinheit ist eingerichtet, um eine erste Eingabeinformation zu empfangen, die anzeigend ist für eine erste Eingabe, die von einer ersten Eingabequelle einer Vielzahl von Eingabequellen erkannt worden ist, wobei die erste Eingabeinformation beinhaltet: Einen ersten Identifikator für die erste Eingabequelle; und eine erste Eingabebeschreibung, die die erste Eingabe beschreibt. Die Verarbeitungseinheit ist ebenso eingerichtet, um eine erste betroffene Anzeige aus der Vielzahl von Anzeigen auszuwählen, auf der Grundlage des ersten Identifikators und einer Eingabequellenabbildung, die Eingabequellen auf die entsprechenden Anzeigen abbildet. Die Verarbeitungseinheit ist weiterhin eingerichtet, um an die erste betroffene Anzeige Aktualisierungsinformationen zu senden, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe aktualisiert zu werden.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Kommunikationsschnittstelle zum Kommunizieren mit einer oder mehreren Anzeigen (z. B. eine erste Anzeige, ein zweite Anzeige, eine tragbare Vorrichtungsanzeige und/oder eine Fahrzeuganzeige), einen oder mehrere Prozessoren, Speicher und eines oder mehrere Programme; wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, um von dem einen oder den mehreren Prozessoren ausgeführt zu werden und wobei das eine oder die mehreren Programme Befehle beinhalten zum Ausführen der Handlungen von jedem der hierin beschriebenen Verfahren. In Übereinstimmung mit einigen Ausführungsformen sind auf einem nichtflüchtigen computerlesbaren Speichermedium Befehle gespeichert, welche, wenn sie von einer elektronischen Vorrichtung ausgeführt werden, die sich in Kommunikation mit einer oder mehreren Anzeigen befindet, die Vorrichtung veranlassen, die Handlungen von jedem der Verfahren auszuführen, die hierin beschrieben sind. In Übereinstimmung mit einigen Ausführungsformen, eine grafische Benutzerschnittstelle auf einer elektronischen Vorrichtung, die sich in Kommunikation mit einer oder mehreren Anzeigen befindet, ein Speicher und ein oder mehrere Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, einschließlich eines oder mehrere der Elemente, die in jedem der Verfahren, die zuvor beschrieben worden sind, angezeigt werden, welche in Antwort auf Eingaben aktualisiert werden, wie in jedem hierin beschriebenen Verfahren beschrieben. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung, die sich in Kommunikation mit einer oder mehreren Anzeigen befindet, Mittel zum Ausführen der Handlungen von jedem der hierin beschriebenen Verfahren. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung, die sich in Kommunikation mit einer oder mehreren Anzeigen befindet, Mittel zum Ausführen der Handlungen von jedem der hierin beschriebenen Verfahren.
  • Demzufolge werden elektronische Vorrichtungen mit Anzeigen mit effizienteren Verfahren und Schnittstellen zum Synchronisieren von zwei oder mehreren Anzeigen ausgestattet, wodurch die Effektivität, Effizienz und Benutzerzufriedenheit mit solchen Vorrichtungen erhöht wird. Solche Verfahren und Schnittstellen können konventionelle Verfahren zum Synchronisieren von zwei oder mehreren Anzeigen ergänzen oder ersetzen.
  • Kurze Beschreibung der Zeichnungen
  • Zum besseren Verständnis der verschiedenen beschriebenen Ausführungsformen sollte Bezug genommen werden auf die nachfolgende Beschreibung der Ausführungsformen in Verbindung mit den folgenden Zeichnungen, in welchen gleiche Bezugszeichen sich auf entsprechende Teile in den Figuren beziehen.
  • 1A ist ein Blockdiagramm, welches eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit einigen Ausführungsformen darstellt.
  • 1B ist ein Blockdiagramm, welches beispielhafte Komponenten für Ereignisbearbeitung in Übereinstimmung mit einigen Ausführungsformen darstellt.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung, die einen Touchscreen aufweist, in Übereinstimmung mit einigen Ausführungsformen.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer berührungsempfindlichen Oberfläche, die getrennt ist von der Anzeige in Übereinstimmung mit einigen Ausführungsformen.
  • 5A ist ein Blockdiagramm, welches eine Betriebsumgebung veranschaulicht, in welcher eine tragbare Multifunktionsvorrichtung mit einem externen Präsentationssystem und/oder -server kommuniziert in Übereinstimmung mit einigen Ausführungsformen.
  • 5B ist ein Flussdiagramm, welches ein Verfahren zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige veranschaulicht in Übereinstimmung mit einigen Ausführungsformen.
  • 6A bis 6V veranschaulichen beispielhafte Benutzerschnittstellen zum Synchronisieren zweier oder mehrerer Anzeigen in Übereinstimmung mit einigen Ausführungsformen.
  • 6W bis 6FF veranschaulichen beispielhafte Benutzerschnittstellen zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige in Übereinstimmung mit einigen Ausführungsformen.
  • 7A bis 7D sind Flussdiagramme, die ein Verfahren zum Synchronisieren zweier oder mehrerer Anzeigen in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • 8A bis 8B sind Flussdiagramme, die ein Verfahren zum Synchronisieren zweier oder mehrerer Anzeigen in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • 9A bis 9C sind Flussdiagramme, die ein Verfahren zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • 10 ist ein funktionales Blockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 11 ist ein funktionales Blockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 12 ist ein funktionales Blockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Beschreibung der Ausführungsformen
  • Viele elektronische Vorrichtungen aktualisieren eine grafische Benutzerschnittstelle auf einer Anzeige, die mit der elektronischen Vorrichtung verknüpft ist, in Antwort auf die Beeinflussung von Benutzerschnittstellen-Objekten, die auf der Anzeige angezeigt werden. Die erste elektronische Vorrichtung, die nachfolgend beschrieben wird, verbessert diese Verfahren durch Synchronisieren (in einigen Fällen) einer zweiten grafischen Benutzerschnittstelle auf einer zweiten Anzeige mit einer ersten grafischen Benutzerschnittstelle auf einer ersten Anzeige, die mit der ersten elektronischen Vorrichtung verknüpft ist. In einigen Ausführungsformen ist die zweite Anzeige mit einer zweiten elektronischen Vorrichtung verknüpft, die unterschiedlich ist von der ersten elektronischen Vorrichtung. In einigen Ausführungsformen synchronisiert die erste elektronische Vorrichtung die erste Anzeige und die zweite Anzeige in Antwort auf das Beeinflussen von Benutzerschnittstellen-Objekten auf einer ersten grafischen Benutzerschnittstelle (z. B. beeinflusst mit einer ersten berührungsempfindlichen Oberfläche oder einer ersten Touchscreen-Anzeige, die mit der ersten elektronischen Vorrichtung verknüpft ist). In einigen Ausführungsformen synchronisiert die erste elektronische Vorrichtung die erste Anzeige und die zweite Anzeige in Antwort auf die Beeinflussung von Benutzerschnittstellen-Objekten auf einer zweiten grafischen Benutzerschnittstelle (z. B. beeinflusst mit einer zweiten berührungsempfindlichen Oberfläche oder zweiten Touchscreen-Anzeige, die mit der zweiten elektronischen Vorrichtung verknüpft ist).
  • Nachfolgend stellen 1A bis 1B, 2 und 3 eine Beschreibung beispielhafter Vorrichtungen bereit. 4A bis 4B und 6A bis FF veranschaulichen beispielhafte Benutzerschnittstellen. 7A bis 7D und 8A bis 8B sind Flussdiagramme, die ein Verfahren zum Synchronisieren zweier oder mehrerer Anzeigen veranschaulichen. 9A bis 9C sind Flussdiagramme, die ein Verfahren zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige darstellen. Die Benutzerschnittstellen in 6A bis 6V werden verwendet, um die Prozesse in 7A bis 7D und 8A bis 8B zu veranschaulichen. Die Benutzerschnittstellen in 6B bis 6FF werden verwendet, um die Prozesse in 9A bis 9C zu veranschaulichen.
  • Beispielhafte Vorrichtungen
  • Es wird nun detailliert verwiesen auf Ausführungsformen, Beispiele, welche in den begleitenden Zeichnungen gezeigt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Jedoch ist es dem Fachmann klar, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Details angewendet werden können. In anderen Fällen sind wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben worden, um nicht unnötig die Aspekte der Ausführungsformen unklar zu machen.
  • Es ist ebenso klar, dass, obwohl die Ausdrücke erster, zweiter, usw. in einigen Fällen hierin verwendet sind zum Beschreiben verschiedener Elemente, diese Elemente durch diese Ausdrücke nicht beschränkt werden sollten. Diese Ausdrücke sind nur verwendet zum Unterscheiden eines Elements von einem anderen. Zum Beispiel könnte ein erster Kontakt ein zweiter Kontakt genannt werden, und in ähnlicher Weise könnte ein zweiter Kontakt ein erster Kontakt genannt werden, ohne von dem Geltungsbereich der verschiedenen beschriebenen Ausführungsformen abzuweichen. Der erste Kontakt und der zweite Kontakt sind beides Kontakte, aber sie sind nicht der gleiche Kontakt.
  • Die Terminologie, welche in der Beschreibung der verschiedenen beschriebenen Ausführungsformen hierin verwendet wird, dient nur dem Zwecke des Beschreibens spezieller Ausführungsformen und soll nicht beschränkend sein. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den angehängten Ansprüchen verwendet, sollen die Singularformen ”ein”, ”eine” und ”der”, ”die”, ”das” die Pluralformen auch umfassen, es sei denn der Zusammenhang zeigt klar das Gegenteil an. Es ist auch klar, dass der Ausdruck ”und/oder”, wie hierin verwendet, sich auf irgendwelche und alle möglichen Kombinationen von ein oder mehreren der assoziierten aufgelisteten Gegenstände bezieht und diese umfasst. Es ist weiter klar, dass die Ausdrücke ”umfassen”, ”umfassend”, ”aufweisen” und/oder ”aufweisend”, soweit in dieser Beschreibung verwendet, das Vorliegen der genannten Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht das Vorliegen oder Hinzufügen ein oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt.
  • Wie hierin verwendet, wird der Ausdruck ”wenn” optional ausgelegt als ”wenn” oder ”nach” oder ”in Antwort auf Bestimmen” oder ”in Antwort auf Detektieren” bedeutend, abhängig vom Zusammenhang. In ähnlicher Weise wird der Ausdruck ”wenn bestimmt wird” oder ”wenn [eine genannte Bedingung oder ein Ereignis] detektiert wird” optional ausgelegt als ”nach Bestimmen” oder ”in Antwort auf Bestimmen” oder ”nach Detektieren [der genannten Bedingung oder des Ereignisses]” oder ”in Antwort auf Detektieren [der genannten Bedingung oder des Ereignisses]” bedeutend, abhängig vom Zusammenhang.
  • Ausführungsformen der elektronischen Vorrichtungen, Benutzerschnittstellen für solche Vorrichtungen, und assoziierte Prozesse zum Verwenden solcher Vorrichtungen werden beschrieben. In einigen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie beispielsweise ein Mobiltelefon, welches auch andere Funktionen beinhaltet, wie beispielsweise PDA und/oder Musikplayer-Funktionen. Beispielhafte Ausführungsformen von tragbaren Multifunktionsvorrichtungen umfassen ohne Beschränkung das iPhone®, iPod Touch®, und iPad®-Vorrichtungen von Apple Inc. aus Cupertino, Kalifornien. Andere tragbare elektronische Vorrichtungen, wie beispielsweise Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Touchscreen-Anzeigen und/oder Touchpads) werden optional verwendet. Es ist auch klar, dass in einigen Ausführungsformen die Vorrichtung keine tragbare Kommunikationsvorrichtung ist, sondern ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche ist (z. B. eine Touchscreen-Anzeige und/oder ein Touchpad).
  • In der folgenden Diskussion wird eine elektronische Vorrichtung, welche eine Anzeige und eine berührungsempfindliche Oberfläche umfasst, beschrieben. Es ist jedoch klar, dass die elektronische Vorrichtung optional eine oder mehrere andere physische Benutzerschnittstellenvorrichtungen umfasst, wie beispielsweise eine physische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt typischerweise eine Vielzahl von Anwendungen, wie beispielsweise eine oder mehrere der Folgenden: Eine Zeichnungsanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Webseitenerzeugungsanwendung, eine Disk-Erstellungsanwendung, eine Tabellenanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine Emailanwendung, eine Instant-Messaging-Anwendung, eine Trainingsunterstützungsanwendung, eine Fotomanagementanwendung, eine Digitalkameraanwendung, eine Digitalvideokameraanwendung, eine Webbrowsing-Anwendung, eine Digitalmusikspieleranwendung, und/oder Digitalvideospieleranwendung.
  • Die verschiedenen Anwendungen, welche auf der Vorrichtung ausgeführt werden, verwenden optional zumindest eine gemeinsame physische Benutzerschnittstellenvorrichtung, wie beispielsweise die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie korrespondierende Informationen, welche auf der Vorrichtung angezeigt werden, werden optional angepasst und/oder variiert von einer Anwendung zur nächsten und/oder innerhalb einer jeweiligen Anwendung. Auf diese Weise unterstützt eine gemeinsame physische Architektur (wie beispielsweise die berührungsempfindliche Oberfläche) der Vorrichtung optional die Vielzahl von Anwendungen mit Benutzerschnittstellen, welche für den Benutzer intuitiv und transparent sind.
  • Nun wird verwiesen auf Ausführungsformen der tragbaren Vorrichtungen mit berührungsempfindlichen Anzeigen. 1A ist ein Blockdiagramm, welches eine tragbare Multifunktionsvorrichtung 100 mit berührungsempfindlichen Anzeigen 112 gemäß einigen Ausführungsformen zeigt. Die berührungsempfindliche Anzeige 112 wird manchmal der Einfachheit halber ”Touchscreen” genannt, und ist manchmal bekannt als oder genannt als ein berührungsempfindliches Anzeigesystem. Die Vorrichtung 100 umfasst einen Speicher 102 (welcher optional ein oder mehrere computerlesbare Speichermedien umfasst), Speichersteuereinheit 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, Schnittstelle 118 zu Peripheriegeräten, RF-Schaltung 108, Audioschaltung 110, Lautsprecher 111, Mikrofon 113, Eingabe/Ausgabe(I/O)-Subsystem 106, andere Eingabe- oder Steuervorrichtungen 116, und einen externen Anschluss 124. Die Vorrichtung 100 umfasst optional einen oder mehrere optische Sensoren 164. Die Vorrichtung 100 umfasst optional einen oder mehrere Intensitätssensoren 165 zum Detektieren der Intensität von Kontakten auf der Vorrichtung 100 (z. B. eine berührungsempfindliche Oberfläche, wie beispielsweise das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100). Die Vorrichtung 100 umfasst optional einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 100 (z. B. Erzeugen taktiler Ausgaben auf einer berührungsempfindlichen Oberfläche, wie beispielsweise dem berührungsempfindlichen Anzeigesystem 112 der Vorrichtung 100 oder dem Touchpad 355 der Vorrichtung 300). Diese Komponenten kommunizieren optional über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und in den Ansprüchen verwendet, bezieht sich der Ausdruck ”Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche auf die Kraft oder den Druck (Kraft pro Flächeneinheit) eines Kontakts (z. B. eines Fingerkontakts) auf der berührungsempfindlichen Oberfläche, oder auf einen Ersatz (Vertreter (Proxy)) für die Kraft oder den Druck eines Kontakts auf die berührungsempfindliche Oberfläche. Die Intensität eines Kontakts hat einen Wertebereich, welcher zumindest vier verschiedene Werte umfasst, und typischerweise hunderte von verschiedenen Werten umfasst (z. B. zumindest 256). Die Intensität eines Kontakts wird optional bestimmt (oder gemessen) unter Verwendung verschiedener Herangehensweisen und verschiedener Sensoren oder Kombinationen von Sensoren. Zum Beispiel werden einer oder mehrere Kraftsensoren unterhalb oder neben der berührungsempfindlichen Oberfläche optional verwendet zum Messen der Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche. In einigen Implementierungen werden Kraftmessungen aus mehreren Kraftsensoren kombiniert (z. B. ein gewichteter Durchschnitt) zum Bestimmen einer geschätzten Kraft eines Kontakts. In ähnlicher Weise wird eine drucksensitive Spitze eines Stifts optional verwendet zum Bestimmen eines Drucks des Stifts auf die berührungsempfindliche Oberfläche. Alternativ werden die Größe des Kontaktbereichs, welcher auf der berührungsempfindlichen Oberfläche detektiert wird und/oder Änderungen dieser, die Kapazität der berührungsempfindlichen Oberfläche in der Nähe des Kontakts und/oder Änderungen dieser, und/oder der Widerstand der berührungsempfindlichen Oberfläche nahe des Kontakts und/oder Änderungen von diesem, optional verwendet als ein Ersatz für die Kraft oder den Druck des Kontakts auf die berührungsempfindliche Oberfläche. In einigen Implementierungen werden die Ersatzmessungen für die Kontaktkraft oder den Druck direkt verwendet zum Bestimmen, ob eine Intensitätsschwelle überschritten worden ist (z. B. die Intensitätsschwelle wird in Einheiten korrespondierend mit den Ersatzmessungen beschrieben). In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder -druck konvertiert in eine geschätzte Kraft oder einen Druck, und die geschätzte Kraft oder der Druck wird verwendet zum Bestimmen, ob eine Intensitätsschwelle überschritten worden ist (z. B. die Intensitätsschwelle ist eine Druckschwelle, welche in Einheiten von Druck gemessen wird).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Ausdruck ”taktile Ausgabe” auf physische Verformung/Verschiebung einer Vorrichtung relativ zu einer vorherigen Position der Vorrichtung, physische Verformung/Verschiebung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) einer Vorrichtung relativ zu einer anderen Komponente (z. B. Gehäuse) der Vorrichtung, oder Verformung/Verschiebung der Komponente relativ zu einem Schwerpunkt der Vorrichtung, welcher durch einen Benutzer detektiert werden wird mit dem Berührungssinn des Benutzers. Zum Beispiel in Situationen, wo die Vorrichtung oder die Komponenten der Vorrichtung in Kontakt ist mit einer Oberfläche eines Benutzers, welche berührungsempfindlich ist (z. B. ein Finger, eine Handfläche oder ein anderer Teil der Hand eines Benutzers), wird die taktile Ausgabe, welche durch die physische Verformung/Verschiebung erzeugt wird, durch den Benutzer interpretiert werden als eine taktile Empfindung, welche mit einer wahrgenommenen Änderung der physischen Charakteristika der Vorrichtung oder der Komponenten der Vorrichtung korrespondiert. Zum Beispiel wird die Bewegung einer berührungsempfindlichen Oberfläche (z. B. einer berührungsempfindlichen Anzeige oder Trackpad) optional interpretiert durch den Benutzer als ein ”Down Click” oder ”Up Click” einer physischen Aktuatortaste. In einigen Fällen wird ein Benutzer eine taktile Empfindung fühlen, wie beispielsweise einen ”Down Click” oder ”UP Click”, selbst wenn es keine Bewegung einer physischen Aktuatortaste, welche mit der berührungsempfindlichen Oberfläche assoziiert ist, gibt, welche physisch durch die Bewegungen des Benutzers gedrückt (z. B. verformt/verschoben) wird. Als ein anderes Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche optional interpretiert oder erfasst durch den Benutzer als ”Rauigkeit” der berührungsempfindlichen Oberfläche, selbst wenn es keine Änderung der Glattheit der berührungsempfindlichen Oberfläche gibt. Während solche Interpretationen der Berührung durch einen Benutzer von den individualisierten Empfindungswahrnehmungen des Benutzers abhängen werden, gibt es viele Empfindungswahrnehmungen von Berührung, welche einer großen Vielzahl von Benutzern gemein sind. Somit korrespondiert, wenn eine taktile Ausgabe als korrespondierend mit einer speziellen Empfindungswahrnehmung eines Benutzers beschrieben wird (z. B. einem ”Up Click”, einem ”Down Click”, ”Rauigkeit”), sofern nicht anders genannt, die erzeugte taktile Ausgabe mit physischer Verformung/Verschiebung der Vorrichtung oder einer Komponente davon, welche die beschriebene Empfindungswahrnehmung für einen typischen (oder einen durchschnittlichen) Benutzer erzeugen wird.
  • Es ist klar, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung ist, und dass die Vorrichtung 100 optional mehr oder weniger Komponenten als gezeigt aufweist, optional zwei oder mehrere Komponenten kombiniert, oder optional eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweist. Die verschiedenen Komponenten, welche in 1A gezeigt sind, werden in Hardware, Software oder einer Kombination von sowohl Hardware als auch Software implementiert, einschließlich einem oder mehreren signalverarbeitungs- und/oder anwendungsspezifischen integrierten Schaltkreisen.
  • Der Speicher 102 umfasst optional Hochgeschwindigkeitsspeicher mit wahlfreiem Zugriff und optional umfasst er auch nichtflüchtigen Speicher, wie beispielsweise eine oder mehrere magnetische Festplattenspeichervorrichtungen, Flash-Speichervorrichtungen oder andere, nichtflüchtige Solid-State-Speichervorrichtungen. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie beispielsweise CPU 120 und Schnittstelle 118 zu Peripheriegeräten, wird optional gesteuert durch die Speichersteuereinheit 122.
  • Die Schnittstelle 118 zu Peripheriegeräten kann verwendet werden zum Koppeln der Eingabe- und Ausgabe-Peripheriegeräte der Vorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 führen verschiedene Softwareprogramme und/oder Sätze von Instruktionen, welche in dem Speicher 102 gespeichert sind, aus, um verschiedene Funktionen für die Vorrichtung 100 durchzuführen und Daten zu verarbeiten.
  • In einigen Ausführungsformen werden die Schnittstelle 118 zu Peripheriegeräten, die CPU 120 und die Speichersteuereinheit 122 optional implementiert auf einem einzelnen Chip, wie beispielsweise Chip 104. In einigen anderen Ausführungsformen sind sie optional implementiert auf getrennten Chips.
  • Die RF-(Funkfrequenz)-Schaltung 108 empfängt und sendet RF-Signale, auch elektromagnetische Signale genannt. Die RF-Schaltung 108 konvertiert elektrische Signale zu/aus elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über elektromagnetische Signale. Die RF-Schaltung 108 umfasst optional wohl bekannte Schaltungen zum Ausführen dieser Funktionen, einschließlich, aber nicht beschränkt auf ein Antennensystem, einen RF-Transceiver, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, ein CODEC-Chipset, eine Subscriber Identity Module(SIM)-Karte, Speicher usw. Die RF-Schaltung 108 kommuniziert optional mit Netzwerken, wie beispielsweise dem Internet, auch bezeichnet als World Wide Web (WWW), einem Intranet und/oder einem drahtlosen Netzwerk, wie beispielsweise einem zellularen Telefonnetzwerk, einem drahtlosen lokalen Bereichsnetzwerk (LAN) und/oder einem Metropolitan Area Network (MAN), und anderen Vorrichtungen durch drahtlose Kommunikation. Die drahtlose Kommunikation verwendet optional irgendeines einer Vielzahl von Kommunikationsstandards, Protokollen und Technologien, einschließlich, aber nicht beschränkt auf Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High-Speed Uplink Packet Access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), Long Term Evolution (LTE), Near Field Communication (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.11n), Voice over Internet Protocol (VoiP), Wi-MAX, ein Protokoll für Email (z. B. Internet Message Access Protocol (IMAP) und/oder Post Office Protocol (POP)), Instant Messaging (z. B. Extensible Messaging und Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), und/oder Short Message Service (SMS), oder irgendein anderes geeignetes Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, welche am Einreichungsdatums dieses Dokuments noch nicht entwickelt sind.
  • Die Audioschaltung 110, der Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Die Audioschaltung 110 empfängt Audiodaten von der Schnittstelle 118 zu Peripheriegeräten, konvertiert die Audiodaten zu einem elektrischen Signal und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 konvertiert das elektrische Signal zu für den Menschen hörbaren Schallwellen. Die Audioschaltung 110 empfängt auch elektrische Signale, welche durch das Mikrofon 113 aus den Schallwellen konvertiert werden. Die Audioschaltung 110 konvertiert das elektrische Signal zu Audiodaten und überträgt die Audiodaten an die Schnittstelle 118 zu Peripheriegeräten zur Verarbeitung. Die Audiodaten werden optional abgerufen aus und/oder übertragen an den Speicher 102 und/oder die RF-Schaltung 108 durch die Schnittstelle 118 zu Peripheriegeräten. In einigen Ausführungsformen umfasst die Audioschaltung 110 auch einen Kopfhöreranschluss (z. B. 212, 2). Der Kopfhöreranschluss stellt eine Schnittstelle zwischen der Audioschaltung 110 und den entfernbaren Audioeingabe/Ausgabe-Peripheriegeräten bereit, wie beispielsweise die Nur-Ausgabe-Kopfhörer oder ein Kopfhörer mit sowohl Ausgabe (z. B. ein Kopfhörer für ein oder beide Ohren) und Eingabe (z. B. ein Mikrofon).
  • Das I/O-Subsystem 106 koppelt Eingabe/Ausgabe-Peripheriegeräte auf der Vorrichtung 100, wie beispielsweise den Touchscreen 112 und andere Eingabesteuervorrichtungen 116, mit der Schnittstelle 118 zu Peripheriegeräten. Das I/O-Subsystem 106 umfasst optional eine Anzeigesteuereinheit 156, eine optische Sensorsteuereinheit 158, eine Intensitätssensorsteuereinheit 159, eine haptische Rückmeldungssteuereinheit 161 und eine oder mehrere Eingabesteuereinheiten 160 für andere Eingabeoder Steuervorrichtungen. Die eine oder mehreren Eingabesteuereinheiten 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabesteuervorrichtungen 116 umfassen optional physische Tasten (z. B. Drucktasten, Wipptasten, usw.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder, usw. In einigen alternativen Ausführungsformen werden die Eingabesteuereinheit(en) 116 optional gekoppelt mit irgendeinem (oder keinem) der folgenden: einer Tastatur, einem Infrarotanschluss, USB-Anschluss, und einer Zeigervorrichtung, wie beispielsweise einer Maus. Die ein oder mehreren Tasten (z. B. 208, 2) umfassen optional eine Nachoben/Nach-unten-Taste für die Lautstärkesteuerung des Lautsprechers 111 und/oder des Mikrofons 113. Die ein oder mehreren Tasten umfassen optional eine Drucktaste (z. B. 206, 2).
  • Der Touchscreen 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigesteuereinheit 156 empfängt und/oder sendet elektrische Signale von/an den Touchscreen 112. Der Touchscreen 112 zeigt visuelle Ausgabe an den Benutzer an. Die visuelle Ausgabe umfasst optional Grafiken, Text, Icons, Video und irgendeine Kombination davon (kollektiv „Grafiken” genannt). In einigen Ausführungsformen korrespondiert ein Teil oder alles der visuellen Ausgabe mit Benutzerschnittstellenobjekten.
  • Der Touchscreen 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder Satz von Sensoren, welche die Eingabe des Benutzers basierend auf haptischem und/oder taktilem Kontakt annimmt. Der Touchscreen 112 und die Anzeigesteuereinheit 156 (zusammen mit irgendwelchen assoziierten Modulen und/oder Sätzen von Instruktionen in dem Speicher 102) detektieren Kontakt (und irgendeine Bewegung oder Unterbrechung des Kontakts) auf dem Touchscreen 112 und konvertieren den detektierten Kontakt in Interaktion mit den Benutzerschnittstellenobjekten (z. B. einem oder mehreren Softkeys, Icons, Webseiten oder Bildern), welche auf dem Touchscreen 112 angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Punkt von Kontakt zwischen dem Touchscreen 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Touchscreen 112 verwendet optional LCD(Liquid Crystal Display)-Technologie, LPD(Light Emitting Polymer Display)-Technologie, oder LED(Light Emitting Diode)-Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden. Der Touchscreen 112 und die Anzeigesteuereinheit 156 detektieren optional Kontakt und irgendeine Bewegung oder Unterbrechung davon unter Verwendung irgendeiner von einer Vielzahl von Berührungserfassungstechnologien, welche jetzt bekannt sind oder später entwickelt werden, einschließlich, aber nicht beschränkt auf kapazitive, resistive, Infrarot- und akustischen Oberflächenwellentechnologien, ebenso wie andere Näherungssensor-Arrays, andere Elemente zum Bestimmen eines oder mehrerer Punkte von Kontaktpunkten mit dem Touchscreen 112. In einer beispielhaften Ausführungsform wird Projected Mutual Capacitance Sensing Technologie verwendet, wie beispielsweise jene, welche in dem iPhone®, iPod Touch®, und iPad® von Apple Inc. aus Cupertino, Kalifornien vorgefunden werden.
  • Der Touchscreen 112 hat optional eine Videoauflösung über 100 dpi. In einigen Ausführungsformen hat der Touchscreen eine Videoauflösung von ungefähr 160 dpi. Der Benutzer kontaktiert optional den Touchscreen 112 unter Verwendung irgendeines geeigneten Objekts oder Körpergliedes, wie beispielsweise eines Stifts, eines Fingers, usw. In einigen Ausführungsformen ist die Benutzerschnittstelle gestaltet, um primär mit fingerbasierten Kontakten und Gesten zu arbeiten, welche weniger genau sein können wie die stiftbasierte Eingabe aufgrund des größeren Kontaktbereichs eines Fingers auf dem Touchscreen. In einigen Ausführungsformen übersetzt die Vorrichtung die grobe fingerbasierte Eingabe in eine präzise Zeiger-/Cursorposition oder -befehl zum Ausführen der Aktionen, welche von dem Benutzer gewünscht sind.
  • In einigen Ausführungsformen, zusätzlich zu dem Touchscreen, umfasst die Vorrichtung 100 optional ein Touchpad (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen. In einigen Ausführungsformen ist das Touchpad ein berührungsempfindlicher Bereich der Vorrichtung, welcher, anders als der Touchscreen, visuelle Ausgabe nicht anzeigt. Das Touchpad ist optional eine berührungsempfindliche Oberfläche, welche von dem Touchscreen 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, welche durch den Touchscreen gebildet wird.
  • Die Vorrichtung 100 umfasst auch ein Leistungssystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung. Das Leistungssystem 162 umfasst optional ein Leistungsverwaltungssystem, eine oder mehrere Leistungsquellen (z. B. Batterie, Wechselstrom (AC)), ein Wiederaufladesystem, eine Leistungsausfalldetektionsschaltung, einen Leistungskonverter oder -inverter, einen Leistungsstatusindikator (z. B. eine lichtemittierende Diode (LED)) und irgendwelche anderen Komponenten, welche mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen assoziiert sind.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere optische Sensoren 164. 1A zeigt einen optischen Sensor, welcher mit der optischen Sensorsteuereinheit 158 in dem I/O-Subsystem 106 gekoppelt ist. Der optische Sensor 164 umfasst optional eine ladungsgekoppelte Vorrichtung (CCD) oder komplementäre Metalloxid-Halbleiter(CMOS)-Fototransistoren. Der optische Sensor 164 empfängt Licht aus der Umgebung, projiziert durch eine oder mehrere Linsen, und konvertiert das Licht in Daten, welche ein Bild repräsentieren. In Verbindung mit dem Bildmodul 143 (auch Kameramodul genannt) erfasst der optische Sensor 164 optional Standbilder oder Video. In einigen Ausführungsformen ist der optische Sensor angeordnet auf der Rückseite der Vorrichtung 100, gegenüberliegend dem Touchscreen 112 auf der Vorderseite der Vorrichtung, so dass der Touchscreen betriebsbereit ist zur Verwendung als ein Bildsucher für Stand- und/oder Videobilderfassung. In einigen Ausführungsformen ist ein anderer optischer Sensor angeordnet auf der Vorderseite der Vorrichtung, so dass das Bild des Benutzers optional erhalten wird für Videokonferenz, während der Benutzer die anderen Videokonferenzmitglieder auf dem Touchscreen betrachtet.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Kontaktintensitätssensoren 165. 1A zeigt einen Kontaktintensitätssensor, welcher mit der Intensitätssensorsteuereinheit 159 in dem I/O-Subsystem 106 gekoppelt ist. Der Kontaktintensitätssensor 165 umfasst optional einen oder mehrere piezoresistive Dehnungsmessstreifen, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen, oder andere Intensitätssensoren (z. B. Sensoren, welche zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet werden). Der Kontaktintensitätssensor 165 empfängt Kontaktintensitätsinformation (z. B. Druckinformation oder eine Vertretung für Druckinformation) aus der Umgebung. In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor zusammen angeordnet mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. das berührungsempfindliche Anzeigesystem 112). In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüberliegend des Touchscreens 112, welcher auf der Vorderseite der Vorrichtung 100 angeordnet ist.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Näherungssensoren 166. 1A zeigt den Näherungssensor 166, welcher mit der Schnittstelle 118 zu Peripheriegeräten gekoppelt ist. Alternativ wird der Näherungssensor 166 mit der Eingabesteuereinheit 160 in dem I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen schaltet der Näherungssensor den Touchscreen 112 ab und deaktiviert diesen, wenn die Multifunktionsvorrichtung sich in der Nähe des Ohrs des Benutzers befindet (z. B. wenn der Benutzer einen Telefonanruf macht).
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere taktile Ausgabegeneratoren 167. 1A zeigt einen taktilen Ausgabegenerator, welcher mit der haptischen Rückmeldesteuereinheit 161 in dem I/O-Subsystem 106 gekoppelt ist. Der taktile Ausgabegenerator 167 umfasst optional eine oder mehrere elektroakustische Vorrichtungen, wie beispielsweise Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Vorrichtungen, welche Energie in lineare Bewegung konvertieren, wie beispielsweise einen Motor, eine Magnetspule, ein elektroaktives Polymer, einen piezoelektrischen Aktuator, einen elektrostatischen Aktuator, oder andere taktile ausgabeerzeugende Komponenten (z. B. eine Komponente, welche elektrische Signale in taktile Ausgaben auf der Vorrichtung konvertiert). Der Kontaktintensitätssensor 165 empfängt taktile Rückmeldeerzeugungsinstruktionen von dem haptischen Rückmeldungsmodul 133 und erzeugt taktile Ausgaben auf der Vorrichtung 100, welche fähig sind, durch einen Benutzer der Vorrichtung 100 erfasst zu werden. In einigen Ausführungsformen ist zumindest ein taktiler Ausgabegenerator zusammen angeordnet mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. des berührungsempfindlichen Anzeigesystems 112) und erzeugt optional eine taktile Ausgabe durch vertikales Bewegen der berührungsempfindlichen Oberfläche (z. B. hinein/heraus aus einer Oberfläche der Vorrichtung 100) oder seitliches Bewegen dieser (z. B. nach hinten und nach vorne in der gleichen Ebene wie eine Oberfläche der Vorrichtung 100). In einigen Ausführungsformen ist zumindest ein taktiler Ausgabegeneratorsensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüberliegend des Touchscreens 112, welcher auf der Vorderseite der Vorrichtung 100 angeordnet ist.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Beschleunigungsmesser 168. 1A zeigt den Beschleunigungsmesser 168, welcher mit der Schnittstelle 118 zu Peripheriegeräten gekoppelt ist. Alternativ ist der Beschleunigungsmesser 168 optional mit einer Eingabesteuereinheit 160 in dem I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen wird die Information auf dem Touchscreen in einer Porträtansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten angezeigt, welche von dem einen oder mehreren Beschleunigungsmessern empfangen werden. Die Vorrichtung 100 umfasst optional, zusätzlich zu dem/den Beschleunigungsmesser(n) 168, ein Magnetometer (nicht gezeigt) und einen GPS(oder GLONASS oder anderes globales Navigationssystem)-Empfänger (nicht gezeigt) zum Erhalten von Information bezüglich des Ortes und der Orientierung (z. B. Porträt oder Landschaft) der Vorrichtung 100.
  • In einigen Ausführungsformen umfassen die Softwarekomponenten, welche in dem Speicher 102 gespeichert sind, ein Betriebssystem 126, ein Kommunikationsmodul (oder einen Satz von Instruktionen) 128, Kontakt/Bewegungsmodul (oder einen Satz von Instruktionen) 130, Grafikmodul (oder einen Satz von Instruktionen) 132, Texteingabemodul (oder einen Satz von Instruktionen) 134, ein Global Positioning System(GPS)-Modul (oder einen Satz von Instruktionen) 135, und Anwendungen (oder einen Satz von Instruktionen) 136. Des Weiteren speichert in einigen Ausführungsformen der Speicher 102 den Vorrichtungs-/globalen internen Zustand 157, wie in 1A und 3 gezeigt. Der Vorrichtungs-/globaler interne Zustand 157 umfasst ein oder mehrere von: aktivem Anwendungszustand, welcher anzeigt, welche Anwendungen, wenn überhaupt welche, derzeitig aktiv sind; einem Anzeigezustand, welcher anzeigt, welche Anwendungen, Ansichten oder andere Informationen verschiedene Bereiche des Touchscreens 112 belegen; einem Sensorzustand, einschließlich Informationen, welche von den verschiedenen Sensoren der Vorrichtung und Eingabesteuervorrichtungen 116 erhalten werden; und Standortinformationen bezüglich des Ortes und/oder der Höhe der Vorrichtung.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, oder ein eingebettetes Betriebssystem wie beispielsweise VxWorks) umfasst verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichervorrichtungssteuerung, Leistungsverwaltung, usw.) und ermöglicht Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht Kommunikation mit anderen Vorrichtungen über ein oder mehrere externe Ports 124 und umfasst auch verschiedene Softwarekomponenten zum Bearbeiten von Daten, welche durch die RF-Schaltung 108 und/oder den externen Port 124 empfangen wurden. Der externe Port 124 (z. B. Universal Serial Bus (USB), FIREWIRE, usw.) ist angepasst zum direkten Koppeln mit anderen Vorrichtungen oder indirektem Koppeln über ein Netzwerk (z. B. das Internet, drahtloses LAN, usw.). In einigen Ausführungsformen ist der externe Port ein Multi-Pin(z. B. 30-Pin)-Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem 30-Pin-Steckverbinder, welcher auf iPod-(Markenzeichen von Apple Inc.)-Vorrichtungen verwendet wird. In einigen Ausführungsformen ist der externe Port ein Multi-Pin(z. B. 8-Pin)-Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem 8-Pin-Steckverbinder (z. B. Lightning-Steckverbinder), welcher auf iPhone- und iPod-(Markenzeichen von Apple Inc.)-Vorrichtungen verwendet wird.
  • Das Kontakt-/Bewegungsmodul 130 detektiert optional Kontakt mit dem Touchscreen 112 (in Verbindung mit der Anzeigesteuereinheit 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. einem Touchpad oder einem physischen Klickrad). Das Kontakt/Bewegungsmodul 130 umfasst verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, bezogen auf die Detektion von Kontakt, wie beispielsweise Bestimmen, ob Kontakt aufgetreten ist (z. B. Detektieren eines Finger-nach-unten-Ereignisses), Bestimmen einer Intensität des Kontakts (z. B. die Kraft oder der Druck des Kontakts oder ein Ersatz für die Kraft oder den Druck des Kontakts), Bestimmen, ob es Bewegung des Kontakts gibt und Nachverfolgen der Bewegung über die berührungsempfindliche Oberfläche hinweg (z. B. Detektieren ein oder mehrerer Finger-Ziehen-Ereignisse), und Bestimmen, ob der Kontakt aufgehört hat (z. B. Detektieren eines Finger-nach-oben-Ereignisses oder eines Abbruchs des Kontakts). Das Kontakt-/Bewegungsmodul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Das Bestimmen von Bewegung des Kontaktpunktes, das dargestellt wird durch eine Serie von Kontaktdaten, umfasst optional das Bestimmen von Geschwindigkeit (Größenordnung), Geschwindigkeit (Größenordnung und Richtung) und/oder einer Beschleunigung (einer Veränderung der Größenordnung und/oder der Richtung) des Kontaktpunktes. Diese Operationen werden optional auf Einzelkontakte (z. B. Einfingerkontakte) oder auf mehrere gleichzeitige Kontakte (z. B. ”Multitouch”-/mehrfache Fingerkontakte) angewendet. In einigen Ausführungsformen erkennen das Kontakt-/Bewegungsmodul 130 und der Anzeigecontroller 156 einen Kontakt auf einem Touchpad.
  • In einigen Ausführungsformen verwendet das Kontakt-/Bewegungsmodul 130 einen Satz von ein oder mehreren Intensitätsschwellen, um zu bestimmen, ob eine Operation durch einen Benutzer ausgeführt worden ist (z. B. um zu bestimmen, ob ein Benutzer auf ein Symbol ”geklickt” hat). In einigen Ausführungsformen wird zumindest eine Untermenge der Intensitätsschwellen bestimmt gemäß Softwareparametern (z. B. die Intensitätsschwellen werden nicht bestimmt durch die Aktivierungsschwellen spezieller physischer Aktuatoren und können angepasst werden, ohne Ändern der physischen Hardware der Vorrichtung 100). Zum Beispiel kann eine Maus-”Klick”-Schwelle eines Trackpads oder eines Touchscreens auf irgendeinen eines großen Bereichs von vordefinierten Schwellenwerten gesetzt werden, ohne das Trackpad oder die Touchscreen-Hardware zu ändern. Zusätzlich werden in einigen Implementierungen einem Benutzer der Vorrichtung Softwareeinstellungen zum Anpassen ein oder mehrerer des Satzes von Intensitätsschwellen bereitgestellt (z. B. durch Anpassen von individuellen Intensitätsschwellen und/oder durch Anpassen einer Vielzahl von Intensitätsschwellen) gleichzeitig mit einem Systemlevel Klick-”Intensitäts”-Parameter).
  • Das Kontakt-/Bewegungsmodul 130 detektiert optional eine Gesteneingabe durch einen Benutzer. Unterschiedliche Gesten auf der berührungsempfindlichen Oberfläche haben unterschiedliche Kontaktmuster (z. B. unterschiedliche Bewegungen, Timings und/oder Intensitäten der detektierten Kontakte). Somit wird eine Geste durch Detektieren eines bestimmten Kontaktmusters optional detektiert. Zum Beispiel umfasst das Detektieren einer Fingertappgeste ein Detektieren eines Finger-Herunter-Ereignisses, gefolgt von einem Detektieren eines Finger-Herauf-(Abheben)-Ereignisses an derselben Position (oder im Wesentlichen derselben Position) wie das Finger-Herunter-Ereignis (z. B. an der Position eines Symbols). Als ein anderes Beispiel umfasst das Detektieren einer Finger-Wischgeste auf der berührungsempfindlichen Oberfläche ein Detektieren eines Finger-Herunter-Ereignisses, gefolgt von einem Detektieren eines oder mehrerer Finger-Ziehen-Ereignisse und anschließend gefolgt von einem Detektieren eines Finger-Herauf-(Abheben)-Ereignisses.
  • Das Grafikmodul 132 umfasst verschiedene bekannte Softwarekomponenten zum Rendern und Darstellen von Grafiken auf dem Touchscreen 112 oder einer anderen Anzeige umfassend Komponenten zum Ändern der visuellen Wirkung (z. B. Helligkeit, Durchsichtigkeit, Sättigung, Kontrast oder andere visuelle Eigenschaft) von Grafiken, die angezeigt werden. Wie hier verwendet bezeichnet der Ausdruck ”Grafiken” jedes Objekt, das einem Benutzer angezeigt werden kann, einschließlich ohne Beschränkung, Text, Webseiten, Symbole (wie Benutzerschnittstellenobjekte einschließlich Soft Keys), digitale Bilder, Videos, Animationen und Ähnliches.
  • In einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die Grafiken, die zu verwenden sind, repräsentieren. Jeder Grafik ist optional ein entsprechender Code zugeordnet. Das Grafikmodul 132 empfängt von Anwendungen usw. einen oder mehrere Codes, die anzuzeigende Grafiken spezifizieren zusammen mit, falls notwendig, Koordinatendaten und anderen Grafikeigenschaftsdaten und erzeugt dann Bildschirm-Bilddaten zum Ausgeben an den Anzeigecontroller 156.
  • Das haptische Rückmeldungsmodul 133 umfasst verschiedene Softwarekomponenten zum Erzeugen von Instruktionen, welche durch den/die taktilen Ausgabegenerator(en) 167 verwendet werden, um taktile Ausgaben an einem oder mehreren Orten auf der Vorrichtung 100 zu erzeugen in Antwort auf Benutzerinteraktionen mit der Vorrichtung 100.
  • Das Texteingabemodul 134, welches optional eine Komponente des Grafikmoduls 132 ist, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, Email 140, IM 141, Browser 147, und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS-Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Verwendung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, an die Kamera 143 als Bild-/Videometadaten und an Anwendungen, die positionsbasierte Dienste bereitstellen wie Wetter-Widgets, lokale Gelbe-Seiten-Widgets und Karten-/Navigations-Widgets).
  • Die Anwendungen 136 umfassen optional die folgenden Module (oder Mengen von Instruktionen) oder eine Untermenge oder Obermenge davon:
    • • Kontaktmodul 137 (manchmal bezeichnet als Adressbuch oder Kontaktliste);
    • • Telefonmodul 138;
    • • Videokonferenzmodul 139;
    • • Emailclientmodul 140;
    • • Instant Messaging-(IM)-Modul 141;
    • • Trainingsunterstützungsmodul 142;
    • • Kameramodul 143 für Stand- und/oder Videobilder;
    • • Bildmanagementmodul 144;
    • • Browsermodul 147;
    • • Kalendermodul 148;
    • • Widget-Module 149, welche optional eines oder mehrere der Folgenden enthalten: Wetter-Widget 149-1, Aktien-Widget 149-2, Taschenrechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5 und andere Widgets, die vom Benutzer erhalten werden, sowie benutzererzeugte Widgets 149-6;
    • • digitaler-persönlicher-Assistent-Modul 150;
    • • Fahrzeug-Integrationsmodul 151;
    • • Video- und Musikplayermodul 152, welches optional aus einem Videoplayermodul und einem Musikplayermodul gebildet ist;
    • • Notizmodul 153;
    • • Kartenmodul 154; und/oder
    • • Online-Videomodul 155.
  • Beispiele anderer Anwendungen 136, die optional im Speicher 102 gespeichert sind, umfassen andere Textverarbeitungsanwendungen, andere Bildbearbeitungsanwendungen, Zeichnungsanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, digitales Rechtemanagement, Spracherkennung und Spracherzeugung.
  • In Verbindung mit dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134, wird das Kontaktmodul 137 optional verwendet zum Verwalten eines Adressbuches oder einer Kontaktliste (z. B. gespeichert in dem Anwendungsinternen Zustand 192 des Kontaktmoduls 137 im Speicher 102 oder im Speicher 370) umfassend: Hinzufügen eines oder mehrerer Name(n) zu dem Adressbuch; Löschen eines oder mehrerer Name(n) aus dem Adressbuch; Verknüpfen einer oder mehrerer Telefonnummer(n), Emailadresse(n), physikalische Adresse(n) oder anderer Informationen mit einem Namen; Verknüpfen eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder Emailadressen zum Einleiten und/oder Ermöglichen von Kommunikationen durch das Telefon 138, Videokonferenz 139, Email 140, oder IM 141 usw.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher in, dem Mikrofon 113, dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 wird das Telefonmodul 138 optional zum Eingeben einer Sequenz von Zeichen verwendet, die einer Telefonnummer entspricht, zum Zugreifen auf eine oder mehrere Telefonnummern in dem Adressbuch 137, zum Ändern einer Telefonnummer, die eingegeben wurde, zum Wählen einer entsprechenden Telefonnummer, zum Führen einer Konversation und Trennen oder Auflegen, wenn die Konversation abgeschlossen ist. Wie oben erwähnt, verwendet die drahtlose Kommunikation einen beliebigen einer Vielzahl von Kommunikationsstandards, Protokollen oder Technologien.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Touchscreen 112, dem Anzeigecontroller 156, dem optischen Sensor 164, dem optischen Sensorcontroller 158, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, der Kontaktliste 137 und dem Telefonmodul 138 umfasst das Videokonferenzmodul 139 ausführbare Instruktionen zum Initiieren, Führen und Beenden einer Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Emailclientmodul 140 ausführbare Instruktionen zum Erzeugen, Senden, Empfangen und Verwalten von Email in Reaktion auf Benutzeranweisungen. In Verbindung mit dem Bildmanagementmodul 144 macht es das Emailclientmodul 140 sehr einfach, Emails mit Standbildern oder Videobildern, die mit dem Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Instant-Messaging-Modul 141 ausführbare Instruktionen zum Eingeben einer Sequenz von Zeichen, die einer Instant Message entsprechen, zum Verändern zuvor eingegebener Zeichen, zum Senden einer entsprechenden Instant Message (z. B. unter Verwendung eines Short Message Service-(SMS)- oder Multimedia Message Service-(MMS)-Protokolls für telefoniebasierte Instant Messages oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Instant Messages) zum Empfangen von Instant Messages und zum Betrachten empfangener Instant Messages. In einigen Ausführungsformen umfassen übertragene und/oder empfangene Instant Messages Grafiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie in einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden. Wie hier verwendet bezieht sich ”Instant Messaging” sowohl auf telefoniebasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS versendet wurden) als auch internetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS versendet wurden).
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musikplayermodul 146 umfasst das Trainingsunterstützungsmodul 142 ausführbare Instruktionen zum Erzeugen von Trainingsplänen (z. B. mit Zeit-, Entfernungs- und/oder Kalorienverbrennungszielen); Kommunizieren mit Trainingssensoren (Sportvorrichtungen); Empfangen von Trainingssensordaten; Kalibrieren von Sensoren, die verwendet werden zum Überwachen eines Trainingsplans; Auswählen und Abspielen von Musik für einen Trainingsplan; und Anzeigen, Speichern und Senden von Trainingsplandaten.
  • In Verbindung mit dem Touchscreen 112, dem Anzeigecontroller 156, dem/den optischen Sensoren 164, dem optischen Sensorcontroller 158, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Bildmanagementmodul 144 umfasst das Kameramodul 143 ausführbare Instruktionen zum Aufnehmen von Standbildern oder Video (umfassend einen Videostream) und Speichern dieser in den Speicher 102, Verändern von Eigenschaften eines Standbildes oder eines Videos, oder Löschen eines Standbildes oder eines Videos aus dem Speicher 102.
  • In Verbindung mit dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 umfasst das Bildmanagementmodul 144 ausführbare Instruktionen zum Anordnen, Verändern (z. B. Bearbeiten) oder anderweitiges Manipulieren, Benennen, Löschen, Präsentieren (z. B. in einer digitalen Diashow oder einem Album) und Speichern von Stand- und/oder Videobildern.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Browsermodul 147 ausführbare Instruktionen zum Browsen des Internets in Übereinstimmung mit Benutzeranweisungen, einschließlich Suchen, Verweisen auf, Empfangen und Anzeigen von Webseiten oder Teilen davon, sowie von Anhängen und anderen Dateien, die mit Webseiten verknüpft sind.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem Emailclientmodul 140 und dem Browsermodul 147 umfasst das Kalendermodul 148 ausführbare Instruktionen zum Erzeugen, Anzeigen, Verändern und Speichern von Kalendern und Daten, die mit Kalendern verknüpft sind (z. B. Kalendereinträge, To-Do-Listen usw.) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 sind die Widget-Module 149 Mini-Anwendungen, die optional durch einen Benutzer heruntergeladen und verwendet werden (z. B. das Wetter-Widget 149-1, das Aktien-Widget 149-2, das Taschenrechner-Widget 149-3, das Wecker-Widget 149-4 und das Wörterbuch-Widget 149-5) oder die durch den Benutzer erzeugt werden können (z. B. das benutzererzeugte Widget 149-6). In einigen Ausführungsformen umfasst ein Widget eine HTML-(Hypertext Markup Language)-Datei, eine CSS-(Cascading Style Sheets)-Datei und eine JavaScript-Datei. In einigen Ausführungsformen umfasst ein Widget eine XML-(Extensible Markup Language)-Datei und eine JavaScript-Datei (z. B. Yahoo!®-Widgets).
  • In Verbindung mit dem RF-Schaltkreis 108, der Audioschaltung 110, dem Lautsprecher 111, dem Mikrofon 113, dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 zeichnet das digitaler-persönlicher-Assistent-Modul 150 Stimmenbefehle auf und sendet Informationen, die für die Stimmenbefehle darstellend sind, an einen Server zur Analyse, wie z. B. Server 510 in 5A, und antwortet auf die Stimmenbefehle auf der Grundlage einer Antwort vom Server.
  • Fahrzeug-Integrationsmodul 151 beinhaltet ausführbare Befehle für ein oder mehrere Vermittlungsverfahren, die ein Fahrzeug-Informationsanzeigesystem in einem Fahrzeug (z. B. einem Auto, einem LKW, einem Van usw.) steuern, das eine Benutzerschnittstelle auf einer jeweiligen Anzeige des Fahrzeug-Informationsanzeigesystems bereitstellt (z. B. Anzeige 546 des externen Informations-Präsentationssystems 540 in 5A), wie z. B. für eine Kartenanwendung oder Musikanwendung. Die Fahrzeug-Integrationsanwendung konvertiert Informationen von Anwendungen Dritter in Inhalt zur Anzeige durch die Fahrzeug-Integrationsanwendung auf der jeweiligen Anzeige des Fahrzeug-Informationsanzeigesystems.
  • In Verbindung mit dem Touchscreen 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, der Audioschaltung 110, dem Lautsprecher 111, dem RF-Schaltkreis 108 und dem Browsermodul 147, umfasst das Video- und Musikplayermodul 152 ausführbare Instruktionen, welche dem Benutzer erlauben, aufgezeichnete Musik und andere Sounddateien herunterzuladen und wiederzugeben, welche in einem oder mehreren Dateiformaten gespeichert sind, wie beispielsweise MP3- oder AAC-Dateien, und ausführbare Instruktionen zum Anzeigen, Darstellen oder anderweitig Abspielen von Videos (z. B. auf einem Touchscreen 112 oder auf einer externen verbundenen Anzeige über den externen Port 124). In einigen Ausführungsformen umfasst die Vorrichtung 100 optional die Funktionalität eines MP3-Players, wie beispielsweise eines iPod (Markenzeichen von Apple Inc.).
  • In Verbindung mit dem Touchscreen 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Notizmodul 153 ausführbare Instruktionen zum Erzeugen und Verwalten von Notizen, To-Do-Listen und Ähnlichem in Übereinstimmung mit Nutzeranweisungen.
  • In Verbindung mit dem RF-Schaltkreis 108, dem Touchscreen 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browsermodul 147 wird das Kartenmodul 154 optional verwendet zum Empfangen, Anzeigen, Modifizieren und Speichern von Karten und Daten, die mit Karten assoziiert sind (z. B. Fahrtrichtungen; Daten bezüglich Einkaufsgeschäften und anderen Punkten von Interesse an oder nahe einer bestimmten Örtlichkeit; und anderen örtlichkeitsbasierten Daten) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem Touchscreen 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem RF-Schaltkreis 108, dem Texteingabemodul 134, dem Emailclientmodul 140 und dem Browsermodul 147 umfasst das Online-Videomodul 155 Instruktionen, die dem Benutzer das Zugreifen, Browsen, Empfangen (z. B. durch Streaming und/oder Download), Abspielen (z. B. auf dem Touchscreen oder auf einer externen verbundenen Anzeige über den externen Port 124), das Senden einer Email mit einem Link auf ein bestimmtes Online-Video und anderweitiges Verwalten von Online-Videos in einem oder mehreren Dateiformaten, wie H.264, erlauben. In einigen Ausführungsformen wird statt des Emailclientmoduls 140 das Instant-Messaging-Modul 141 zum Senden eines Links auf ein bestimmtes Online-Video verwendet.
  • Jedes/jede der oben identifizierten Module und Anwendungen entspricht einer Menge von ausführbaren Instruktionen zum Ausführen einer oder mehrerer Funktionen, wie sie oben beschrieben sind, und der Verfahren, wie sie in dieser Anmeldung beschrieben sind (z. B. die computerimplementierten Verfahren und andere Informationsverarbeitungsverfahren, wie sie hier beschrieben sind). Diese Module (d. h. Sätze von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein und somit werden verschiedene Untermengen dieser Module optional kombiniert und anderweitig zusammengefügt in verschiedenen Ausführungsformen. In einigen Ausführungsformen speichert der Speicher 102 optional eine Untermenge der Module und Datenstrukturen, wie sie oben beschrieben sind. Ferner speichert der Speicher 102 optional zusätzliche Module und Datenstrukturen, die oben nicht beschrieben sind.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei der die Bedienung einer vorbestimmten Menge von Funktionen auf der Vorrichtung ausschließlich durch ein Touchscreen und/oder ein Touchpad ausgeführt wird. Durch Verwenden eines Touchscreens und/oder eines Touchpads als primäre Eingabesteuervorrichtung für den Betrieb der Vorrichtung 100 wird die Anzahl physikalischer Eingabesteuervorrichtungen (wie Push-Knöpfe, Dials und Ähnliches) auf der Vorrichtung 100 optional reduziert.
  • Der vordefinierte Satz von Funktionen, die ausschließlich durch einen Touchscreen und/oder ein Touchpad ausgeführt werden, umfasst optional eine Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad, wenn es durch einen Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Home- oder Wurzelmenü ausgehend von einer beliebigen Benutzerschnittstelle, die optional auf der Vorrichtung 100 angezeigt wird. In solchen Ausführungsformen wird eine ”Menütaste” unter Verwendung eines Touchpads implementiert. In einigen anderen Ausführungsformen ist die Menütaste ein physikalischer Push-Knopf oder eine andere physikalische Eingabesteuervorrichtung anstelle eines Touchpads.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung in Übereinstimmung mit einigen Ausführungsformen darstellt. In einigen Ausführungsformen umfasst der Speicher 102 (in 1A) oder 370 (3) einen Ereignissortierer 170 (z. B. in dem Betriebssystem 126) und eine entsprechende Anwendung 136-1 (z. B. irgendeine der zuvor erwähnten Anwendungen 137-13, 155, 380390).
  • Der Ereignissortierer 170 empfängt Ereignisinformation und bestimmt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1, zu der die Ereignisinformation geliefert werden soll. Der Ereignissortierer 170 umfasst einen Ereignismonitor 171 und ein Ereigniszuteilermodul 174. In einigen Ausführungsformen umfasst die Anwendung 136-1 einen anwendungsinternen Zustand 192, der die aktuell auf dem Touchscreen 112 angezeigte(n) Anwendungsansicht(en) anzeigt, wenn die Anwendung aktiv ist oder ausgeführt wird. In einigen Ausführungsformen wird ein Vorrichtungs-/globaler interner Zustand 157 von dem Ereignissortierer 170 verwendet zum Bestimmen, welche Anwendung(en) gegenwärtig aktiv ist bzw. sind und der anwendungsinterne Zustand 192 wird durch den Ereignissortierer 170 verwendet, um die Anwendungsansichten 191 zu bestimmen, an die die Ereignisinformation zu liefern ist.
  • In einigen Ausführungsformen umfasst der anwendungsinterne Zustand 192 zusätzliche Informationen sowie eines oder mehrere von: Wiederaufnahmeinformation, die verwendet wird, wenn die Anwendung 136-1 mit ihrer Ausführung fortfährt; Benutzerschnittstellenzustandsinformation, die Information anzeigt, die angezeigt wird oder die bereit ist, angezeigt zu werden durch die Anwendung 136-1, eine Zustandsqueue, um es dem Benutzer zu ermöglichen, zurückzugehen zu einem früheren Zustand oder einer früheren Ansicht der Anwendung 136-1 und eine Wiederholen/Rückgängigmachen-Queue vorhergehender Aktionen, die der Benutzer ausgeführt hat.
  • Der Ereignismonitor 171 empfängt Ereignisinformation von der Schnittstelle 118 zu Peripheriegeräten. Die Ereignisinformation umfasst Informationen über ein Subereignis (z. B. ein Berühren eines Benutzers auf dem Touchscreen 112 als Teil einer Multi-Touch-Geste). Die Schnittstelle 118 zu Peripheriegeräten sendet Informationen, die sie von dem I/O-Subsystem 106 oder einem Sensor, wie dem Näherungssensor 166, dem/den Beschleunigungsmesser(n) 168 und/oder dem Mikrofon 113 (durch den Audioschaltkreis 110) empfängt. Informationen, die die Schnittstelle 118 zu Peripheriegeräten von dem I/O-Subsystem 106 empfängt, umfasst Informationen von dem Touchscreen 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 Anfragen an die Schnittstelle 118 zu Peripheriegeräten in vorbestimmten Intervallen. In Reaktion darauf sendet die Schnittstelle 118 zu Peripheriegeräten Ereignisinformationen. In anderen Ausführungsformen sendet die Schnittstelle 118 zu Peripheriegeräten Ereignisinformationen nur, wenn es ein signifikantes Ereignis gibt (z. B. ein Empfangen einer Eingabe oberhalb eines vorbestimmten Rauschschwellwertes und/oder für mehr als eine vorbestimmte Zeitdauer).
  • In einigen Ausführungsformen umfasst der Ereignissortierer 170 auch ein Trefferansichts-Bestimmungsmodul 172 und/oder ein aktives Ereigniserkenner-Bestimmungsmodul 173.
  • Das Trefferansichts-Bestimmungsmodul 172 stellt Softwareprozeduren zum Bestimmen bereit, wo ein Subereignis stattgefunden hat innerhalb einer oder mehrerer Ansichten, wenn der Touchscreen 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Steuerelementen und anderen Elementen, die ein Benutzer auf der Anzeige sehen kann.
  • Ein anderer Aspekt der Benutzerschnittstelle, die mit einer Anwendung verknüpft ist, ist eine Menge von Ansichten, hier manchmal als Anwendungsansichten oder Benutzerschnittstellenfenster bezeichnet, in denen Information angezeigt ist und berührungsbasierte Gesten auftreten. Die Anwendungsansichten (einer entsprechenden Anwendung), in denen eine Berührung erkannt wird, entsprechen optional programmatischen Ebenen innerhalb einer programmatischen oder Ansichtshierarchie der Anwendung. Zum Beispiel werden die Ansicht der niedrigsten Ebene, in der eine Berührung erkannt wird, optional als Trefferansicht bezeichnet, und die Menge der Ereignisse, die als korrekte Eingaben erkannt werden, optional zumindest teilweise basierend auf der Trefferansicht der initialen Berührung, die eine berührungsbasierte Geste beginnt, bestimmt.
  • Das Trefferansichts-Bestimmungsmodul 172 empfängt Informationen bezüglich Subereignissen einer berührungsbasierten Geste. Wenn eine Anwendung mehrfache Ansichten aufweist, die in einer Hierarchie organisiert sind, identifiziert das Trefferansichts-Bestimmungsmodul 172 eine Trefferansicht als die niedrigste Ansicht in der Hierarchie, die das Subereignis behandeln sollte. In den meisten Fällen ist die Trefferansicht die Ansicht der niedrigsten Ebene, in der ein initiierendes Subereignis auftritt (d. h. das erste Subereignis in der Sequenz von Subereignissen, die ein Ereignis oder ein potenzielles Ereignis ausbilden). Sobald die Trefferansicht identifiziert ist durch das Trefferansichts-Bestimmungsmodul, empfängt die Trefferansicht typischerweise alle Subereignisse, die mit derselben Berührungs-/oder Eingabequelle verbunden sind, für die sie als Trefferansicht identifiziert wurde.
  • Das aktive Ereigniserkenner-Bestimmungsmodul 173 bestimmt, welche Ansicht oder Ansichten innerhalb einer Ansichtshierarchie eine bestimmte Sequenz von Subereignissen empfangen sollte. In einigen Ausführungsformen bestimmt das aktive Ereigniserkenner-Bestimmungsmodul 173, dass nur die Trefferansicht eine bestimmte Sequenz von Subereignissen empfangen sollte. In anderen Ausführungsformen bestimmt das aktive Ereigniserkenner-Bestimmungsmodul 173, dass alle Ansichten, die die physikalische Position eines Subereignisses beinhalten, aktiv involvierte Ansichten sind und bestimmt daher, dass alle aktiv involvierten Ansichten eine bestimmte Sequenz von Subereignissen empfangen sollten. In anderen Ausführungsformen würden Ansichten, die höher in der Hierarchie angeordnet sind, weiterhin als aktiv involvierte Ansichten verbleiben, selbst wenn Berührungssubereignisse vollständig auf den Bereich begrenzt wären, der mit einer bestimmten Ansicht verknüpft ist.
  • Das Ereigniszuteilermodul 174 teilt die Ereignisinformation einem Ereigniserkenner zu (z. B. dem Ereigniserkenner 180). In Ausführungsformen, die das aktive Ereigniserkenner-Bestimmungsmodul 173 umfassen, liefert das Ereigniszuteilermodul 174 die Ereignisinformation an einen Ereigniserkenner, der durch das aktive Ereigniserkenner-Bestimmungsmodul 173 bestimmt wird. In manchen Ausführungsformen speichert das Ereigniszuteilermodul 174 die Ereignisinformation in einer Ereignisqueue, die von einem entsprechenden Ereignisempfängermodul 182 abgefragt wird.
  • In einigen Ausführungsformen umfasst das Betriebssystem 126 einen Ereignissortierer 170. Alternativ umfasst die Anwendung 136-1 einen Ereignissortierer 170. In wieder anderen Ausführungsformen ist der Ereignissortierer 170 ein eigenständiges Modul oder ein Teil eines anderen Moduls, das im Speicher 102 gespeichert ist, wie das Kontakt-/Bewegungsmodul 130.
  • In einigen Ausführungsformen umfasst die Anwendung 136-1 eine Vielzahl von Ereignishandlern 190 und eine oder mehrere Anwendungsansichten 191, von denen jede Instruktionen zum Behandeln von Berührungsereignissen umfasst, die innerhalb einer entsprechenden Ansicht der Anwendungsbenutzerschnittstelle auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 umfasst einen oder mehrere Ereigniserkenner 180. Typischerweise umfasst eine entsprechende Anwendungsansicht 191 eine Vielzahl von Ereigniserkennern 180. In anderen Ausführungsformen sind einer oder mehrere der Ereigniserkenner 180 Teil eines separaten Moduls, wie eines Benutzerschnittstellen-Kits (nicht gezeigt) oder eines Objekts einer höheren Ebene, von der die Anwendung 136-1 Methoden und andere Eigenschaften erbt. In einigen Ausführungsformen umfasst ein entsprechender Ereignishandler 190 eines oder mehrere der Folgenden: einen Datenaktualisierer 176, einen Objektaktualisierer 177, einen GUI-Aktualisierer 178 und/oder Ereignisdaten 179, die von einem Ereignissortierer 170 empfangen wurden. Der Ereignishandler 190 verwendet optional den Datenaktualisierer 176, den Objektaktualisierer 177 oder den GUI-Aktualisierer 178 oder ruft diese auf zum Aktualisieren des anwendungsinternen Zustands 192. Alternativ umfassen eine oder mehrere der Anwendungsansichten 191 einen oder mehrere entsprechende Ereignishandler 190. Auch sind in einigen Ausführungsformen einer oder mehrere des Datenaktualisierers 176, des Objektaktualisierers 177 und des GUI-Aktualisierers 178 in einer entsprechenden Anwendungsansicht 191 enthalten.
  • Ein entsprechender Ereigniserkenner 180 empfängt Ereignisinformationen (z. B. Ereignisdaten 179) von dem Ereignissortierer 170 und identifiziert ein Ereignis aus der Ereignisinformation. Der Ereigniserkenner 180 beinhaltet Ereignisempfänger 182 und Ereignisvergleicher 184. In einigen Ausführungsformen beinhaltet der Ereigniserkenner 180 auch mindestens eine Untermenge von: Metadaten 183 und Ereignislieferinstruktionen 188 (welche optional Subereignislieferinstruktionen beinhalten).
  • Der Ereignisempfänger 182 empfängt Ereignisinformation von dem Ereignissortierer 170. Die Ereignisinformation beinhaltet Informationen über ein Subereignis, z. B. eine Berührung oder eine Berührungsbewegung. Abhängig von dem Subereignis beinhaltet die Ereignisinformation auch zusätzliche Information wie den Ort des Subereignisses. Wenn das Subereignis eine Bewegung einer Berührung betrifft, umfasst die Ereignisinformation optional auch Geschwindigkeit und Richtung des Subereignisses. In einigen Ausführungsformen beinhalten Ereignisse eine Rotation der Vorrichtung von einer Orientierung in eine andere (z. B. von einer Porträt-Orientierung in eine Landschaft-Orientierung oder umgekehrt) und die Ereignisinformation beinhaltet entsprechende Information über die aktuelle Orientierung (auch bezeichnet als Vorrichtungslage) der Vorrichtung.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformation mit vorbestimmten Ereignis- oder Subereignisdefinitionen und, basierend auf dem Vergleich, bestimmt ein Ereignis oder ein Subereignis oder bestimmt oder aktualisiert den Zustand eines Ereignisses oder eines Subereignisses. In einigen Ausführungsformen beinhaltet der Ereignisvergleicher 184 Ereignisdefinitionen 186. Die Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. vorbestimmte Sequenzen von Subereignissen), z. B. Ereignis 1 (187-1), Ereignis 2 (187-2) und andere. In einigen Ausführungsformen umfassen Subereignisse in einem Ereignis 187 z. B. einen Berührungsbeginn, ein Berührungsende, eine Berührungsbewegung, einen Berührungsabbruch und mehrfache Berührung. In einem Beispiel ist die Definition für ein Ereignis 1 (187-1) ein Doppeltapp auf einem angezeigten Objekt. Zum Beispiel umfasst der Doppeltapp eine erste Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein erstes Abheben (Berührungsende) für eine vorbestimmte Phase, eine zweite Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine bestimmte Phase und ein zweites Abheben (Berührungsende) für eine vorbestimmte Phase. In einem anderen Beispiel ist die Definition für das Ereignis 2 (187-2) ein Ziehen eines angezeigten Objekts. Zum Beispiel umfasst das Ziehen ein Berühren (oder einen Kontakt) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein Bewegen der Berührung über den Touchscreen 112 und ein Abheben des Berühren (Berührungsende). In einigen Ausführungsformen umfasst das Ereignis auch Informationen für einen oder mehrere zugehörige Ereignishandler 190.
  • In einigen Ausführungsformen umfasst die Ereignisdefinition 187 eine Definition eines Ereignisses für ein entsprechendes Benutzerschnittstellenobjekt. In einigen Ausführungsformen führt der Ereignisvergleicher 184 einen Treffertest aus zum Bestimmen, welches Benutzerschnittstellenobjekt mit einem Subereignis verknüpft ist. Z. B. führt, in einer Anwendungsansicht, in der drei Benutzerschnittstellenobjekte angezeigt werden auf dem Touchscreen 112, wenn eine Berührung auf dem Touchscreen 112 festgestellt wird, der Ereignisvergleicher 184 einen Treffertest aus, um zu bestimmen, welches der drei Benutzerschnittstellenobjekte mit der Berührung (Subereignis) verknüpft ist. Wenn jedes angezeigte Objekt mit einem entsprechenden Ereignishandler 190 verknüpft ist, verwendet der Ereignisvergleicher das Ergebnis des Treffertests, um zu bestimmen, welcher Ereignishandler 190 aktiviert werden sollte. Zum Beispiel wählt der Ereignisvergleicher 184 einen Ereignishandler aus, der mit dem Subereignis assoziiert ist und mit dem Objekt, das den Treffertest auslöst.
  • In einigen Ausführungsformen beinhaltet die Definition für ein entsprechendes Ereignis 187 auch verzögerte Aktionen, die das Liefern der Ereignisinformation verzögern, bis bestimmt wurde, ob die Sequenz von Subereignissen dem Ereignistyp des Ereigniserkenners entspricht oder nicht.
  • Wenn ein entsprechender Ereigniserkenner 180 bestimmt, dass die Serie von Subereignissen keinem der Ereignisse in den Ereignissen in den Ereignisdefinitionen 186 entspricht, geht der entsprechende Ereigniserkenner 180 in einen Zustand Ereignis nicht möglich, Ereignis gescheitert oder Ereignis beendet, nachdem er nachfolgende Subereignisse der berührungsbasierten Geste ignoriert. In dieser Situation fahren andere Ereigniserkenner, sofern es solche gibt, die aktiv für die Trefferansicht verbleiben, mit dem Verfolgen und Verarbeiten von Subereignissen einer andauernden berührungsbasierten Geste fort.
  • In einigen Ausführungsformen beinhaltet ein entsprechender Ereigniserkenner 180 Metadaten 183 mit konfigurierbaren Eigenschaften, Flags und/oder Listen, die anzeigen, wie das Ereignisliefersystem Subereignislieferungen ausführen sollte an aktiv involvierte Ereigniserkenner. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die anzeigen, wie Ereigniserkenner miteinander interagieren oder aktiviert werden miteinander zu interagieren. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die anzeigen, ob Subereignisse an variierende Ebenen in der Ansicht oder der programmatischen Hierarchie geliefert werden.
  • In einigen Ausführungsformen aktiviert ein entsprechender Ereigniserkenner 180 den Ereignishandler 190, der mit einem Ereignis assoziiert ist, wenn eines oder mehrere bestimmte Subereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert ein entsprechender Ereigniserkenner 180 Ereignisinformationen, die mit dem Ereignis assoziiert sind, an den Ereignishandler 190. Das Aktivieren eines Ereignishandlers 190 ist verschieden vom Senden (und vom verzögerten Senden) von Subereignissen an eine entsprechende Trefferansicht. In einigen Ausführungsformen wirft der Ereigniserkenner 180 ein Flag aus, das mit dem erkannten Ereignis assoziiert ist, und der Ereignishandler 190, der mit dem Flag assoziiert ist, erfasst das Flag und führt einen vordefinierten Prozess aus.
  • In einigen Ausführungsformen umfassen die Ereignislieferinstruktionen 188 Subereignislieferinstruktionen, die Ereignisinformationen liefern über ein Subereignis ohne ein Aktivieren eines Ereignishandlers. Stattdessen liefern die Subereignislieferinstruktionen Ereignisinformationen an Ereignishandler, die mit der Serie von Subereignissen assoziiert sind oder an aktiv involvierte Ansichten. Ereignishandler, die mit der Serie von Subereignissen assoziiert sind oder mit aktiv involvierten Ansichten, empfangen die Ereignisinformationen und führen einen vorbestimmten Prozess aus.
  • In einigen Ausführungsformen erzeugt und aktualisiert der Datenaktualisierer 176 Daten, die in der Anwendung 136-1 verwendet werden. Zum Beispiel aktualisiert der Datenaktualisierer 176 die Telefonnummer, die in dem Kontaktmodul 137 verwendet wird, oder speichert eine Videodatei, die in dem Videoplayermodul 145 verwendet wird. In einigen Ausführungsformen erzeugt und aktualisiert der Objektaktualisierer 177 Objekte, die in der Anwendung 136-1 verwendet werden. Zum Beispiel erzeugt der Objektaktualisierer 176 ein neues Benutzerschnittstellenobjekt oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Aktualisierer 178 aktualisiert die GUI. Zum Beispiel bereitet der GUI-Aktualisierer 178 Anzeigeinformationen vor und sendet sie an das Grafikmodul 132 zum Anzeigen auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen beinhaltet der/die Ereignishandler 190 oder haben der/die Ereignishandler 190 Zugriff auf den Datenaktualisierer 176, den Objektaktualisierer 177 und den GUI-Aktualisierer 178. In einigen Ausführungsformen sind der Datenaktualisierer 176, der Objektaktualisierer 177 und der GUI-Aktualisierer 178 in einem einzigen Modul einer entsprechenden Anwendung 136-1 oder einer Anwendungsansicht 191 enthalten. In anderen Ausführungsformen sind sie in zwei oder mehreren Softwaremodulen enthalten.
  • Es ist festzuhalten, dass die vorstehende Diskussion bezüglich Ereignisbehandlung von Benutzerberührungen auf der berührungsempfindlichen Anzeige auch auf andere Formen von Benutzereingaben zum Betreiben der Multifunktionsvorrichtungen 100 mit Eingabevorrichtungen anzuwenden sind, von denen nicht alle auf Touchscreens initiiert werden. Zum Beispiel werden Mausbewegungen und das Maustastendrücken, welche mit einzelnen oder mehrfachen Tastaturdrücken oder Halten koordiniert werden; Kontaktbewegungen wie beispielsweise Tippen, Ziehen, Scrollen usw. auf Touchpads; Stiftstyluseingaben; Bewegen der Vorrichtung; mündliche Anweisungen; detektierte Augenbewegungen; biometrische Eingaben; und/oder jede Kombination davon als Eingaben verwendet entsprechend Subereignissen, die ein Ereignis definieren, das erkannt werden soll.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Touchscreen 112 aufweist in Übereinstimmung mit einigen Ausführungsformen. Der Touchscreen stellt optional eine oder mehrere Grafiken innerhalb einer Benutzerschnittstelle (UI) 200 dar. In dieser Ausführungsform, wie auch in anderen, die unten beschrieben sind, wird einem Benutzer ermöglicht, eine oder mehrere der Grafiken auszuwählen durch Durchführen einer Geste auf den Grafiken, z. B. mit einem oder mehreren Fingern 202 (nicht maßstabsgetreu gezeichnet in der Figur) oder einem oder mehreren Stylus 203 (nicht maßstabsgetreu gezeichnet in der Figur). In einigen Ausführungsformen tritt das Wählen einer oder mehrerer Grafiken auf, wenn der Benutzer den Kontakt mit einer oder mehreren Grafiken unterbricht. In einigen Ausführungsformen umfasst die Geste optional ein oder mehrere Tipp-Bewegungen (taps), eine oder mehrere Wischbewegungen (von links nach rechts, von rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, von links nach rechts, aufwärts und/oder abwärts), der mit der Vorrichtung 100 in Kontakt steht. In einigen Implementierungen oder Umständen wählt ein unbeabsichtigter Kontakt mit einer Grafik die Grafik nicht aus. Zum Beispiel wählt eine Wischgeste, die über ein Anwendungssymbol wischt, optional die entsprechende Anwendung nicht aus, wenn die Geste zum Auswählen ein Tippen ist.
  • Die Vorrichtung 100 umfasst optional auch einen oder mehrere physikalische Knöpfe, wie einen ”Home” oder Menü-Knopf 204. Wie zuvor beschrieben, wird der Menü-Knopf 204 optional verwendet zum Navigieren jeder Anwendung 136 in einem Satz von Anwendungen, die optional auf der Vorrichtung 100 ausgeführt werden. Alternativ ist in einigen Ausführungsformen der Menü-Knopf als Soft Key in einer GUI, die auf dem Touchscreen 112 angezeigt wird, implementiert.
  • In einer Ausführungsform umfasst die Vorrichtung 100 einen Touchscreen 112, einen Menü-Knopf 204, einen Push-Knopf 206 zum Ein- oder Ausschalten der Vorrichtung und zum Sperren der Vorrichtung, Lautstärkeregelknopf/Knöpfe 208, einen Subscriber-Identity-Module(SIM)-Kartenschacht 210, eine Kopfhörerbuchse 212 und einen Docking-/Lade-externen Port 124. Der Push-Knopf 206 wird optional verwendet zum Ein- und Ausschalten der Vorrichtung durch Hinunterdrücken des Knopfs und Festhalten des Knopfs in dem gedrückten Zustand für eine vorbestimmte Zeitdauer; zum Sperren der Vorrichtung durch Hinunterdrücken des Knopfs und Loslassen des Knopfs vor Ablauf der vorbestimmten Zeitdauer und/oder zum Entsperren der Vorrichtung oder zum Initiieren eines Entsperrvorgangs. In einer alternativen Ausführungsform akzeptiert die Vorrichtung 100 auch verbale Eingaben zur Aktivierung oder Deaktivierung einiger Funktionen durch das Mikrofon 113. Die Vorrichtung 100 umfasst optional auch ein oder mehrere Kontaktintensitätssensoren 165 zum Detektieren von Intensität der Kontakte auf dem Touchscreen 112 und/oder einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 100.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen. Die Vorrichtung 300 muss nicht tragbar sein. In einigen Ausführungsformen ist die Vorrichtung 300 ein Laptop Computer, ein Desktop Computer, ein Tablet Computer, eine Multimediaspielervorrichtung, eine Navigationsvorrichtung, eine Lernvorrichtung (wie ein Lernspielzeug eines Kindes), ein Spielesystem oder eine Steuervorrichtung (z. B. ein Haus- oder industrieller Controller). Die Vorrichtung 300 umfasst typischerweise eine oder mehrere Verarbeitungseinheiten (CPUs) 310, eine oder mehrere Netzwerk- oder andere Kommunikationsschnittstellen 360, Speicher 370 und einen oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten. Die Kommunikationsbusse 320 umfassen optional einen Schaltkreis (manchmal als Chipset bezeichnet), der Kommunikationen zwischen Systemkomponenten verbindet und steuert. Die Vorrichtung 300 umfasst eine Eingabe-/Ausgabe-(I/O)-Schnittstelle 330 umfassend die Anzeige 340, die typischerweise eine Touchscreen-Anzeige ist (z. B. Touchscreen 112). Die I/O-Schnittstelle 330 umfasst optional auch eine Tastatur und/oder eine Maus (oder eine andere Zeigevorrichtung) 350 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 300 (z. B. ähnlich dem/den taktilen Ausgabegenerator(en) 167 wie oben beschrieben mit Verweis auf 1A), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche, und/oder Kontaktintensitätssensoren ähnlich dem/den Kontaktintensitätssensor(en) 165 wie oben beschrieben mit Verweis auf 1A). Der Speicher 370 umfasst Hochgeschwindigkeits-Random-Access-Speicher wie DRAM, SRAM, DDR RAM oder andere Random-Access-Solid-State-Speichervorrichtungen; und umfasst optional nichtflüchtigen Speicher, wie eine oder mehrere magnetische Diskspeichervorrichtungen, optische Diskspeichervorrichtungen, Flash-Speichervorrichtungen, oder andere nichtflüchtige Solid-State-Speichervorrichtungen. Der Speicher 370 umfasst optional eine oder mehrere Speichervorrichtungen, die entfernt von der/den CPU(s) 310 angeordnet sind. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Datenstrukturen, die in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 gespeichert sind (1A) oder eine Teilmenge davon. Ferner speichert der Speicher 370 optional zusätzliche Programme, Module und Datenstrukturen, die nicht in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 vorliegen. Zum Bespiel speichert der Speicher 370 der Vorrichtung 300 optional ein Zeichenmodul 380, ein Präsentationsmodul 382, ein Textverarbeitungsmodul 384, ein Webseiten-Erstellungsmodul 386, ein Disk-Authoring-Modul 388 und/oder Tabellenkalkulationsmodul 390, während der Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) diese Module optional nicht speichert.
  • Jedes der oben identifizierten Elemente in 3 wird optional in einer oder in mehreren der zuvor beschriebenen Speichervorrichtungen gespeichert. Jedes der oben identifizierten Module entspricht einer Menge von Instruktionen zum Ausführen einer Funktion wie oben beschrieben. Die oben identifizierten Module oder Programme (d. h. Mengen von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein, und somit werden verschiedene Untermengen dieser Module optional kombiniert oder anderweitig in verschiedenen Ausführungsformen zusammengefügt. In einigen Ausführungsformen speichert der Speicher 370 optional eine Teilmenge der Module und Datenstrukturen, die oben identifiziert sind. Ferner kann der Speicher 370 zusätzliche Module und Datenstrukturen speichern, die oben nicht beschrieben sind.
  • Die Aufmerksamkeit wird nun gerichtet auf Ausführungsformen der Benutzerschnittstellen (”UI”), die optional auf einer tragbaren Multifunktionsvorrichtung 100 implementiert ist.
  • 4A zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung 100 in Übereinstimmung mit einigen Ausführungsformen. Ähnliche Benutzerschnittstellen sind auf der Vorrichtung 300 optional implementiert. In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 400 die folgenden Elemente oder eine Teilmenge oder eine Obermenge davon:
    • • Signalstärkenindikator(en) 402 für drahtlose Kommunikation(en), wie Mobilfunk- und Wi-Fi-Signale;
    • • Zeit 404;
    • • Bluetooth-Indikator 405;
    • • Batteriestatusindikator 406;
    • • Tray 408 mit Symbolen für häufig verwendete Anwendungen, wie:
    • – Symbol 416 für das Telefonmodul 138, bezeichnet ”Telefon”, welches optional einen Hinweis 414 der Zahl von verpassten Anrufen oder Voicemail-Nachrichten umfasst;
    • – Symbol 418 für das Email-Client-Modul 140, bezeichnet ”Mail”, welches optional einen Hinweis 410 der Anzahl von ungelesenen Emails umfasst;
    • – Symbol 420 für das Browsermodul 147, bezeichnet ”Browser; und
    • – Symbol 422 für das Video- und Musikplayermodul 152, auch bezeichnet als iPod (Markenzeichen von Apple Inc.)-Modul 152, bezeichnet iPod
    • • Symbole anderer Anwendungen, wie beispielsweise:
    • – Symbol 424 für IM-Modul 141, bezeichnet „Text”;
    • – Symbol 426 für das Kalendermodul 148, bezeichnet ”Kalender”;
    • – Symbol 428 für das Bildverwaltungsmodul 144, bezeichnet ”Fotos”;
    • – Symbol 430 für das Kameramodul 143, bezeichnet ”Kamera”;
    • – Symbol 432 für das Online-Videomodul 155, bezeichnet „Online Video”;
    • – Symbol 434 für das Aktien-Widget 149-2, bezeichnet ”Aktien”;
    • – Symbol 436 für das Kartenmodul 154, bezeichnet ”Karte”;
    • – Symbol 438 für das Wetter-Widget 149-1, bezeichnet ”Wetter”;
    • – Symbol 440 für das Wecker-Widget 149-4, bezeichnet ”Uhr”
    • – Symbol 442 für das Trainingsunterstützungsmodul 142, bezeichnet ”Trainingsunterstützung”;
    • – Symbol 444 für das Notizenmodul 153, bezeichnet ”Notizen”; und
    • – Symbol 446 für eine Einstellungsanwendung oder -modul, welches Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellt.
  • Es ist klar, dass die Symbolbezeichnungen, welche in 4A gezeigt sind, lediglich beispielhaft sind. Zum Beispiel ist das Symbol 422 für das Video- und Musikplayermodul 152 bezeichnet ”Musik” oder ”Musikplayer”. Andere Bezeichnungen werden optional verwendet für verschiedene Anwendungssymbole. In einigen Ausführungsformen umfasst eine Bezeichnung für ein jeweiliges Anwendungssymbol einen Namen einer Anwendung, welche dem jeweiligen Anwendungssymbol entspricht. In einigen Ausführungsformen ist eine Bezeichnung für ein spezielles Anwendungssymbol verschieden von einem Namen einer Anwendung, welches dem speziellen Anwendungssymbol entspricht.
  • 4B zeigt eine beispielhafte Benutzerschnittstelle auf einer Vorrichtung (z. B. Vorrichtung 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), welches getrennt ist von der Anzeige 450 (z. B. Touchscreen 112). Die Vorrichtung 300 umfasst auch optional ein oder mehrere Kontaktintensitätssensoren (z. B. ein oder mehrere der Sensoren 357) zum Detektieren von Intensität von Kontakten auf der berührungsempfindlichen Oberfläche 451, und/oder ein oder mehrere taktile Ausgabegeneratoren 359 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 300.
  • Wenngleich einige der Beispiele, die folgen werden, unter Verweis auf Eingaben auf einem Touchscreen 112 gegeben sein werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche, die separat ist von der Anzeige, wie in 4B gezeigt. In einigen Ausführungsformen hat die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 452 in 4B), die einer primären Achse entspricht (z. B. 453 in 4B) auf der Anzeige (z. B. 450). In Übereinstimmung mit diesen Ausführungsformen erkennt die Vorrichtung Kontakte (z. B. 460 und 462 in 4B) mit der berührungsempfindlichen Oberfläche 451 an Positionen, die entsprechenden Positionen auf der Anzeige entsprechen (z. B. entspricht in 4B 460 der 468 und 462 entspricht der 470). Auf diese Weise werden Benutzereingaben (z. B. Kontakte 460 und 462 und Bewegungen davon), die durch die Vorrichtung auf der berührungsempfindlichen Oberfläche erkannt werden (z. B. 451 in 4B), von der Vorrichtung verwendet, um die Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) der Multifunktionsvorrichtung zu manipulieren, wenn die berührungsempfindliche Oberfläche separat von der Anzeige ist. Es ist anzumerken, dass ähnliche Verfahren für andere Benutzerschnittstellen, die hier beschrieben sind, optional verwendet werden.
  • Während die folgenden Beispiele primär unter Verweis auf Fingereingaben gegeben sind (z. B. Fingerkontakte, Fingertappgesten, Fingerwischgesten), ist zusätzlich festzuhalten, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch eine Eingabe von einer anderen Eingabevorrichtung ersetzt werden (z. B. durch eine mausbasierte Eingabe oder eine Stylus-Eingabe). Zum Beispiel wird optional eine Wischgeste durch einen Mausklick ersetzt (z. B. anstelle eines Kontakts), gefolgt durch eine Bewegung des Cursors entlang des Pfades des Wischens (z. B. anstelle der Bewegung des Kontakts). Als ein weiteres Beispiel wird eine Tippgeste optional durch einen Mausklick ersetzt, während der Cursor sich über der Position der Tippgeste befindet (z. B. anstelle des Erkennens des Kontakts, gefolgt durch das Beenden des Erkennens des Kontakts). Ähnlich ist anzumerken, dass, wenn mehrere Benutzereingaben simultan erkannt werden, mehrere Computermäuse optional simultan verwendet werden, oder eine Maus und Fingerkontakte optional simultan verwendet werden.
  • Wie hierin verwendet, bezieht sich der Ausdruck ”Fokusauswähler” auf ein Eingabeelement, welches einen derzeitigen Teil einer Benutzerschnittstelle anzeigt, mit welcher ein Benutzer interagiert. In einigen Implementierungen, welche einen Cursor oder andere Ortsmarkierung umfassen, agiert der Cursor als ein ”Fokusauswähler”, so dass, wenn eine Eingabe (z. B. eine Druckeingabe) auf einer berührungsempfindlichen Oberfläche (z. B. Touchpad 355 in 3 oder berührungsempfindliche Oberfläche 451 in 4B) detektiert wird, während der Cursor über einem speziellen Benutzerschnittstellenelement ist (z. B. einer Taste, Fenster, Schieber oder anderem Benutzerschnittstellenelement), wird das spezielle Benutzerschnittstellenelement gemäß der detektierten Eingabe angepasst. In einigen Implementierungen, welche einen Touchscreen umfassen (z. B. das berührungsempfindliche Anzeigesystem 112 in 1A oder den Touchscreen 112 in 4A), welche direkte Interaktion mit Benutzerschnittstellenelementen auf dem Touchscreen ermöglicht, agiert ein detektierter Kontakt auf dem Touchscreen als ein ”Fokusauswähler”, so dass, wenn eine Eingabe (z. B. eine Druckeingabe durch den Kontakt) auf dem Touchscreen an einem Ort eines speziellen Benutzerschnittstellenelements detektiert wird (z. B. eine Taste, Fenster, Schieber oder anderes Benutzerschnittstellenelement), wird das spezielle Benutzerschnittstellenelement gemäß der detektierten Eingabe angepasst. In einigen Implementierungen wird der Fokus von einer Region einer Benutzerschnittstelle zu einer anderen Region der Benutzerschnittstelle bewegt, ohne entsprechende Bewegung eines Cursors oder Bewegung eines Kontakts auf einem Touchscreen (z. B. durch Verwenden eines Tab-Keys oder File-Keys zum Bewegen des Fokus von einer Taste zu einer anderen Taste); in diesen Implementierungen bewegt sich der Fokusauswähler gemäß der Bewegung des Fokus zwischen unterschiedlichen Regionen der Benutzerschnittstelle. Unabhängig von der spezifischen Form, welche durch den Fokusauswähler angenommen wird, ist der Fokusauswähler im Allgemeinen das Benutzerschnittstellenelement (oder Kontakt auf dem Touchscreen), welches durch den Benutzer gesteuert wird, um die beabsichtigte Interaktion des Benutzers mit der Benutzerschnittstelle zu kommunizieren (z. B. durch Anzeigen an die Vorrichtung des Elements der Benutzerschnittstelle, mit welchem der Benutzer beabsichtigt zu interagieren). Zum Beispiel wird der Ort eines Fokusauswählers (z. B. ein Cursor, ein Kontakt oder eine Auswahlbox) über eine jeweilige Taste, während eine Druckeingabe auf der berührungsempfindlichen Oberfläche (z. B. einem Touchpad oder einem Touchscreen) detektiert wird, anzeigen, dass der Benutzer beabsichtigt, die jeweilige Taste zu aktivieren (im Gegensatz zu anderen Benutzerschnittstellenelementen, welche auf einer Anzeige der Vorrichtung gezeigt sind).
  • Die 5A veranschaulicht ein Blockdiagramm einer Betriebsumgebung 500 in Übereinstimmung mit einigen Ausführungsformen. Die Betriebsumgebung 500 beinhaltet einen Server 510, einen oder mehrere Kommunikationsnetzwerke 505, eine tragbare Multifunktionsvorrichtung 100 und externe Informations-Präsentationssysteme 540. In einigen Ausführungsformen ist das externe Informations-Präsentationssystem 540 ein Unterhaltungs- und/oder Navigationssystem, das in einem Fahrzeug implementiert ist. In einigen Ausführungsformen beinhaltet das externe Informations-Präsentationssystem 540 eine oder mehrere Anzeigen. In einigen Ausführungsformen beinhaltet ein Fahrzeug eine Vielzahl von externen Informations-Präsentationssystemen 540, die kommunikativ mit der Vorrichtung 100 in der Betriebsumgebung 500 gekoppelt sind, jede mit einer entsprechenden Anzeige.
  • Der Server 510 beinhaltet typischerweise einen oder mehrere Verarbeitungseinheiten (CPUs) 512 für Ausführungsmodule, Programme und/oder Befehle, die in dem Speicher 524 gespeichert sind, und dadurch Verarbeitungshandlungen ausführend, eines oder mehrere Netzwerke oder andere Kommunikationsschnittstellen 520, Speicher 524 und eine oder mehrere Kommunikationsbusse 522 zum Verbinden dieser Komponenten. Die Kommunikationsbusse 522 beinhalten optional eine Schaltung (manchmal als ein Chipset bezeichnet), die Kommunikationen zwischen den Systemkomponenten verbindet und steuert. Der Speicher 524 beinhaltet einen Hochgeschwindigkeitszufalls-Zugriffspeicher, wie z. B. DRAM, SRAM, DDR RAM oder andere Zufallszugriffs-Festkörperspeichervorrichtungen und kann nichtflüchtigen Speicher beinhalten, wie z. B. eine oder mehrere magnetische Diskettenspeichervorrichtungen, optische Diskettenspeichervorrichtungen, Flash-Speichervorrichtungen oder andere nichtflüchtige Festkörperspeichervorrichtungen. Der Speicher 524 beinhaltet optional eine oder mehrere Speichervorrichtungen, die entfernt von der/den CPU(s) 512 angeordnet ist/sind. Der Speicher 524 oder alternativ der/die nichtflüchtige(n) Speichervorrichtung(en) innerhalb des Speichers 524 umfasst ein nichtflüchtiges computerlesbares Speichermedium. In einigen Ausführungsformen speichert der Speicher 524 oder das computerlesbare Speichermedium des Speichers 524 die folgenden Programme, Module und Datenstrukturen oder einen Untersatz davon:
    • • ein Betriebssystem 526, das Verfahren zum Behandeln verschiedener grundlegender Systemdienste und zum Ausführen hardwareabhängiger Aufgaben beinhaltet; und
    • • ein Netzwerk-Kommunikationsmodul 528, das zum Verbinden (drahtgebunden oder drahtlos) des Servers 510 mit anderen Rechenvorrichtungen über die eine oder die mehreren Kommunikationsnetzwerk-Schnittstellen 520 und das eine oder die mehreren Kommunikationsnetzwerke 505 verwendet wird, wie z. B. das Internet, andere Weitverbund-Netzwerke, lokale Netzwerke, Stadt-Netzwerke, usw.
  • Die tragbare Multifunktionsvorrichtung 100 (hierin auch manchmal als ”Vorrichtung 100” bezeichnet) beinhaltet typischerweise die Komponenten, wie sie mit Bezug zu den 1A bis 1B und/oder 3 beschrieben worden sind.
  • Das externe Informations-Präsentationssystem 540 (hierin ebenso manchmal als ”System 540” bezeichnet) beinhaltet typischerweise eine oder mehrere Verarbeitungseinheiten (CPUs) 542 zum Ausführen von Modulen, Programmen und/oder Befehlen, die im Speicher 554 gespeichert sind, und dadurch Verarbeitungshandlungen ausführend, eines oder mehrere Netzwerke oder andere Kommunikationsschnittstellen 550, Speicher 554 und einen oder mehrere Kommunikationsbusse 552 zum Verbinden dieser Komponenten. Das externe Informations-Präsentationssystem 540 beinhaltet optional eine Benutzerschnittstelle 544, die eine oder mehrere Anzeigevorrichtungen 546 und eine Vielzahl von Steuerungen 548 beinhaltet (z. B. Drehschalter, Drehknöpfe, Knöpfe, Schalter, eine berührungsempfindliche Oberfläche, wie z. B. einen Touchscreen oder andere Eingabequellen). In einigen Ausführungsformen beinhaltet/beinhalten die eine oder die mehreren Anzeigen 546 eine primäre Anzeige 546-1 (z. B. eine Instrumententafel oder eine Fahrzeugnavigationsanzeige) und eine zusätzliche Anzeige 546-2 (z. B. eine Rücksitz- oder Unterhaltungsanzeige). In einigen Ausführungsformen ist eine entsprechende Anzeige der einen oder der mehreren Anzeigen 546 eine Touchscreen-Anzeige, die fähig ist, Berührungseingaben des Benutzers zu empfangen (z. B. Erkennen von Fingerkontakten und Gesten, die der Erkennung und Bewegung von Fingerkontakten entsprechen). In einigen Ausführungsformen ist eine entsprechende Anzeige der einen oder der mehreren Anzeigen 546 mit einer oder mehreren Steuerungen der Vielzahl von Steuerungen 548 verknüpft (z. B. Drehschalter, Drehknöpfe, Knöpfe, Schalter, eine berührungsempfindliche Oberfläche, wie z. B. einen Touchscreen oder andere Eingabequellen). Die Kommunikationsbusse 552 beinhalten optional eine Schaltung (manchmal als ein Chipset bezeichnet), die Kommunikationen zwischen den Systemkomponenten verbindet und steuert. Der Speicher 554 beinhaltet Hochgeschwindigkeits-Zufallszugriffsspeicher, wie z. B. DRAM, SRAM, DDR RAM oder andere Zufallszugriffs-Festkörperspeichervorrichtungen und beinhaltet optional nichtflüchtigen Speicher, wie z. B. eine oder mehrere magnetische Diskettenspeichervorrichtungen, optische Diskettenspeichervorrichtungen, Flash-Speichervorrichtungen oder andere nichtflüchtige Festkörperspeichervorrichtungen. Der Speicher 554 beinhaltet optional eine oder mehrere Speichervorrichtungen, die entfernt von der/den CPU(s) 542 angeordnet sind. Der Speicher 552 oder alternativ die nichtflüchtige(n) Speichervorrichtung(en) innerhalb des Speichers 552 umfassen ein nichtflüchtiges computerlesbares Speichermedium. In einigen Ausführungsformen speichert der Speicher 552 oder das computerlesbare Speichermedium des Speichers 552 die folgenden Programme, Module und Datenstrukturen oder einen Untersatz davon:
    • • ein Betriebssystem 556, das Verfahren zum Behandeln verschiedener grundlegender Systemdienste und zum Ausführen von hardwareabhängigen Aufgaben beinhaltet; und
    • • ein Netzwerk-Kommunikationsmodul 558, das zum Verbinden (drahtgebunden oder drahtlos) des Servers 540 mit anderen Rechenvorrichtungen über die eine oder die mehreren Kommunikationsnetzwerk-Schnittstellen 550 und das eine oder die mehreren Kommunikationsnetzwerke 505 verwendet wird, wie z. B. das Internet, andere Weitverbund-Netzwerke, lokale Netzwerke, Stadt-Netzwerke, usw.
  • In einigen Ausführungsformen steuert die Vorrichtung 100 die eine oder die mehreren Anzeigen 546 des Systems 540 an. Zum Beispiel sendet die Vorrichtung 100 ein Videosignal an das System 540 und die CPU 542 des Systems 540 rendert das Videosignal auf die eine oder die mehreren Anzeigen 546. In einigen Ausführungsformen sendet die Vorrichtung 100 ein Videosignal direkt an die eine oder die mehreren Anzeigen 546 und die CPU 542 wird nicht verwendet, um das Videosignal zu rendern (z. B. verwendet die Vorrichtung 100 die Anzeige 546 als eine zusätzliche Anzeige). In einigen Ausführungsformen ist die Benutzerschnittstelle, die auf dem Touchscreen 112 der Vorrichtung 100 angezeigt wird, mit der Benutzerschnittstelle synchronisiert, die auf der einen oder den mehreren Anzeigen 546 des Systems 540 angezeigt werden, und in einigen Ausführungsformen ist die Benutzerschnittstelle, die auf dem Touchscreen 112 der Vorrichtung 100 angezeigt wird, nicht fortlaufend mit der Benutzerschnittstelle synchronisiert, die auf der einen oder den mehreren Anzeigen 546 des Systems 540 angezeigt wird, und zuweilen (z. B. während ein Benutzer der Vorrichtung 100 Informationen über mögliche Pfadziele betrachtet, aber noch kein Fahrtziel ausgewählt hat) zeigt der Touchscreen 112 der Vorrichtung 100 unterschiedliche Informationen von denen an, die auf der Anzeige 546 des Systems 540 angezeigt wird (z. B. sind der Touchscreen 112 und die Anzeige 546 periodisch synchronisiert mit Perioden zwischen den periodischen Synchronisationsereignissen, während derer sie nicht synchronisiert sind).
  • In einigen Ausführungsformen, in Antwort auf das Erkennen einer Benutzereingabe (z. B. einer Berührungseingabe des Benutzers, die mit einer entsprechenden Anzeige der einen oder der mehreren Anzeigen 546 verknüpft ist oder einer Benutzereingabe, die mit einer entsprechenden Steuerung der Vielzahl von Steuerungen 548 verknüpft ist), sendet das System 540 (oder die entsprechende Anzeige der einen oder der mehreren Anzeigen 546 oder die entsprechende Steuerung der Vielzahl von Steuerungen 548) Eingabeinformationen (z. B. einen Identifikator für die Eingabequelle und eine Eingabebeschreibung, die die Benutzereingabe beschreibt), die der Benutzereingabe entsprechen, an die Vorrichtung 100. Im Gegenzug aktualisiert die Vorrichtung 100 die Benutzerschnittstelle, die auf der entsprechenden Anzeige der einen oder der mehreren Anzeigen 546 angezeigt wird, und/oder den Touchscreen 112 der Vorrichtung 100 in Übereinstimmung mit der empfangenen Eingabeinformation, und/oder dem Anzeigezustand der Benutzerschnittstelle, die auf der entsprechenden Anzeige der einen oder der mehreren Anzeigen 546 während oder vor der Benutzereingabe angezeigt wird.
  • 5B ist ein Flussdiagramm, das ein Verfahren zum Auswählen einer betroffenen Anzeige und zum Senden von Aktualisierungsinformationen an die betroffene Anzeige veranschaulicht. Die betroffene Anzeige (z. B. die primäre Anzeige 546-1) zeigt (560) eine Benutzerschnittstelle an. Eine entsprechende Eingabequelle (z. B. der Drehschalter 675, der in den 6W bis 6FF gezeigt wird), d. h. eine Steuerung des Systems 540, erkennt (561) eine Benutzereingabe (z. B. ein Drehen des Drehschalters 675). In einigen Ausführungsformen ist die entsprechende Eingabequelle eine von den Steuerungen 548 und die Benutzereingabe ist eine Interaktion mit einer der Steuerungen 548. Zum Beispiel beinhalten die Steuerungen 548 Knöpfe, Schalter, Drehschalter, Drehknöpfe, andere mechanische Affordanzen, berührungsempfindliche Oberflächen oder andere Eingabequellen. Zum Beispiel ist die Benutzereingabe eine Drehung eines Drehknopfes oder Drehschalters, ein Herunterdrücken einer Affordanz oder eines Drehknopfes, eine Berührungseingabe, die auf einer berührungsempfindlichen Oberfläche oder einem Touchscreen erkannt wird, oder andere Benutzerinteraktionen mit Steuerungen 548.
  • In Antwort auf das Erkennen der Benutzereingabe sendet (562) die entsprechende Eingabequelle Eingabeinformationen (z. B. {Quellen-ID; Eingabebeschreibung}) an die Vorrichtung 100. In einigen Ausführungsformen beinhaltet die Eingabeinformation einen eindeutigen Identifikator für die Eingabequelle und Eingabebeschreibungsinformationen, die die Benutzereingabe beschreiben. Zum Beispiel sind die Eingabebeschreibungsinformationen rohe Eingabedaten, wie z. B. die Größenordnung und Richtung einer Drehung eines Drehschalters, Kontaktorte und Bewegungsmengen/Richtungen, die auf einer berührungsempfindlichen Oberfläche erkannt worden sind und/oder Gestendaten, die eine Art von Geste beschreiben, die auf der berührungsempfindlichen Oberfläche ausgeführt worden ist.
  • Die Vorrichtung 100 empfängt (564) die Eingabeinformationen von der entsprechenden Eingabequelle. Die Vorrichtung 100 wählt eine betroffene Anzeige aus, indem sie den eindeutigen Identifikator (z. B. die Quellen-ID), die in der Eingabeinformation beinhaltet ist, auf ein Anzeigeidentifikator-Tag (z. B. eine Anzeige-ID) bezieht, die zumindest zum Teil auf der Eingabequellen-Abbildung 566 basiert. In einigen Ausführungsformen ist die Eingabequellen-Abbildung 566 im Speicher der Vorrichtung 100 gespeichert. Zum Beispiel verknüpft die Vorrichtung 100 die Rotation des Drehschalters 675 mit einer ersten Anzeige (z. B. Anzeige 546-1 in 6W bis 6CC) auf der Grundlage einer Eingabequellen-Abbildung 566, wenn der Drehschalter 675 mit der ersten Anzeige verknüpft ist. Alternativ, wenn der Drehschalter 675 mit einer zweiten Anzeige (z. B. Anzeige 546-2 in 6DD bis 6FF) verknüpft ist, verknüpft die Vorrichtung 100 die Drehung des Drehschalters 675 mit der zweiten Anzeige. In einigen Ausführungsformen werden mehrere Eingabequellen auf dieselbe Anzeige abgebildet. In einigen Ausführungsformen wird jedoch jede Eingabequelle auch nicht mehr als eine einzige Anzeige abgebildet. In einigen Ausführungsformen wird die Eingabequellen-Abbildung 566 durch die Vorrichtung 100 in Antwort auf ein Erkennen von Eingabequellen-Abbildungs-Aktualisierungsereignissen aktualisiert (z. B. ein Fahrzeug, das mit der ersten Anzeige verknüpft ist, das beginnt, rückwärts zu fahren und die Steuerung der ersten Anzeige übernimmt, oder eine Eingabe, die einen Drehschalter mit der zweiten Anzeige anstelle von der ersten Anzeige verknüpft) und/oder in Übereinstimmung mit einer vorbestimmten Planung.
  • Nach dem Auswählen der betroffenen Anzeige bestimmt die Vorrichtung 100 einen entsprechenden Zustand der Benutzerschnittstelle, die auf der betroffenen Anzeige angezeigt wird, indem sie die Anzeigen-ID (bestimmt auf der Grundlage der Eingabequellen-Abbildung 566) für die betroffene Anzeige auf die Anzeige-Zustandsinformationen bezieht (z. B. was für eine Art von Benutzerschnittstelle auf der Anzeige angezeigt wird, was für Benutzerschnittstellen angezeigt werden und/oder welche Steuerungen mit welchen Funktionen, wie z. B. Lautstärkesteuerungen oder Scrollen, verknüpft sind) auf der Grundlage zumindest zum Teil auf der Benutzerschnittstellen-Zustandstabelle 568. In einigen Ausführungsformen ist die Benutzerschnittstellen-Zustandstabelle 568 im Speicher der Vorrichtung 100 gespeichert. Nach dem Bestimmen des jeweiligen Zustands der Benutzerschnittstelle, die auf der betroffenen Anzeige angezeigt wird, erzeugt (570) die Vorrichtung 100 eine aktualisierte Benutzerschnittstelle für die betroffene Anzeige in Übereinstimmung mit dem entsprechenden Zustand der Benutzerschnittstelle, die auf der betroffenen Anzeige angezeigt wird, und den Eingabebeschreibungsinformationen, und die Vorrichtung 100 sendet die aktualisierte Benutzerschnittstelle (oder Informationen zum Erzeugen einer aktualisierten Benutzerschnittstelle) an die betroffene Anzeige. In einigen Ausführungsformen aktualisiert die Vorrichtung 100 ebenso die Benutzerschnittstellen-Zustandstabelle 568, so dass die Zustandsinformationen, die mit der Anzeigen-ID verknüpft sind, die der betroffenen Anzeige entsprechen, die aktualisierte Benutzerschnittstelle wiedergeben (z. B. zur Verwendung im Antworten auf nachfolgende Eingabeinformationen, die von der Eingabequelle empfangen werden).
  • In Antwort auf das Empfangen der aktualisierten Benutzerschnittstelle (z. B. Aktualisierungsinformationen) von der Vorrichtung 100 aktualisiert (574) die betroffene Anzeige die Benutzerschnittstelle, die auf der betroffenen Anzeige angezeigt wird, um so die aktualisierte Benutzerschnittstelle anzuzeigen (z. B. durch Ersetzen eines Bildes einer Benutzerschnittstelle, die zuvor durch die Vorrichtung 100 bereitgestellt wurde, mit einem aktualisierten Bild der Benutzerschnittstelle, die von der Vorrichtung 100 in den Aktualisierungsinformationen bereitgestellt wird).
  • Benutzerschnittstelle und verknüpfte Verfahren
  • Die Aufmerksamkeit wird nun auf die Ausführungsformen der Benutzerschnittstellen (”UI”) und verknüpfte Verfahren gerichtet, die auf einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche implementiert werden können, wie z. B. die Vorrichtungen 300 oder die tragbare Multifunktionsvorrichtung 100.
  • Die 6A bis 6V veranschaulichen beispielhafte Benutzerschnittstellen zum Synchronisieren zweier oder mehrerer Anzeigen in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden verwendet, um die Verfahren, die nachfolgend beschrieben werden, zu veranschaulichen, einschließlich der Verfahren in den 7A bis 7D und 8A bis 8B.
  • Die 6A veranschaulicht die Benutzerschnittstelle 602, die auf einem Touchscreen 112 einer tragbaren Multifunktionsvorrichtung 100 (hierin ebenso manchmal als ”Vorrichtung 100” bezeichnet) anzeigt wird. Die Benutzerschnittstelle 602 beinhaltet eine Vielzahl von Benutzerschnittstellen-Objekten (z. B. Anwendungs-Icons 424, 426, 428, 430, 434, 436, 438, 446, 416, 418, 420 und 422). 6A veranschaulicht ebenso das Erkennen der Benutzerberührungseingabe 606 über dem Kartenanwendungs-Icon 436 auf dem Touchscreen 112.
  • Die 6A veranschaulicht weiterhin die Benutzerschnittstelle 604, die auf einer Anzeige 546-1 des externen Informations-Präsentationssystems 540 (hierin ebenso manchmal als ”System 540” bezeichnet) angezeigt wird. In einigen Ausführungsformen ist das System 540 in einem Fahrzeug (z. B. in dem Armaturenbrett oder dem Lenkrad des Fahrzeugs) beinhaltet. In einigen Ausführungsformen ist die Anzeige 546-1 eine primäre Anzeige einer Vielzahl von Anzeigen, die mit dem System 540 verknüpft sind. In einigen Ausführungsformen ist die Anzeige 546-1 in dem Armaturenbrett des Fahrzeugs implementiert und ist optisch zugänglich für den Fahrer und/oder Passagier des Fahrzeugs. In einigen Ausführungsformen ist die Anzeige 546-1 eine Touchscreen-Anzeige, die eingerichtet ist, um eine oder mehrere Benutzereingaben zu erkennen. 6A veranschaulicht die Anzeige 546-1, die eine Vielzahl von Klimasteuerungen in der Benutzerschnittstelle 604 anzeigt, einschließlich der Außentemperatur (z. B. 82°), die Temperatur im Fahrerbereich des Fahrzeugs (z. B. 70°), die Temperatur im Beifahrerbereich des Fahrzeugs (z. B. 75°), die Stärke des Ventilators im Fahrerbereich des Fahrzeugs (z. B. 2 auf einer Skala von 0–10) und die Stärke des Ventilators im Beifahrerbereich des Fahrzeugs (z. B. 5 auf einer Skala von 0–10). 6A veranschaulicht auch die Anzeige 546-1, die eine Vielzahl von Benutzerschnittstellen-Objekten anzeigt (hierin manchmal als ”Affordanzen” oder ”auswählbare Benutzerschnittstellen-Objekte” bezeichnet), die befähigt sind, die Temperatur in einem entsprechenden Bereich des Fahrzeugs anzupassen (z. B. Affordanzen 603a, 603b, 603c und 603d), eine Vielzahl von Benutzerschnittstellen-Objekten, die befähigt sind, die Stärke der Ventilatoren in einem bestimmten Bereich des Fahrzeugs anzupassen (z. B. Affordanzen 603e, 603f, 603g und 603h) und eine Vielzahl von Benutzerschnittstellen-Objekten, die befähigt sind, andere Fahrzeugklimasteuereinstellungen anzupassen (z. B. Affordanzen 605a, die sich auf die Klimaanlage bezieht, 605b, die sich auf das Enteisen der Windschutzscheibe bezieht, 605c, die sich auf das Enteisen der Heckscheibe bezieht, und 605d, die sich auf die automatische Klimasteuerung bezieht). 6A veranschaulicht weiterhin eine Vielzahl von mechanischen Affordanzen, die eingerichtet sind, zum Steuern der Lautstärke des Soundsystems des Fahrzeugs oder zum Scrollen eines oder mehrerer Benutzerschnittstellen-Objekte auf der Anzeige 546-1 (z. B. Drehknopf oder Drehschalter 607c) und des Radioempfängers des Fahrzeugs (z. B. Affordanzen 607a, 607b, 607d und 607e).
  • Die 6B veranschaulicht den Touchscreen 112, der den aktuellen Standort 608a einer Vorrichtung 100 in einer Kartenanwendung in der Benutzerschnittstelle 602 des Touchscreen 112 anzeigt, in Antwort auf das Erkennen einer Benutzerberührungseingabe 606 über dem Kartenanwendungs-Icon 436 in 6A. In einigen Ausführungsformen entspricht das Erkennen einer Benutzerberührungseingabe über einer entsprechenden Affordanz dem Erkennen einer Tippgeste auf die entsprechende Affordanz, wobei die Tippgeste ein Erkennen eines Kontakts an einer Stelle beinhaltet, die der entsprechenden Affordanz entspricht und ein Erkennen eines Anhebens des Kontakts innerhalb einer vorbestimmten Zeitspanne (z. B. 0,05, 0,1, 0,2, 0,3, 0,4 oder 0,5 Sekunden). In einigen Ausführungsformen ist die Karte, die auf der Benutzerschnittstelle 602 angezeigt wird, nicht maßstabsgetreu. Die 6B veranschaulicht außerdem das Erkennen einer Benutzerberührungseingabe 610 über dem Suchfeld 609 auf dem Touchscreen 112.
  • Die 6B veranschaulicht weiterhin Anzeigen auf der Anzeige 546-1 eines aktuellen Standorts 608 der Vorrichtung 100 auf einer Karte, die in der Benutzerschnittstelle 604 angezeigt wird, in Antwort auf das Erkennen einer Benutzerberührungseingabe 606 über dem Kartenanwendungs-Icon 436 in 6A. In einigen Ausführungsformen ist die Karte, die in der Benutzerschnittstelle 604 angezeigt wird, nicht maßstabsgetreu. Die Affordanz 612, die ebenso in der Benutzerschnittstelle 604 angezeigt wird, wenn sie aktiviert ist, veranlasst die Vorrichtung einen digitalen Assistenten aufzurufen (z. B. Siri von Apple Inc. aus Cupertino, Kalifornien). 6B veranschaulicht ebenso den Kompass 611, der die Ausrichtung der Karte angibt, die auf der Benutzerschnittstelle 604 angezeigt wird (z. B. ist die Karte mit dem oberen Ende der Anzeige 546-1 ausgerichtet, welche Norden entspricht). In einigen Ausführungsformen ist die Schriftgröße von Informationen, die in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt werden, größer als die Schriftgröße von Informationen, die in der Benutzerschnittstelle 602 des Touchscreens 112 angezeigt werden. Zum Beispiel, wenn sich das System 540 in einem Fahrzeug befindet, wird der Text auf der Anzeige 546-1 erzeugt, um größer zu sein als auf dem Touchscreen 112 der Vorrichtung 100, um größere Lesbarkeit zu ermöglichen, während der Fahrer und die Beifahrer des Fahrzeugs eine Armlänge entfernt sind von der Anzeige 546-1.
  • Die 6C veranschaulicht das Anzeigen einer Eingabe einer Benutzersuchanfrage (z. B. Reinigung) in Suchfeld 609 der Benutzerschnittstelle 602. In einem Beispiel gibt der Benutzer manuell die Suchanfrage mit einer virtuellen Tastatur in die Benutzerschnittstelle 602 der Vorrichtung 100 ein. In einem anderen Beispiel ist die Suchanfrage eine Spracheingabe, die von dem Benutzer der Vorrichtung 100 empfangen worden ist. 6C veranschaulicht weiterhin das Aufrechterhalten einer Anzeige der Benutzerschnittstelle 604 der 6B auf der Anzeige 546-1.
  • Die 6D veranschaulicht das Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit den Reinigungen verknüpft sind, die durch die Pins 614a und 614b dargestellt werden, die sich in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 befinden, in der Benutzerschnittstelle 602 in Antwort auf die Eingabe der Suchanfrage in 6C. In einigen Ausführungsformen wird ein Suchergebnis (oder eine Einrichtung), die der Benutzeranfrage entspricht, automatisch ausgewählt (z. B. ABC Cleaners) auf der Grundlage der Nähe, der Bewertungen der Einrichtungen, der Menge an Beurteilungen, der Häufigkeit, mit der der Benutzer die Einrichtung besucht hat und/oder anderen Faktoren. In 6D wird das Informationsfeld 613, welches der automatisch ausgewählten Reinigung entspricht, die durch Pin 614a dargestellt wird, ebenso in der Benutzerschnittstelle 602 angezeigt. Das Informationsfeld 613 beinhaltet den Namen der Reinigungseinrichtung (z. B. ABC Cleaners), die Bewertung der Einrichtung (z. B. 3 von 5 Sternen), die Anzahl von Benutzerbeurteilungen der Einrichtung (z. B. 100 Beurteilungen) und Affordanz 613a, die eingerichtet ist, um zusätzliche Informationen anzuzeigen, die der Einrichtung entsprechen. In einigen Ausführungsformen veranlasst das Informationsfeld 613, wenn es aktiviert ist, die Vorrichtung zusätzliche Informationen anzuzeigen, die der Einrichtung entsprechen, in Antwort auf eine Benutzerberührungseingabe irgendwo im Informationsfeld 613. In anderen Ausführungsformen veranlasst das Informationsfeld 613, wenn es aktiviert wird, die Vorrichtung zusätzliche Informationen anzuzeigen, die der Einrichtung entsprechen, in Antwort auf eine Benutzerberührungseingabe über die Affordanz 613a. Die 6D veranschaulicht ebenso das Erkennen der Benutzerberührungseingabe 615 über die Affordanz 613a auf dem Touchscreen 112.
  • Die 6D veranschaulicht weiterhin Anzeigen einer vorgeschlagenen Route 616 von dem aktuellen Standort 608 der Vorrichtung 100 zu dem automatisch ausgewählten Suchergebnis (z. B. der Reinigung, die durch Pin 614a dargestellt wird, die ABC Cleaners entspricht) in Benutzerschnittstelle 604 in Antwort auf die Eingabe der Suchanfrage in 6C.
  • In 6D beinhaltet die Benutzerschnittstelle 604 die Route 616, das Feld 617 für die detaillierte Wegbeschreibung, die die erste Richtung (oder das Abbiegen) des Benutzers auf der Route 616 anzeigt und den Namen des Ziels (z. B. ABC Cleaners) und ”Starte Wegbeschreibung”-Affordanz 618, die eingerichtet ist, um den Detaillierte-Wegbeschreibungs-Modus zu starten, in welchem die Vorrichtung die detaillierte Wegbeschreibung zu ABC Cleaners bereitstellen würde unter Verwendung optischen und/oder gesprochener Aufforderungen. 6D veranschaulicht auch den Kompass 611, der die Ausrichtung der Karte, die in der Benutzerschnittstelle 604 angezeigt wird, angibt (z. B. ist die Karte mit dem oberen Ende der Anzeige 546-1 ausgerichtet, welche Süden entspricht, so dass die Richtung, in die das Fahrzeug durch die detaillierte Wegbeschreibung angewiesen ist zu fahren, in Richtung eines oberen Endes der Anzeige 546-1 ausgerichtet ist).
  • Die 6E veranschaulicht das Anzeigen von zusätzlichen Informationen in der Benutzerschnittstelle 602, die ABC Cleaners entsprechen, in Antwort auf das Erkennen der Benutzerberührungseingabe 615 über die Affordanz 613a in 6D. In 6E beinhaltet die Benutzerschnittstelle 602 Informationen, die die Öffnungszeiten von ABC Cleaners, die Homepage (oder Website) von ABC Cleaners, die Telefonnummer für ABC Cleaners und die Adresse für ABC Cleaners identifizieren. In 6E beinhaltet die Benutzerschnittstelle 602 ebenso die Affordanz 619, die eingerichtet ist, um die Wegbeschreibung von dem aktuellen Standort der Vorrichtung zu ABC Cleaners anzuzeigen und die Affordanz 620, die eingerichtet ist, um die Wegbeschreibung von ABC Cleaners zu dem aktuellen Standort der Vorrichtung anzuzeigen. 6E veranschaulicht ebenso das Erkennen einer Benutzerberührungseingabe 621 über die Affordanz 619 auf Touchscreen 112. 6E veranschaulicht weiterhin das Aufrechterhalten einer Anzeige von Benutzerschnittstelle 604 der 6D auf der Anzeige 546-1.
  • 6F veranschaulicht das Anzeigen einer Schnittstelle in der Benutzerschnittstelle 602 zum Eingeben eines Startpunktes und eines Endpunktes für eine Route in Antwort auf das Erkennen der Benutzerberührungseingabe 621 über der Affordanz 619 auf den Touchscreen 112 in 6E. In 6F beinhaltet die Benutzerschnittstelle 602 die Adresse des Startpunktes der Route in dem Feld 622a (z. B. den aktuellen Standort der Vorrichtung 100) und die Adresse des Endpunktes der Route in dem Feld 622b (z. B. ABC Cleaners, 1660 40th Avenue, San Francisco, CA). In 6F sind das Feld 622a und/oder das Feld 622b fähig mit der virtuellen Tastatur 624 bearbeitet zu werden, wie in der Benutzerschnittstelle 602 angezeigt wird, oder alternativ mit einer Spracheingabe. Die Affordanz 622c, wenn sie aktiviert ist, veranlasst die Vorrichtung den Ort, der im Feld 622a eingegeben ist, mit dem Ort im Feld 622b zu ersetzen und den Ort, der im Feld 622b eingegeben ist, mit dem Ort im Feld 622a zu ersetzen. In 6F beinhaltet die Benutzerschnittstelle 602 auswählbare Routen 623 von dem aktuellen Standort der Vorrichtung 100 zu zuvor eingegebenen Zielen. In 6F beinhaltet die Benutzerschnittstelle 602 weiterhin die Affordanzen 627a, 627b und 627c, die eingerichtet sind, um unterschiedliche Verkehrsmittel für die Routenberechnung auszuwählen. Zum Beispiel ist in 6F aktuell ”gehen” als Verkehrsmittel ausgewählt, wie es durch den hervorgehobenen Rahmen um die Affordanz 627b herum angezeigt wird. 6F veranschaulicht ebenso das Anzeigen einer ”Route”-Affordanz 626a, die eingerichtet ist, um eine oder mehrere Routen von dem Startpunkt im Feld 622a zu dem Endpunkt im Feld 622b zu berechnen und eine ”Abbrechen”-Affordanz 626b, die eingerichtet ist, um die Orte, die in den Feldern 622a und 622b eingegebenen sind, zu löschen oder um die Benutzerschnittstelle 602, die in 6D angezeigt wird, erneut anzuzeigen. 6F veranschaulicht weiterhin das Erkennen einer Benutzerberührungseingabe 628 über der ”Route”-Affordanz 626a auf dem Touchscreen 112. 6F veranschaulicht weiterhin das Aufrechterhalten einer Anzeige der Benutzerschnittstelle 604 von der 6D auf der Anzeige 546-1.
  • Die 6G veranschaulicht das Anzeigen zweier vorgeschlagener Routen von dem aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614a dargestellt wird, in der Benutzerschnittstelle 602 in Antwort auf das Erkennen der Benutzerberührungseingabe 628 über der ”Routen”-Affordanz 626a auf dem Touchscreen 112 in 6F. In 6G zeigt das Dialogfeld 629 an, dass die aktuell ausgewählte, erste von zwei vorgeschlagenen Routen 10 Minuten dauern wird und der Benutzer 0,2 Meilen von dem aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614a dargestellt wird, laufen muss. In 6G ist die erste Route 631a in der Benutzerschnittstelle 602 hervorgehoben und ”Route 1”-Affordanz 631b, wenn aktiviert, veranlasst die Vorrichtung, die Route 631a auszuwählen (und hervorzuheben). In 6G ist die Route 631a, die in der Benutzerschnittstelle 602 angezeigt wird, dieselbe, wie Route 616, die in der Benutzerschnittstelle 604 angezeigt wird, aber mit einer unterschiedlichen Ausrichtung. 6G veranschaulicht ebenso das Anzeigen der Route 632a in der Benutzerschnittstelle 602 und die ”Route 2”-Affordanz 632b ist eingerichtet, um die Route 632a auszuwählen (und hervorzuheben). In 6G veranlasst die ”Start”-Affordanz 630a, wenn aktiviert, die Vorrichtung die detaillierte Wegbeschreibung zu der aktuell ausgewählten (oder hervorgehobenen) Route (z. B. Route 631a) zu beginnen und die ”Löschen”-Affordanz 630b, wenn aktiviert, veranlasst die Vorrichtung die angezeigten Routen (z. B. Routen 631a und 632a) von der Benutzerschnittstelle 602 zu löschen und das Suchfeld 609 in der Benutzerschnittstelle 602 anzuzeigen. 6G veranschaulicht weiterhin ein Erkennen einer Benutzerberührungseingabe 633 über der ”Start”-Affordanz 630a auf Touchscreen 112. 6G veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Benutzerschnittstelle 604 der 6D auf der Anzeige 546-1. In einigen Ausführungsformen, wenn die Vorrichtung 100 mit der Anzeige 546-1 verbunden wird, und die Anzeige 546-1 eine Fahrzeuganzeige ist, zeigt die Vorrichtung 100 Fahrtwegbeschreibungen anstelle von Geh-Wegbeschreibungen sowohl auf dem Touchscreen 112 als auch der Anzeige 546-1 an.
  • Die 6H veranschaulicht ein Anzeigen des detaillierten Wegbeschreibungsfeldes 634, welches die erste Richtung (oder das erste Abbiegen) der Route 631a und den Namen des Ziels (z. B. ABC Cleaners) in der Benutzerschnittstelle 602 angibt in Antwort auf das Erkennen der Benutzerberührungseingabe 633 über der ”Start”-Affordanz 630a in 6G. In einigen Ausführungsformen belegt das detaillierte Wegbeschreibungsfeld 634 die Gesamtheit des Touchscreens 112. 6H veranschaulicht ebenso ein Erkennen der Benutzerberührungseingabe 635 auf dem Touchscreen 112.
  • 6H veranschaulicht weiterhin ein Anzeigen eines detaillierten Wegbeschreibungsmodus auf der Benutzerschnittstelle 604 in Antwort darauf, dass die Vorrichtung 100 die Benutzerberührungseingabe 633 über der Start-Affordanz 630a in 6G erkennt. In 6H wird der aktuelle Standort der Vorrichtung 100, während sie sich im detaillierten Wegbeschreibungsmodus befindet, als Marker 636 in der Benutzerschnittstelle 604 angezeigt. In einigen Ausführungsformen ist die Karte, die in der Benutzerschnittstelle 604 angezeigt wird, im detaillierten Wegbeschreibungsmodus, der in 6H angezeigt wird, im Vergleich zu der Karte, die in den 6D bis 6G angezeigt wird, vergrößert (z. B. die Karte, die auf dem Touchscreen 112 angezeigt wird, findet sich in einem geringeren Vergrößerungslevel als die Karte, die auf der Anzeige 546-1 angezeigt wird).
  • Die 6I veranschaulicht ein Anzeigen des Dialogfeldes 637 in der Benutzerschnittstelle 602 in Antwort auf ein Erkennen der Benutzerberührungseingabe 635 auf dem Touchscreen 112 in 6H. In 6I beinhaltet das Dialogfeld 637 die ”Pause”-Affordanz 638a, die eingerichtet ist, um die detaillierte Wegbeschreibung anzuhalten, und die ”Zurück”-Affordanz 638b, die eingerichtet ist, um die Ergebnisse der letzten Suchanfrage anzuzeigen (z. B. Reinigungen in der Nähe des aktuellen Standorts der Vorrichtung 100) innerhalb der Kartenanwendung 436. Die 6I veranschaulicht ebenso ein Erkennen der Benutzerberührungseingabe 639 über der ”Zurück”-Affordanz 638b. 6I veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6J veranschaulicht ein Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit Reinigungen verknüpft sind, die von Pins 614a und 614b dargestellt werden, in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 in der Benutzerschnittstelle 602 (z. B. der letzten Suchanfrage in der Kartenanwendung 436 der 6C entsprechend) in Antwort auf die Benutzerberührungseingabe 639 (z. B. eine Tipp-Eingabe) über der ”Zurück”-Affordanz 638b in 6J. 6J veranschaulicht ebenso ein Erkennen einer Kneifgeste, die eine Bewegung der Kontakte 640 und 641 auf dem Touchscreen 112 beinhaltet. 6J veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6K veranschaulicht ein Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit den Reinigungen verknüpft sind, die durch Pins 614a, 614b, 614c und 614d dargestellt werden, in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 in der Benutzerschnittstelle 602 in Antwort auf ein Erkennen der Kneifgeste in 6J. Zum Beispiel wird in 6K die Karte verkleinert (z. B. bei einem niedrigeren Vergrößerungslevel angezeigt) in Antwort auf die Kneifgeste und ein größeres Gebiet der Karte wird in der Benutzerschnittstelle 602 angezeigt. 6K veranschaulicht auch ein Erkennen einer Wischgeste (manchmal hierin auch als eine ”Ziehgeste” bezeichnet) mit der Benutzerberührungseingabe 642, die sich von Position 642a zu Position 642b auf dem Touchscreen 112 bewegt. 6K veranschaulicht weiterhin ein Aufrechterhalten einer Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1 (z. B. wird die Benutzerschnittstelle 604 nicht verkleinert in Antwort auf ein Erkennen der Kneifgeste auf dem Touchscreen 112).
  • Die 6L veranschaulicht ein Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit den Reinigungen verknüpft sind, die von Pins 614a, 614b, 614c, 614e und 614f dargestellt werden, in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 in der Benutzerschnittstelle 602 in Antwort auf ein Erkennen der Wischgeste in 6K. Zum Beispiel wird die Karte in eine nordöstliche Richtung verschoben in Antwort auf die Wischgeste in 6K. 6L veranschaulicht ebenso ein Erkennen der Benutzerberührungseingabe 643 über dem Benutzerschnittstellen-Objekt (z. B. dem Pin), der mit den Reinigungen verknüpft ist, die von den Pins 614b auf dem Touchscreen 112 dargestellt werden. 6L veranschaulicht weiterhin ein Aufrechterhalten einer Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1 (z. B. wird die Benutzerschnittstelle 604 nicht gescrollt in Antwort auf das Erkennen der Wischgeste auf der Touchscreen-Anzeige 112).
  • Die 6M veranschaulicht ein Anzeigen eines Informationsfeldes 644, das der Reinigung entspricht, die durch den Pin 614b in der Benutzerschnittstelle 602 dargestellt wird, in Antwort auf ein Erkennen der Benutzerberührungseingabe 643 über dem Benutzerschnittstellen-Objekt (z. B. dem Pin), der mit den Reinigungen verknüpft ist, die durch die Pins 614b in 6L dargestellt werden. In 6M beinhaltet das Informationsfeld 644 den Namen der Reinigungseinrichtung (z. B. Mary Ann's Cleaners), die Bewertung der Einrichtung (z. B. 5 von 5 Sternen), die Anzahl von Benutzerbeurteilungen der Einrichtung (z. B. 927 Beurteilungen) und die Affordanz 644a beinhaltet optional zusätzliche Informationen, die der Einrichtung entsprechen. 6M veranschaulicht ebenso ein Erkennen der Benutzerberührungseingabe 645 über der Affordanz 644a auf dem Touchscreen 112. Die 6M veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6N veranschaulicht ein Anzeigen zusätzlicher Informationen, die Mary Ann's Cleaners in der Benutzerschnittstelle 602 entsprechen, in Antwort auf ein Erkennen der Benutzerberührungseingabe 645 über der Affordanz 644a in 6M. In 6N beinhaltet die Benutzerschnittstelle 602 Informationen, die die Öffnungszeiten von Mary Ann's Cleaners, die Homepage (oder Website) von Mary Ann's Cleaners, die Telefonnummer von Mary Ann's Cleaners und die Adresse von Mary Ann's Cleaners identifizieren. In 6N beinhaltet die Benutzerschnittstelle 602 ebenso die Affordanz 646, die eingerichtet ist, um die Wegbeschreibung von dem aktuellen Standort der Vorrichtung zu Mary Ann's Cleaners anzuzeigen und die Affordanz 647, die eingerichtet ist, um die Wegbeschreibung von Mary Ann's Cleaners zu dem aktuellen Standort der Vorrichtung anzuzeigen. 6N veranschaulicht auch ein Erkennen der Benutzerberührungseingabe 648 über die Affordanz 646 auf dem Touchscreen 112. 6N veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6O veranschaulicht ein Anzeigen einer Schnittstelle in der Benutzerschnittstelle 602 zum Eingeben eines Startpunktes und eines Endpunktes für eine Route in Antwort auf ein Erkennen der Benutzerberührungseingabe 648 über Affordanz 646 auf dem Touchscreen 112 in 6N. In 6O beinhaltet die Benutzerschnittstelle 602 die Adresse des Startpunktes der Route im Feld 649a (z. B. den aktuellen Standort der Vorrichtung 100) und die Adresse des Endpunktes der Route in Feld 649b (z. B. Mary Ann's Cleaners, 1291 Judah Street, San Francisco, CA). In 6O sind das Feld 649a und/oder das Feld 649b fähig, mit einer virtuellen Tastatur 651, die in der Benutzerschnittstelle 602 angezeigt wird, bearbeitet zu werden oder, alternativ mit einer Spracheingabe. Die Affordanz 649c, wenn aktiviert, veranlasst die Vorrichtung den Ort, der in Feld 649a eingegeben ist, mit dem Ort in Feld 649b zu ersetzen und den Ort, der in Feld 649b eingegeben ist, mit dem Ort in Feld 649a zu ersetzen. In 6O beinhaltet die Benutzerschnittstelle 602 auswählbare Routen 650 von dem aktuellen Standort der Vorrichtung zu zuvor eingegebenen Zielen. In 6O beinhaltet die Benutzerschnittstelle 602 weiterhin Affordanzen 653a, 653b und 653c, die eingerichtet sind, um unterschiedliche Verkehrsmittel für die Routenberechnung auszuwählen. Zum Beispiel ist in 6O aktuell das ”Gehen”-Verkehrsmittel ausgewählt, wie durch den hervorgehobenen Rahmen um Affordanz 653b herum gezeigt. 6O veranschaulicht ebenso ein Anzeigen einer ”Routen”-Affordanz 652a, die eingerichtet ist, um eine oder mehrere Routen von dem Startpunkt im Feld 649a zu dem Endpunkt im Feld 649b zu berechnen und eine ”Abbrechen”-Affordanz 652b, die eingerichtet ist, die Orte, die in Feldern 649a und 649b eingegeben sind, zu löschen oder um die Benutzerschnittstelle 602, die in 6M angezeigt wird, erneut anzuzeigen. Die 6O beinhaltet weiterhin ein Erkennen der Benutzerberührungseingabe 655 über der ”Routen”-Affordanz 654 (z. B. eine Affordanz, die in der virtuellen Tastatur 651 beinhaltet ist) auf dem Touchscreen 112. In einigen Ausführungsformen veranlasst die ”Routen”-Affordanz 654, wenn aktiviert, die Vorrichtung eine oder mehrere Routen von dem Startpunkt im Feld 649a zu dem Endpunkt in Feld 649b zu berechnen und/oder anzuzeigen (z. B. funktioniert die ”Routen”-Affordanz 654 ähnlich zu der ”Routen”-Affordanz 652a). Die 6O veranschaulicht weiterhin ein Aufrechterhalten einer Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6P veranschaulicht ein Anzeigen zweier vorgeschlagener Routen von dem aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b in der Benutzerschnittstelle 602 dargestellt wird, in Antwort auf ein Erkennen einer Benutzerberührungseingabe 655 über der ”Routen”-Affordanz 654 auf dem Touchscreen 112 in 6O. In 6P zeigt das Dialogfeld 656 der Benutzerschnittstelle 602 an, dass die automatisch ausgewählte erste von zwei vorgeschlagenen Routen 5 Minuten dauern wird und der Benutzer 0,4 Meilen vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die von Pin 614b dargestellt wird, laufen muss. In 6P ist die erste Route 658a in der Benutzerschnittstelle 602 hervorgehoben und die ”Route 1”-Affordanz 658b, wenn aktiviert, veranlasst die Vorrichtung, die Route 658b auszuwählen (und hervorzuheben). In 6P veranlasst die ”Start”-Affordanz 657a, wenn aktiviert, die Vorrichtung die detaillierte Wegbeschreibung zu der aktuell ausgewählten (oder hervorgehobenen) Route (z. B. 658a) zu starten, und die ”Löschen”-Affordanz 657b, wenn aktiviert, veranlasst die Vorrichtung, die angezeigten Routen (z. B. Routen 658a und 659a) von der Benutzerschnittstelle 602 zu löschen und das Suchfeld 609 in der Benutzerschnittstelle 602 anzuzeigen. Die 6P veranschaulicht weiterhin ein Erkennen der Benutzerberührungseingabe 660 über der ”Route 2”-Affordanz 659b auf dem Touchscreen 112. 6P veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6Q veranschaulicht ein Anzeigen der Route 659a (Route 2) als die ausgewählte (oder hervorgehobene) Route in Antwort auf ein Erkennen der Berührungseingabe 660 über der ”Route 2”-Affordanz 659b in 6P. In 6Q beinhaltet die Benutzerschnittstelle 602 ein Dialogfeld 656, das anzeigt, dass die zweite der zwei vorgeschlagenen Routen 6 Minuten dauern wird und der Benutzer 0,4 Meilen vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die vom Pin 614b dargestellt wird, laufen muss. Die 6Q veranschaulicht weiterhin ein Erkennen der Benutzerberührungseingabe 661 über der ”Start”-Affordanz 657a auf dem Touchscreen 112. 6Q veranschaulicht weiterhin ein Aufrechterhalten einer Anzeige der Benutzerschnittstelle 604 der 6H auf der Anzeige 546-1.
  • Die 6R veranschaulicht ein Anzeigen des Detaillierte-Wegbeschreibungs-Feldes 662, das die erste Richtung (oder das erste Abbiegen) des Benutzers auf Route 659a und den Namen des Ziels (z. B. Mary Ann's Cleaners) in der Benutzerschnittstelle 602 angibt, in Antwort auf ein Erkennen der Benutzerberührungseingabe 661 über der ”Start”-Affordanz 657a in 6Q. In einigen Ausführungsformen belegt das Detaillierte-Wegbeschreibungs-Feld 662 die Gesamtheit des Touchscreens 112.
  • Die 6R veranschaulicht weiterhin ein Anzeigen eines Detaillierte-Wegbeschreibungs-Modus in der Benutzerschnittstelle 604 in Antwort auf ein Erkennen der Benutzerberührungseingabe 661 über der ”Start”-Affordanz 657a in 6Q (z. B., obwohl die Benutzerschnittstelle 604 zuvor nicht mit der Benutzerschnittstelle 602 in Antwort auf vorangegangene Eingaben synchronisiert wurde, wenn ein Ziel und eine Route ausgewählt werden und die detaillierte Wegbeschreibung beginnt, synchronisiert die Vorrichtung die Benutzerschnittstelle 602 und die Benutzerschnittstelle 604, so dass beide Benutzerschnittstellen Richtungen zu demselben Ziel unter Verwendung derselben Route anzeigen). In 6R beinhaltet die Benutzerschnittstelle 604 die Route 659a, das Detaillierte-Wegbeschreibungs-Feld 663, das die erste Richtung (oder die erste Abbiegung) auf der Route 659a und den Namen des Ziels (z. B. Mary Ann's Cleaners) und Marker 654 angibt, der den aktuellen Standort der Vorrichtung 100 angibt. 6R veranschaulicht ebenso einen Kompass 611, der die Ausrichtung der Karte, die in der Benutzerschnittstelle 604 angezeigt wird, angibt (z. B. ist die Karte mit dem oberen Ende der Anzeige 546-1 ausgerichtet, welche Osten entspricht). 6R veranschaulicht weiterhin ein Erkennen der Benutzerberührungseingabe 665 auf der Anzeige 546-1.
  • Die 6S veranschaulicht ein Anzeigen des Dialogfeldes 637 in der Benutzerschnittstelle 602 in Antwort auf ein Erkennen der Benutzerberührungseingabe 665 auf der Anzeige 546-1 in 6R. In 6S beinhaltet das Dialogfeld 637 die ”Pause”-Affordanz 638a, die eingerichtet ist, um die detaillierte Wegbeschreibung anzuhalten, und die ”Zurück”-Affordanz 638b, die eingerichtet ist, um die Ergebnisse der letzten Suchanfrage anzuzeigen (z. B. Reinigungen in der Nähe des aktuellen Standorts der Vorrichtung 100) innerhalb der Kartenanwendung 436.
  • Die 6S veranschaulicht weiterhin ein Anzeigen der Affordanz 612 in der Benutzerschnittstelle 604 in Antwort auf ein Erkennen der Benutzerberührungseingabe 665 auf der Anzeige 546-1 in 6R. Die Affordanz 612, wenn aktiviert, veranlasst die Vorrichtung einen digitalen Assistenten (z. B. Siri von Apple Inc. aus Cupertino, Kalifornien) aufzurufen. Die 6S veranschaulicht ebenso ein Erkennen der Benutzerberührungseingabe 666 über die Affordanz 612 auf der Anzeige 546-1. In Antwort auf ein Erkennen der Benutzerberührungseingabe 666 über die Affordanz 612 wird ein digitaler Assistent aufgerufen und der digitale Assistent fordert akustisch den Benutzer auf durch Fragen von ”Womit kann ich Ihnen helfen?”. In Antwort auf die Aufforderung kann z. B. der Benutzer hörbar den digitalen Assistenten fragen ”Zeige mir Kaffeehäuser in der Nähe”. Alternativ wird in einigen Ausführungsformen der digitale Assistent durch einen vorbestimmten akustischen Befehl aufgerufen (z. B. ”Hey Siri”).
  • 6T veranschaulicht ein Aufrechterhalten einer Anzeige der Benutzerschnittstelle 602 von 6S auf dem Touchscreen 112. 6T veranschaulicht weiterhin ein Anzeigen des digitalen Assistenten-Dialogfeldes 667 in der Benutzerschnittstelle 604. Das digitale Assistenten-Dialogfeld 667 gibt an, dass der digitale Assistent nach Kaffeehäusern in Antwort auf die hörbare Anfrage des Benutzers sucht (z. B. ”Zeige mir Kaffeehäuser in der Nähe”).
  • 6U veranschaulicht ein Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit den Kaffeehäusern 668a und 668b in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 in der Benutzerschnittstelle 602 verknüpft sind, in Antwort auf die hörbare Anfrage des Benutzers (z. B. ”Zeige mir Kaffeehäuser in der Nähe”). In einigen Ausführungsformen wird ein Suchergebnis (oder eine Einrichtung), die zu der hörbaren Anfrage passt, automatisch ausgewählt (z. B. Java Haus) auf der Grundlage der Nähe, der Bewertung der Einrichtung, der Menge von Beurteilungen, wie oft der Benutzer die Einrichtung besucht hat und/oder anderen Faktoren. In 6U wird das Informationsfeld 669, das dem automatisch ausgewählten Kaffeehaus 668a entspricht, ebenso in der Benutzerschnittstelle 602 angezeigt. Das Informationsfeld 669 beinhaltet den Namen des Kaffeehauses (z. B. Java Haus), die Bewertung der Einrichtung (z. B. 4 von 5 Sternen), die Anzahl von Benutzerbeurteilungen der Einrichtung (z. B. 320 Beurteilungen) und die Affordanz 669a, die eingerichtet ist, zusätzliche Informationen anzuzeigen, die der Einrichtung entsprechen. Das Bereitstellen zusätzlicher Informationen in der Benutzerschnittstelle 602 ermöglicht es einem Beifahrer eines Fahrzeugs, der die Vorrichtung 100 bedient, zusätzliche Informationen einem Fahrer des Fahrzeugs bereitzustellen und/oder ein Ziel auf der Grundlage der zusätzlichen Informationen, die in der Benutzerschnittstelle 602 bereitgestellt werden, auszuwählen.
  • 6U veranschaulicht weiterhin ein Anzeigen der vorgeschlagenen Route 671 vom aktuellen Standort 608 der Vorrichtung 100 zu dem Kaffeehaus 668a (z. B. Java Haus) in der Benutzerschnittstelle 604 in Antwort auf die hörbare Anfrage des Benutzers (z. B. ”Zeige mir Kaffeehäuser in der Nähe”). In einigen Ausführungsformen wird die Route für das automatisch ausgewählte Suchergebnis in der Benutzerschnittstelle 604 angezeigt. In 6U beinhaltet die Benutzerschnittstelle 604 die Route 671, die die erste Richtung (oder die erste Abbiegung) des Benutzers auf Route 671 und den Namen des Ziels (z. B. Java Haus) angibt und ”Starte Wegbeschreibung”-Affordanz 618, die eingerichtet ist, um den detaillierten Wegbeschreibungsmodus zu starten. 6U veranschaulicht ebenso den Kompass 611, der die Ausrichtung der Karte, die in Benutzerschnittstelle 604 angezeigt wird, angibt (z. B. ist die Karte mit dem oberen Ende der Anzeige 546-1 ausgerichtet, welches Norden entspricht). 6U veranschaulicht weiterhin ein Erkennen der Benutzerberührungseingabe 672 über der ”Starte Wegbeschreibung”-Affordanz 618 auf der Anzeige 546-1.
  • Die 6V veranschaulicht ein Anzeigen des detaillierten Wegbeschreibungsfeldes 673, das die erste Richtung (oder erste Abbiegung) des Benutzers auf der Route 671 und den Namen des Ziels (z. B. Java Haus) in der Benutzerschnittstelle 602 angibt, in Antwort auf ein Erkennen der Benutzerberührungseingabe 672 über ”Starte Wegbeschreibung”-Affordanz 672 auf der Anzeige 546-1 in 6U. In einigen Ausführungsformen belegt das detaillierte Wegbeschreibungsfeld 673 die Gesamtheit des Touchscreens 112.
  • Die 6V veranschaulicht weiterhin ein Anzeigen eines detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 in Antwort auf ein Erkennen der Benutzerberührungseingabe 672 über der ”Starte Wegbeschreibung”-Affordanz 662 auf der Anzeige 546-1 in 6U. In 6V, während sie sich im detaillierten Wegbeschreibungsmodus befindet, wird der aktuelle Standort der Vorrichtung 100 als Marker 674 in der Benutzerschnittstelle 604 angezeigt. In einigen Ausführungsformen ist der detaillierte Wegbeschreibungsmodus, der in 6V gezeigt wird, in die Karte hineinvergrößert, die in der Benutzerschnittstelle 604 angezeigt wird, im Vergleich zu der Karte, die in 6U angezeigt wird.
  • Die 6W bis 6FF veranschaulichen beispielhafte Benutzerschnittstellen zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden verwendet, um die nachfolgend beschriebenen Verfahren zu veranschaulichen, einschließlich der Verfahren in 9A bis 9C.
  • Die 6W veranschaulicht zwei Anzeigen, die in einem externen Informations-Präsentationssystem 540 (manchmal hierin auch als ”System 540” bezeichnet) beinhaltet sind, das kommunikativ mit der tragbaren Multifunktionsvorrichtung 100 (manchmal hierin auch als ”Vorrichtung 100” bezeichnet) gekoppelt ist, in Übereinstimmung mit einigen Ausführungsformen. In einigen Ausführungsformen ist das externe Informations-Präsentationssystem 540 ein Unterhaltungs- und/oder Navigationssystem, das in einem Fahrzeug implementiert ist. In einigen Ausführungsformen ist die Anzeige 546-1 mit einem ersten externen Informations-Präsentationssystem 540-1 verknüpft und die Anzeige 546-2 ist mit einem zweiten externen Informations-Präsentationssystem 540-2 verknüpft. In einigen Ausführungsformen ist die Anzeige 546-1 eine primäre Anzeige (z. B. eine Instrumententafel oder eine Fahrzeugnavigationsanzeige) und die Anzeige 546-2 ist eine zusätzliche Anzeige (z. B. eine Rücksitz- oder Unterhaltungsanzeige). In einigen Ausführungsformen sind die Anzeige 546-1 und die Anzeige 546-2 berührungsempfindliche Anzeigen mit berührungsempfindlichen Oberflächen auf den Anzeigen und sind eingerichtet, um eine oder mehrere Berührungseingaben zu empfangen. 6W veranschaulicht ebenso Drehschalter 675 (z. B. einen eindrückbaren und/oder rotierbaren mechanischen Knopf oder Schalter), der mit dem System 540 verknüpft ist, der eingerichtet ist, um eine oder beide der Anzeige 546-1 und Anzeige 546-2 zu steuern.
  • 6W veranschaulicht ein Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit den Reinigungen verknüpft sind, die sich in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 befinden, und die durch Pins 614a und 614b in einer Kartennavigationsanwendung in der Benutzerschnittstelle 604 der Anzeige 546-1 dargestellt werden. Zum Beispiel werden die Pins in der Benutzerschnittstelle 604 in Antwort auf eine Suchanfrage angezeigt (z. B. ”Reinigung”, eingegeben in Suchfeld 609 in der Benutzerschnittstelle 602 der Vorrichtung 100 in 6C). In einigen Ausführungsformen wird ein Suchergebnis (oder eine Einrichtung), die der Suchanfrage des Benutzers entspricht, automatisch ausgewählt (z. B. ABC Cleaners) auf der Grundlage einer Nähe, der Bewertung der Einrichtung, der Anzahl von Beurteilungen, wie oft der Benutzer die Einrichtung besucht hat und anderen Faktoren. In 6W wird die Zielinformation 678, die der automatisch ausgewählten Reinigung entspricht, die durch Pin 614a dargestellt wird, ebenso in der Benutzerschnittstelle 604 angezeigt. Die Zielinformation 678 beinhaltet den Namen der Reinigungseinrichtung (z. B. ABC Cleaners), die Bewertungen der Einrichtung (z. B. 3 von 5 Sternen), die Anzahl von Benutzerbeurteilungen der Einrichtung (z. B. 100 Beurteilungen) und die Entfernung in Meilen vom aktuellen Standort 608 der Vorrichtung 100 zu der Einrichtung. In einigen Ausführungsformen wird eine detaillierte Wegbeschreibung zu dem aktuell ausgewählten Suchergebnis (z. B. der Reinigung die durch Pin 614a dargestellt wird) in der Benutzerschnittstelle 604 angezeigt in Antwort auf eine Berührungseingabe irgendwo innerhalb des Dialogfeldes, das mit der Zielinformation 678, die der Reinigung 514a entspricht, verknüpft ist. In einigen anderen Ausführungsformen wird die detaillierte Wegbeschreibung zu dem aktuell ausgewählten Suchergebnis (z. B. der Reinigung, die durch Pin 614a dargestellt wird) angezeigt in der Benutzerschnittstelle 604 in Antwort auf ein Drücken des Drehschalters 675. 6W veranschaulicht ebenso einen Kompass 611, der die Ausrichtung der Karte, die in der Benutzerschnittstelle 604 angezeigt wird, angibt (z. B. ist die Karte mit dem oberen Ende der Anzeige 546-1 ausgerichtet, welches Norden entspricht).
  • Die 6W veranschaulicht ein Erkennen einer Kneifgeste mit den Benutzerberührungseingaben 679 und 680 auf der Anzeige 546-1. In Antwort auf ein Erkennen der Benutzerberührungseingaben 679 und 680 (oder der Kneifgeste) sendet die Anzeige 546-1 (oder System 540) Eingabe-Informationen, die anzeigend sind für die Benutzerberührungseingaben 679 und 680 (oder die Kneifgeste) an Vorrichtung 100. Die Eingabe-Informationen beinhalten einen Identifikator, der mit der berührungsempfindlichen Oberfläche der Anzeige 546-1 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit der berührungsempfindlichen Oberfläche der Anzeige 546-1 verknüpft ist) und Eingabebeschreibungsinformationen, die die Benutzerberührungseingaben 679 und 680 (oder die Kneifgeste) beschreiben. In einigen Ausführungsformen beinhalten die Eingabebeschreibungsinformationen rohe Daten, die die Benutzerberührungseingaben 679 und 680 beschreiben, wie z. B. den Ort der Benutzerberührungseingaben 679 und 680, die Stärke der Bewegung der Benutzerberührungseingaben 679 und 680, die Zeitdauer, während der die Benutzerberührungseingaben 679 und 680 erkannt wurden, den Oberflächenbereich der Benutzerberührungseingaben 679 und 680 und/oder andere Informationen, die die Benutzerberührungseingaben 679 und 680 beschreiben. In einigen anderen Ausführungsformen beinhalten die Eingabebeschreibungsinformationen Daten, die die Kneifgeste beschreiben, wie z. B. die Art der Geste, die ausgeführt wurde, den Ort der Geste, die Stärke der Bewegung der Geste und/oder andere Informationen, die die Geste beschreiben.
  • In Antwort auf ein Empfangen der Benutzereingabeinformationen, die mit den Benutzerberührungseingaben 679 und 680 (oder der Kneifgeste) verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-1 verknüpft ist (z. B. Verknüpfen des Berührungsereignisses (oder der Geste) mit der berührungsempfindlichen Oberfläche der Anzeige 546-1) auf der Grundlage einer Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Berührungsereignis, das in 6W erkannt worden ist, mit der Anzeige 546-1 verknüpft ist (z. B. der betroffenen Anzeige), bestimmt die Vorrichtung 100 ebenso den Anzeigestatus der Anzeige 546-1, die in 6W gezeigt wird (z. B. befindet sich die Benutzerschnittstelle 604 in einem Suchergebnis- oder Zielauswahlmodus). In einigen Ausführungsformen bestimmt die Vorrichtung 100 den Anzeigestatus einer Anzeige auf der Grundlage von Informationen, die in den Eingabeinformationen beinhaltet sind. In einigen anderen Ausführungsformen bestimmt die Vorrichtung 100 den Anzeigestatus einer Anzeige durch Nachfragen beim System 540 nach solchen Informationen.
  • 6W veranschaulicht weiterhin ein Anzeigen einer Liste von Songs 677, die einem Album in einer Mediaplayer-Anwendung in der Benutzerschnittstelle 676 der Anzeige 546-2 entspricht.
  • 6X veranschaulicht ein Anzeigen von Benutzerschnittstellen-Objekten (z. B. Pins), die mit den Reinigungen in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 verknüpft sind, die durch Pins 614a, 614b, 614c und 614d in der Benutzerschnittstelle 604 der Anzeige 546-1 dargestellt werden. Zum Beispiel ist die Karte, die in der Benutzerschnittstelle 604 in 6X angezeigt wird, eine verkleinerte Version der Karte, die in der Benutzerschnittstelle 604 in 6W angezeigt wird. Die Anzeige 546-1 zeigt eine verkleinerte Karte in der Benutzerschnittstelle 604 in 6X an, in Antwort auf das Empfangen von Aktualisierungsinformationen von der Vorrichtung 100, die eine aktualisierte Benutzerschnittstelle, die der Kneifgeste, die auf der Anzeige 546-1 in 6W erkannt worden ist, entspricht und den Anzeigestatus der Benutzerschnittstelle 604 in 6W beinhaltet (z. B. den Suchergebnis- oder Zielauswahlmodus).
  • Die 6X veranschaulicht auch ein Erkennen des Drehens 681 (z. B. eine ungefähre 90 Grad Drehung im Uhrzeigersinn) des Drehschalters 675. In Antwort auf das Erkennen des Drehens 681 sendet der Drehschalter 675 (oder das System 540) Eingabeinformationen, die anzeigend sind für die Drehung 681 an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit dem Drehschalter 675 verknüpft ist (z. B. ein spezifischer Identifizierer, der mit dem Drehschalter 675 assoziiert ist) und Eingabebeschreibungsinformationen, die die Drehung 681 beschreiben. Zum Beispiel beinhalten die Eingabebeschreibungsinformationen Rohdaten, die die Drehung 681 beschreiben, wie z. B. die Stärke (90 Grad) und die Richtung (im Uhrzeigersinn) der Drehung. In Antwort auf ein Empfangen der Eingabeinformationen, die mit der Drehung 681 verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-1 verknüpft ist (z. B. Verknüpfen des Drehereignisses mit Drehschalter 675, welcher aktuell auf der Anzeige 546-1 abgebildet wird) auf der Grundlage der Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Drehereignis, das in 6X erkannt worden ist, mit der Anzeige 546-1 verknüpft ist, bestimmt die Vorrichtung 100 ebenso den Anzeigestatus der Anzeige 546-1, die in 6X angezeigt wird (z. B. befindet sich die Benutzerschnittstelle 604 in einem Suchergebnis- oder Zielauswahlmodus). 6X veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Liste von Songs 677 in der Benutzerschnittstelle 676 der 6W auf der Anzeige 546-2 (z. B. wird die Benutzerschnittstelle 676 nicht in Antwort auf die Drehung des Drehschalters 675 aktualisiert, wenn der Drehschalter 675 nicht mit der Anzeige, auf welcher die Benutzerschnittstelle 676 angezeigt wird, verknüpft ist).
  • 6V veranschaulicht ein Anzeigen von Zielinformationen 682, die der ausgewählten Reinigung entsprechen, die durch den Pin 614d in der Benutzerschnittstelle 604 der Anzeige 546-1 dargestellt wird. In 6V zeigt die Anzeige 546-1 Zielinformationen 682 an, die der ausgewählten Reinigung entsprechen, die durch den Pin 614d dargestellt wird (z. B. Suzie's Cleaners) in Antwort auf das Empfangen von Aktualisierungsinformationen von der Vorrichtung 100, die eine aktualisierte Benutzerschnittstelle, die der Drehung 681 entspricht, die vom Drehschalter 675 in 6X erkannt worden ist, entspricht und den Anzeigestatus der Benutzerschnittstelle 604 in 6X (z. B. den Suchergebnis- oder Zielauswahlmodus). In einigen Ausführungsformen sind die Zielinformationen (und demzufolge das ausgewählte Ziel) in Übereinstimmung mit der Richtung und Größenordnung der Drehung des Drehschalters 675 gescrollt. Zum Beispiel, wenn der Suchergebnis- oder ein Zielauswahlmodus angezeigt wird, wählt eine 90 Grad Drehung des Drehschalters 675 ein nächstes Suchergebnis aus, eine Drehung im Uhrzeigersinn scrollt die Suchergebnisse von Norden nach Süden, und eine Drehung gegen den Uhrzeigersinn scrollt die Suchergebnisse von Süden nach Norden. In 6V, in Antwort auf ein Erkennen der Drehung 681 (z. B. eine 90 Grad Drehung im Uhrzeigersinn) des Drehschalters 675 in 6X, wird die Reinigung, die durch den Pin 614d dargestellt wird, ausgewählt (oder zu ihr gescrollt) und die Zielinformationen 682, die der Reinigung entsprechen, die durch den Pin 614d dargestellt wird (z. B. die nächste Reinigung südlich der Reinigung, die durch Pin 614a, der in 6X angezeigt wird, dargestellt wird) werden in der Benutzerschnittstelle 604 angezeigt.
  • 6V veranschaulicht auch ein Erkennen der Drehung 683 (z. B. eine ungefähre 180 Grad Drehung gegen den Uhrzeigersinn) des Drehschalters 675. In einigen Ausführungsformen, in Antwort auf das Erkennen der Drehung 683 sendet der Drehschalter 675 (oder das System 540) Eingabeinformationen, die hinweisend sind für die Drehung 683, an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit dem Drehschalter 675 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit dem Drehschalter 675 verknüpft ist) und Eingabebeschreibungsinformationen, die die Drehung 683 beschreiben. Zum Beispiel beinhalten die Eingabebeschreibungsinformationen Rohdaten, die die Drehung 683 beschreiben, wie z. B. die Größenordnung (180 Grad) und die Richtung (gegen den Uhrzeigersinn) der Drehung. In Antwort auf das Empfangen der Eingabeinformationen, die mit der Drehung 683 verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-1 verknüpft ist (z. B. Verknüpfen des Drehereignisses mit dem Drehschalter 675, der aktuell auf der Anzeige 546-1 abgebildet wird) auf der Grundlage der Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Drehereignis, das in 6V erkannt worden ist, mit der Anzeige 546-1 verknüpft ist, bestimmt die Vorrichtung 100 auch den Zustand der Anzeige 546-1, die in 6V gezeigt wird (z. B. die Benutzerschnittstelle 604 befindet sich in einem Suchergebnis- oder Zielauswahlmodus). 6V veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Liste von Songs 677 in der Benutzerschnittstelle 676 der 6W auf der Anzeige 546-2.
  • 6Z veranschaulicht Anzeigen von Zielinformationen 684, die der ausgewählten Reinigung entsprechen, die durch den Pin 614b in der Benutzerschnittstelle 604 der Anzeige 546-1 dargestellt wird (z. B. Mary Ann's Cleaners). In 6Z zeigt die Anzeige 546-1 Zielinformationen 684 an, die der ausgewählten Reinigung entsprechen, die durch den Pin 614b dargestellt wird, in Antwort auf das Empfangen der Aktualisierungsinformationen von der Vorrichtung 100, die eine aktualisierte Benutzerschnittstelle beinhaltet, die der Drehung 683, die von dem Drehschalter 675 in 6V erkannt worden ist, entspricht und den Anzeigestatus der Benutzerschnittstelle 604 in 6V (z. B. den Suchergebnis- oder Zielauswahlmodus). In 6Z, in Antwort auf das Erkennen der Drehung 683 (z. B. eine 180 Grad Drehung gegen den Uhrzeigersinn) des Drehschalters 675 in 6V, wird die Reinigung, die durch den Pin 614b dargestellt wird, ausgewählt (oder zu ihr hin gescrollt) und Zielinformationen 684, die der Reinigung entsprechen, die durch den Pin 614b dargestellt wird (z. B. zwei Reinigungen nördlich der Reinigung, die durch den Pin 614d dargestellt wird, der in 6V angezeigt wird), werden in der Benutzerschnittstelle 604 angezeigt.
  • 6Z veranschaulicht auch ein Erkennen eines Drückens auf oder ein Vertiefen von Drehschalter 675 mit der Benutzerberührungseingabe 685. In einigen Ausführungsformen, in Antwort auf das Erkennen der Benutzerberührungseingabe 685, sendet der Drehschalter 675 (oder das System 540) Eingabeinformationen, die anzeigend sind für die Benutzerberührungseingabe 685, an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit dem Drehschalter 675 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit dem Drehschalter 675 verknüpft ist) und Eingabebeschreibungsinformationen, die die Benutzerberührungseingabe 685 beschreiben. Zum Beispiel beinhalten die Eingabebeschreibungsinformationen Rohdaten, die die Benutzerberührungseingabe 685 beschreiben, wie z. B. die Stärke der Eingabe und die Menge der Vertiefung des Drehschalters 675. In Antwort auf das Empfangen der Benutzereingabeinformationen, die mit der Benutzerberührungseingabe 685 verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-1 verknüpft ist (z. B. Verknüpfen des Drück- oder Vertiefungsereignisses mit dem Drehschalter 675, welcher aktuell auf der Anzeige 546-1 abgebildet wird) auf der Grundlage einer Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Vertiefungsereignis, das in 6Z erkannt worden ist, mit der Anzeige 546-1 verknüpft ist, bestimmt die Vorrichtung 100 auch den Anzeigestatus der Anzeige 546-1, die in 6Z gezeigt wird (z. B. befindet sich die Benutzerschnittstelle 604 in einem Suchergebnis- oder Zielauswahlmodus). 6Z veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Liste von Songs 677 in der Benutzerschnittstelle 676 der 6W auf der Anzeige 546-2.
  • Die 6AA veranschaulicht ein Anzeigen eines detaillierten Wegbeschreibungsmodus von Markierer 664, der den aktuellen Standort der Vorrichtung 100 angibt, zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners) in der Benutzerschnittstelle 604 der Anzeige 546-1. In 6AA zeigt die Anzeige 546-1 den detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 an, in Antwort auf ein Empfangen von Aktualisierungsinformationen von der Vorrichtung 100, die eine aktualisierte Benutzerschnittstelle, die der Benutzerberührungseingabe 685, die von dem Drehschalter 675 in 6Z erkannt worden ist, entspricht und den Anzeigestatus der Benutzerschnittstelle 604 in 6Z beinhaltet (z. B. den Suchergebnis- oder Zielauswahlmodus). In 6AA, in Antwort auf ein Erkennen der Benutzerberührungseingabe 685, welche den Drehschalter 675 in 6Z eindrückt, wird die detaillierte Wegbeschreibung von Markierer 664, der den aktuellen Standort der Vorrichtung 100 angibt, zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. ausgewählt mit der Drehung 683 des Drehschalters 675 in 6V) auf Route 659a angezeigt in dem detaillierten Wegbeschreibungsfeld 663 in der Benutzerschnittstelle 604. 6AA veranschaulicht ebenso den Kompass 611, der die Orientierung der Karte, die in der Benutzerschnittstelle 604 angezeigt wird, angibt (z. B. ist die Karte mit dem oberen Ende der Anzeige 546-1 ausgerichtet, welches Osten entspricht).
  • 6AA veranschaulicht auch ein Erkennen der Drehung 686 (z. B. eine ungefähre 90 Grad Drehung gegen den Uhrzeigersinn) des Drehschalters 675. In Antwort auf das Erkennen der Drehung 686 sendet der Drehschalter 675 (oder das System 540) Eingabeinformationen, die hinweisend für die Drehung 686 sind, an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit dem Drehschalter 675 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit dem Drehschalter 675 verknüpft ist) und Eingabebeschreibungsinformationen, die die Drehung 686 beschreiben. Zum Beispiel beinhalten die Eingabebeschreibungsinformationen Rohdaten, die die Drehung 686 beschreiben, wie z. B. die Größenordnung (90 Grad) und die Richtung (gegen den Uhrzeigersinn) der Drehung. In Antwort auf das Empfangen der Eingabeinformationen, die mit der Drehung 681 verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-1 verknüpft ist (z. B. Verknüpfen des Drehereignisses mit dem Drehschalter 675, welcher aktuell auf der Anzeige 546-1 abgebildet ist) auf der Grundlage der Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Drehereignis, das in 6AA erkannt worden ist, mit der Anzeige 546-1 verknüpft ist, bestimmt die Vorrichtung 100 ebenso den Anzeigestatus der Anzeige 546-1, die in 6AA gezeigt wird (z. B. befindet sich die Benutzerschnittstelle 604 in einem detaillierten Wegbeschreibungsmodus). 6AA beinhaltet weiterhin ein Aufrechterhalten der Anzeige der Liste von Songs 677 in der Benutzerschnittstelle 676 der 6W auf der Anzeige 546-2.
  • Die 6BB veranschaulicht ein Anzeigen eines detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 der Anzeige 546-1. Zum Beispiel ist der detaillierte Wegbeschreibungsmodus, der in der Benutzerschnittstelle 604 in 6BB angezeigt wird, eine verkleinerte Version des detaillierten Wegbeschreibungsmodus, der in der Benutzerschnittstelle 604 der 6AA angezeigt wird. In 6BB zeigt die Anzeige 546-1 den verkleinerten detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 in 6BB an in Antwort auf ein Empfangen von Aktualisierungsinformationen von der Vorrichtung 100, die eine aktualisierte Benutzerschnittstelle, die der Drehung 686 entspricht, die von dem Drehschalter 675 in 6AA erkannt worden ist, und den Anzeigestatus der Benutzerschnittstelle 604 in 6AA beinhalten (z. B. den detaillierten Wegbeschreibungsmodus). 6BB veranschaulicht weiterhin ein Aufrechterhalten der Anzeige der Liste von Songs 677 in der Benutzerschnittstelle 676 der 6W auf der Anzeige 546-2.
  • 6CC veranschaulicht ein Anzeigen eines Fahrzeug-Rückfahrmodus in der Benutzerschnittstelle 604 der Anzeige 546-1. Zum Beispiel beinhaltet der Fahrzeug-Rückfahrmodus, der in der Benutzerschnittstelle 604 angezeigt wird, eine Videozuspielung von einer Rückfahrkamera, die in dem Fahrzeug implementiert ist. In einigen Ausführungsformen belegt der Fahrzeug-Rückfahrmodus die Gesamtheit der Anzeige 546-1. Wenn System 540 in einem Fahrzeug implementiert ist, zeigt die Anzeige 646-1 einen Fahrzeug-Rückfahrmodus in der Benutzerschnittstelle 604 an, während das Fahrzeug sich im Rückwärtsgang befindet. In einigen Ausführungsformen verdrängt der Fahrzeug-Rückfahrmodus alle Aktualisierungsinformationen, die von den Anzeigen 546-1 und 546-2 von der Vorrichtung 100 empfangen worden sind. In einigen Ausführungsformen wird der Fahrzeug-Rückfahrmodus auf einer der Anzeigen (z. B. Anzeige 546-1) angezeigt, aber nicht auf der anderen Anzeige (z. B. Anzeige 546-2).
  • Ähnlich veranschaulicht 6CC auch ein Anzeigen eines Fahrzeug-Rückfahrmodus in der Benutzerschnittstelle 676 auf der Anzeige 546-2. Zum Beispiel beinhaltet der Fahrzeug-Rückfahrmodus, der in der Benutzerschnittstelle 676 angezeigt wird, eine Videozuspielung von der Rückfahrkamera, die in dem Fahrzeug implementiert ist. In einigen Ausführungsformen belegt der Fahrzeug-Rückfahrmodus die Gesamtheit der Anzeige 546-2. Wenn das System 540 in einem Fahrzeug implementiert ist, zeigt die Anzeige 646-2 einen Fahrzeug-Rückfahrmodus in der Benutzerschnittstelle 676 an, während sich das Fahrzeug im Rückwärtsgang befindet. In anderen Ausführungsformen zeigt die Anzeige 646-2 den Fahrzeug-Rückfahrmodus in der Benutzerschnittstelle 676 nicht an und erhält die Anzeige der Schnittstelle 676 aufrecht, während sich das Fahrzeug im Rückwärtsgang befindet.
  • 6DD veranschaulicht ein Anzeigen eines detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 aus 6BB auf der Anzeige 546-1, sobald sich das Fahrzeug nicht mehr im Rückwärtsgang befindet.
  • 6DD veranschaulicht ein Erkennen der Drehung 688 (z. B. eine ungefähre 90 Grad Drehung im Uhrzeigersinn) des Drehschalters 675. In Antwort auf das Erkennen der Drehung 688 sendet der Drehschalter 675 (oder das System 540) Eingabeinformationen an die Vorrichtung 100, die hinweisend sind für die Drehung 688. Die Eingabeinformationen beinhalten einen Identifikator, der mit dem Drehschalter 675 verknüpft ist (z. B. ein eindeutiger Identifikator, der mit dem Drehschalter 675 verknüpft ist) und Eingabebeschreibungsinformationen, die die Drehung 688 beschreiben. Zum Beispiel beinhalten die Eingabebeschreibungsinformationen Rohdaten, die die Drehung 688 beschreiben, wie z. B. die Größenordnung (90 Grad) und die Richtung (im Uhrzeigersinn) der Drehung.
  • Die Vorrichtung 100 erkennt eine Änderung der Abbildung der Eingabequelle auf die Anzeige, die den Drehschalter 675 auf die Anzeige 546-2 anstelle von Anzeige 546-1 abbildet. Zum Beispiel ändert die Vorrichtung 100 das Abbilden der Eingabequelle auf die Anzeige auf der Grundlage von Kommunikationen des externen Informations-Präsentationssystems 540 (z. B. Übernehmen der Steuerung einer Anzeige, um eine Ausgabe einer Rückfahrkamera zu zeigen) oder einer Aktualisierungsanfrage der Eingabequelleabbildung, wie z. B. ein Benutzer, der eine entsprechende Steuerung von einem ersten Anzeigemodus wechselt, in welchem die entsprechende Steuerung eine Benutzerschnittstelle der ersten Anzeige steuert, zu einem zweiten Anzeigemodus, in welchem die entsprechende Steuerung eine Benutzerschnittstelle der zweiten Anzeige steuert. In Antwort auf das Empfangen der Eingabeinformationen, die mit der Drehung 688 verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-2 verknüpft ist (z. B. Verknüpfen des Drehereignisses mit dem Drehschalter 675, der aktuell auf der Anzeige 546-2 abgebildet wird) auf der Grundlage der geänderten Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Drehereignis, das in 6DD erkannt worden ist, mit der Anzeige 546-2 verknüpft ist, bestimmt die Vorrichtung 100 ebenso den Anzeigestatus der Anzeige 546-2, die in 6DD gezeigt wird (z. B. befindet sich die Benutzerschnittstelle 676 in einem Album-Songlisten-Modus).
  • 6DD veranschaulicht weiterhin ein Zurückkehren zur Anzeige der Liste von Songs 677 in der Benutzerschnittstelle 676 der 6W auf der Anzeige 546-2 sobald sich das Fahrzeug nicht länger im Rückwärtsgang befindet.
  • 6EE veranschaulicht ein Anzeigen des detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 aus 6BB auf der Anzeige 546-1. 6EE veranschaulicht auch ein Anzeigen einer nach unten gescrollten Liste von Songs 677 in der Benutzerschnittstelle 676 der Anzeige 546-2. In 6EE zeigt die Anzeige 546-2 die nach unten gescrollte Liste von Songs 677 in der Benutzerschnittstelle 676 in Antwort auf ein Empfangen von Aktualisierungsinformation von der Vorrichtung 100 an, die eine aktualisierte Benutzerschnittstelle, die der Drehung 688 entspricht, die vom Drehschalter 675 in 6DD erkannt worden ist, und den Anzeigezustand der Benutzerschnittstelle 676 in 6DD beinhalten (z. B. den Album-Songlisten-Modus). In 6EE, in Antwort auf das Erkennen der Drehung 688 (z. B. eine ungefähre 90 Grad Drehung im Uhrzeigersinn) des Drehschalters 675 in 6DD wird die Liste von Songs 677 in der Benutzerschnittstelle 604 nach unten gescrollt.
  • 6EE veranschaulicht weiterhin ein Erkennen einer ansteigenden Wischgeste (manchmal hierin auch als eine ”Zieh”-Geste bezeichnet) mit der Benutzerberührungseingabe 689, die sich von der Position 689a zu der Position 689b auf der Anzeige 546-2 bewegt. In Antwort auf das Erkennen der Benutzerberührungseingabe 689 (oder der Wischgeste) sendet die Anzeige 546-2 (oder das System 540) Eingabeinformationen, die anzeigend sind für die Berührungseingabe 689 (oder die Wischgeste) an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit der berührungsempfindlichen Oberfläche der Anzeige 546-2 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit der berührungsempfindlichen Oberfläche der Anzeige 546-2 verknüpft ist) und Eingabebeschreibungsinformationen, die die Berührungseingabe 689 (oder die Wischgeste) beschreiben. In Antwort auf die Eingabebeschreibungsinformationen, die mit der Berührungseingabe 689 (oder der Wischgeste) verknüpft sind, bestimmt die Vorrichtung 100, dass der Identifikator, der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-2 verknüpft ist (z. B. Verknüpfen des Berührungsereignisses (oder der Geste) mit der berührungsempfindlichen Oberfläche der Anzeige 546-2) auf der Grundlage der Abbildung der Eingabequelle auf die Anzeige. Nach dem Bestimmen, dass das Berührungsereignis, das in 6EE erkannt worden ist, mit der Anzeige 546-2 verknüpft ist, bestimmt die Vorrichtung 100 ebenso den Anzeigestatus der Anzeige 546-2, die in 6EE gezeigt wird (z. B. befindet sich die Benutzerschnittstelle 676 im Album-Songlisten-Modus).
  • 6FF veranschaulicht ein Anzeigen des detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 der 6BB auf der Anzeige 546-1. 6FF veranschaulicht ebenso ein Anzeigen einer nach oben gescrollten Liste von Songs 677 in der Benutzerschnittstelle 676 der Anzeige 546-2. In 6FF zeigt die Anzeige 546-2 die nach oben gescrollte Liste von Songs 677 in der Benutzerschnittstelle 604 in Antwort auf ein Empfangen von Aktualisierungsinformationen von der Vorrichtung 100, sowie eine aktualisierte Benutzerschnittstelle, die der Wischgeste entspricht, die auf der Anzeige 546-2 erkannt worden ist, und den Anzeigestatus der Benutzerschnittstelle 676 in 6EE beinhalten (z. B. den Album-Songlisten-Modus). In 6FF, in Antwort auf das Erkennen der ansteigenden Wischgeste in 6EE, wird die Liste von Songs 677 nach oben in der Benutzerschnittstelle 604 gescrollt.
  • 7A bis 7D sind Flussdiagramme, die ein Verfahren 700 des Synchronisierens zweier oder mehrerer Anzeigen veranschaulichen, in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 700 wird bei einer ersten elektronischen Vorrichtung ausgeführt (z. B. Vorrichtung 300, 3, oder die tragbare Multifunktionsvorrichtung 100, 1A) mit einer ersten Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist die erste Anzeige eine Touchscreen-Anzeige (z. B. Touchscreen 112) und die berührungsempfindliche Oberfläche ist auf der ersten Anzeige. In einigen Ausführungsformen ist die erste Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Handlungen im Verfahren 700 sind optional kombiniert und/oder die Reihenfolge einiger Handlungen ist optional vertauscht.
  • Wie nachfolgend beschrieben stellt das Verfahren 700 eine intuitive Weise bereit, um zwei oder mehrere Anzeigen zu synchronisieren. Das Verfahren reduziert die kognitive Belastung eines Benutzers, wenn Informationen auf zwei oder mehreren Anzeigen angezeigt werden und erzeugt dadurch eine effizientere Mensch-Maschinen-Schnittstelle. Es einem Benutzer zu ermöglichen, Informationen, die auf zwei oder mehreren Anzeigen angezeigt werden, schneller und effizienter zu verwenden, spart für batteriebetriebene elektronische Vorrichtungen Leistung und erhöht die Zeit zwischen Batterieladevorgängen.
  • Die erste elektronische Vorrichtung zeigt (702) eine erste Benutzerschnittstelle auf der ersten Anzeige an. In einigen Ausführungsformen ist die erste elektronische Vorrichtung eine tragbare Multifunktionsrechenvorrichtung, wie z. B. ein Smartphone oder ein Tablet Computer. 6A bis 6V zeigen z. B. die tragbare Multifunktionsvorrichtung 100 (manchmal hierin als ”Vorrichtung 100” bezeichnet), die die Benutzerschnittstelle 602 (z. B. die erste Benutzerschnittstelle) auf dem Touchscreen 112 anzeigt.
  • Die erste Benutzerschnittstelle ermöglicht (704) eine Auswahl aus einer Vielzahl von auswählbaren Objekten (z. B. Suchergebnisse, die zuvor ausgeführten Suchhandlungen entsprechen). 6D zeigt z. B. Benutzerschnittstellen-Objekte (z. B. Pins), die Reinigungen entsprechen, die durch Pins 614a und 614b dargestellt werden, die in der Benutzerschnittstelle 602 der Vorrichtung 100 angezeigt werden. Die Reinigungen, die durch Pins 614a und 614b dargestellt werden, werden in der Benutzerschnittstelle 602 in 6D angezeigt in Antwort auf eine Suchanfrage für ”Reinigungen” in der Nähe des aktuellen Standorts 608 der Vorrichtung 100 in 6C.
  • Die erste Benutzerschnittstelle entspricht einer zweiten Benutzerschnittstelle, die auf einer zweiten Anzeige angezeigt wird, die unterschiedlich ist von der ersten Anzeige. In einigen Ausführungsformen sind die erste Benutzerschnittstelle und die zweite Benutzerschnittstelle Benutzerschnittstellen für eine gleiche entsprechende Anwendung (z. B. eine Anwendung, die auf der ersten elektronischen Vorrichtung läuft). Die Benutzerschnittstelle 602 (z. B. die erste Benutzerschnittstelle), die auf dem Touchscreen 112 der Vorrichtung 100 angezeigt wird, entspricht der Benutzerschnittstelle 604 (z. B. der zweiten Benutzerschnittstelle), die auf der Anzeige 546-1 angezeigt wird (z. B. eine Touchscreen-Anzeige) des externen Informations-Präsentationssystems 540 (manchmal hierin als ”System 540” bezeichnet). In einigen Ausführungsformen ist die Anzeige 546-1 eine primäre Anzeige einer Vielzahl von Anzeigen, die mit dem System 540 verknüpft ist. In einigen Ausführungsformen ist die Anzeige 546-1 in der Instrumententafel des Fahrzeugs implementiert und ist optisch zugreifbar für den Fahrer und/oder Beifahrer des Fahrzeugs.
  • Ein erstes Objekt aus der Vielzahl von auswählbaren Objekten wird als ein ausgewähltes Objekt in der zweiten Benutzerschnittstelle angezeigt (z. B. ist das erste Benutzer-Objekt ein aktuell ausgewähltes Objekt in der zweiten Benutzerschnittstelle). 6D zeigt z. B. das Informationsfeld 613, das der Reinigung entspricht, die durch den Pin 614a dargestellt wird, der in der Benutzerschnittstelle 602 angezeigt wird. Das Informationsfeld 613 wird in der Benutzerschnittstelle 602 angezeigt aufgrund der Tatsache, dass die Reinigung, die durch den Pin 614a dargestellt wird, automatisch ausgewählt worden ist auf der Grundlage von vorbestimmten Kriterien. 6D zeigt z. B. weiterhin die Route 616 von dem aktuellen Standort 608 der Vorrichtung 100 der automatisch ausgewählten Reinigung, die durch den Pin 614a dargestellt wird, der in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt wird.
  • In einigen Ausführungsformen war das erste Objekt automatisch ausgewählt (706) als das ausgewählte Objekt auf der Grundlage von vorbestimmten Objektauswahlkriterien (z. B. nach dem Einleiten einer Suche und Empfangen eines Satzes von einem oder mehreren Suchergebnissen, ein erstes Objekt, das dem relevantesten Suchergebnis entspricht, wurde automatisch ohne Benutzerintervention als das ausgewählte Objekt ausgewählt). In 6D wird z. B. die Reinigung, die durch den Pin 614a dargestellt wird, automatisch ausgewählt auf der Grundlage der Nähe, der Bewertungen der Einrichtung, der Anzahl von Beurteilungen, wie oft der Benutzer die Einrichtung besucht hat und/oder anderen Faktoren.
  • In einigen Ausführungsformen entspricht (708) die Vielzahl von auswählbaren Objekten einer Vielzahl von Suchergebnissen, die in Antwort auf eine Suchanfrage erzeugt worden sind (z. B. eine getippte oder gesprochene Suchanfrage) und das ausgewählte Objekt entspricht einem aktuell ausgewählten Suchergebnis. In 6D werden z. B. Benutzerschnittstellen-Objekte (z. B. Pins), die den Reinigungen entsprechen, die durch Pins 614a und 614b dargestellt werden, in der Benutzerschnittstelle 602 der Vorrichtung 100 angezeigt in Antwort auf die Suchanfrage ”Reinigung”, die in dem Suchfeld 609 in 6C eingegeben worden ist. In einigen Ausführungsformen wird die Suchanfrage manuell im Suchfeld 609 durch eine virtuelle Tastatur eingegeben, die in der Benutzerschnittstelle 602 des Touchscreens 112 angezeigt wird. In einigen anderen Ausführungsformen wird die Suchanfrage hörbar in das Suchanfragefeld 609 durch eine Spracheingabe des Benutzers der Vorrichtung 100 eingegeben. In 6D wird z. B. die Reinigung, die durch den Pin 614a dargestellt wird, automatisch aus der Vielzahl von Suchergebnissen, die die Reinigungen, die durch Pins 614a und 614b dargestellt werden, beinhalten, ausgewählt. Ebenso zeigt in 6D die Benutzerschnittstelle 604 des Systems 540 die Route 616 von dem aktuellen Standort 608 der Benutzervorrichtung 100 zu der ausgewählten Reinigung, die durch den Pin 614a dargestellt wird, an.
  • In einigen Ausführungsformen entspricht (710) die Vielzahl von auswählbaren Objekten einer Vielzahl von Kartenorten und das ausgewählte Objekt entspricht einem aktuell ausgewählten Ziel. In 6D sind z. B. die Benutzerschnittstellen-Objekte (z. B. Pins), die den Reinigungen entsprechen, die durch Pin 614a und 614b dargestellt werden, Kartenorte, die relativ sind zum aktuellen Standort 608 der Vorrichtung 100. Ebenso zeigt die Benutzerschnittstelle 604 des Systems 540 in 6D die Route 616 vom aktuellen Standort 608 der Benutzervorrichtung 100 zu dem Kartenort der ausgewählten Reinigung, die durch den Pin 614a dargestellt wird, an.
  • In einigen Ausführungsformen entspricht (712) die Vielzahl von auswählbaren Objekten einer Vielzahl von Navigationsrouten und das ausgewählte Objekt entspricht einer aktuell ausgewählten Navigationsroute. 6O zeigt z. B. eine Vielzahl von auswählbaren Benutzerschnittstellen-Objekten, einschließlich ”Route 1”-Affordanz 631b und ”Route 2”-Affordanz 632b, die den jeweiligen Routen 631a und 631b entsprechen, vom aktuellen Standort 608 der Benutzervorrichtung 100 zu den Reinigungen, die durch Pins 614a und 614b dargestellt werden. Auch zeigt die Benutzerschnittstelle 604 des Systems 540 in 6D die Route 616 an, die der hervorgehobenen Route 631a in der Benutzerschnittstelle 602 vom aktuellen Standort 608 der Benutzervorrichtung 100 zu der ausgewählten Reinigung, die durch den Pin 614a dargestellt wird, entspricht.
  • In einigen Ausführungsformen entspricht (714) die Vielzahl von auswählbaren Objekten einer Vielzahl von Inhaltsgegenständen, die mit der Vorrichtung abgespielt (oder dargestellt) werden können (z. B. ist die Vielzahl von auswählbaren Objekten eine Vielzahl von Songs, Abspiellisten, Hörbüchern, Radiostationen oder Ähnlichem) und das ausgewählte Objekt entspricht einem aktuell ausgewählten Inhaltsgegenstand. Zum Beispiel wird ein entsprechender Song aus einer Liste von Songs als ein automatisch ausgewählter Song in der Benutzerschnittstelle des Touchscreens 112 der Vorrichtung 100 angezeigt auf der Grundlage, zumindest zum Teil, wie oft der entsprechende Song abgespielt worden ist, der Position des entsprechenden Songs in einem Album, des letzten abgespielten Songs und anderen Faktoren. In diesem Beispiel wird der entsprechende automatisch ausgewählte Song als der aktuell laufende in der Benutzerschnittstelle der Anzeige 546-1 angezeigt.
  • In einigen Ausführungsformen entspricht (716) die Vielzahl von auswählbaren Objekten einer Vielzahl von Anwendungen und das ausgewählte Objekt entspricht einer aktuell ausgewählten Anwendung.
  • In einigen Ausführungsformen ist (718) die zweite Anzeige eine Anzeige, die mit einer zweiten elektronischen Vorrichtung gekoppelt ist, die unterschiedlich ist von der ersten elektronischen Vorrichtung (z. B. anstelle einer nativen GUI der zweiten elektronischen Vorrichtung). 6A bis 6V zeigen z. B. die Anzeige 546-1 (z. B. die zweite Anzeige), die mit dem System 540 (z. B. die zweite elektronische Vorrichtung) gekoppelt ist, die unterschiedlich (und getrennt) ist von der Vorrichtung 100.
  • In einigen Ausführungsformen steuert (720) die zweite elektronische Vorrichtung ein In-Fahrzeug-Unterhaltungssystem mit einer nativen grafischen Benutzerschnittstelle und die zweite Benutzerschnittstelle wird auf der zweiten Anzeige angezeigt anstelle von zumindest einem Abschnitt der nativen grafischen Benutzerschnittstelle auf der zweiten elektronischen Vorrichtung (z. B. wird die zweite Benutzerschnittstelle durch eine Anwendung erzeugt, die auf der ersten elektronischen Vorrichtung läuft und wird anstelle eines Teils oder dem Gesamten der nativen grafischen Benutzerschnittstelle des In-Fahrzeug-Unterhaltungssystems angezeigt). In 6A bis 6V steuert z. B. das System 540 ein In-Fahrzeug-Unterhaltungssystem, welches die Anzeige 546-1 beinhaltet. Zum Beispiel ist die Benutzerschnittstelle 604 in 6A, welche Klimasteuerungen für ein Fahrzeug beinhaltet, die native grafische Benutzerschnittstelle des In-Fahrzeug-Unterhaltungssystems. Die 6B bis 6V zeigen z. B. die Benutzerschnittstelle 604, die eine Karte beinhaltet, die auf der Anzeige 546-1 angezeigt wird, anstelle der nativen grafischen Benutzerschnittstelle (z. B. den Klimasteuerungen) wie in 6A gezeigt.
  • In einigen Ausführungsformen empfängt (722) die erste elektronische Vorrichtung Informationen, die einer entsprechenden Eingabe von einer Steuerung des In-Fahrzeug-Unterhaltungssystems entsprechen (z. B. eine Tipp- oder Wischgeste auf einer berührungsempfindlichen Oberfläche, die mit der zweiten Anzeige verknüpft ist, eine Knopfdrückhandlung für einen Knopf, der mit der zweiten Anzeige verknüpft ist und/oder eine Drehknopf-Drehhandlung für einen Drehknopf, der mit der zweiten Anzeige verknüpft ist). 6U zeigt z. B. das System 540, welches die Benutzerberührungseingabe 672 über der ”Starte Wegbeschreibung”-Affordanz 672 in der Benutzerschnittstelle 604 der Anzeige 546-1 erkennt. In diesem Beispiel sendet das System 540 Informationen an die Vorrichtung 100, die angeben, dass die Benutzerberührungseingabe 672 über der ”Starte Wegbeschreibung”-Affordanz 672 in der Benutzerschnittstelle 604 der Anzeige 546-1 erkannt worden ist.
  • In einigen Ausführungsformen, in Antwort auf ein Empfangen der Informationen, die der entsprechenden Eingabe entsprechen, aktualisiert (724) die erste elektronische Vorrichtung die erste Benutzerschnittstelle und die zweite Benutzerschnittstelle in Übereinstimmung mit der entsprechenden Eingabe. 6V zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 aktualisiert, um das detaillierte Wegbeschreibungsfeld 673 auf dem Touchscreen 112 anzuzeigen und die Benutzerschnittstelle 604, um einen detaillierten Wegbeschreibungsmodus auf der Anzeige 546-1 anzuzeigen. In einigen Ausführungsformen, während die Benutzerschnittstelle 604 sich in einem detaillierten Wegbeschreibungsmodus befindet, wird die Karte, die auf der Anzeige 546-1 angezeigt ist, weiter vergrößert im Vergleich dazu, wenn sich die Benutzerschnittstelle 604 nicht in einem detaillierten Wegbeschreibungsmodus befindet.
  • In einigen Ausführungsformen werden sowohl die erste Benutzerschnittstelle als auch die zweite Benutzerschnittstelle durch dieselbe Anwendung erzeugt (726), die auf der ersten elektronischen Vorrichtung läuft (z. B. einer Anwendung, die auf einem Smartphone läuft, erzeugt eine Benutzerschnittstelle für das Telefon und eine Benutzerschnittstelle zum Anzeigen auf einer Anzeige eines In-Fahrzeug-Unterhaltungssystems eines Fahrzeugs). 6A zeigt z. B. die Benutzerberührungseingabe 606, die eine Kartenanwendung 436 in der Benutzerschnittstelle 602 auswählt. 6B bis 6V zeigen z. B. die Kartenanwendung 436, die auf der Vorrichtung 100 läuft und die sowohl die Benutzerschnittstelle 602 auf dem Touchscreen 112 (z. B. die erste Benutzerschnittstelle) als auch Benutzerschnittstelle 604 auf der Anzeige 546-1 (z. B. die zweite Benutzerschnittstelle) erzeugt.
  • Während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt (728) wird, erkennt (730) die erste elektronische Vorrichtung eine erste Eingabe (z. B. eine Tipp- oder Wischgeste auf der ersten berührungsempfindlichen Oberfläche der ersten elektronischen Vorrichtung) von einem Benutzer, die einer Anfrage entspricht, Informationen über ein zweites Objekt aus der Vielzahl von auswählbaren Objekten in der ersten Benutzerschnittstelle anzuzeigen (z. B. ohne Auswählen des zweiten Objekts als das ausgewählte Objekt). 6L zeigt z. B. die Vorrichtung 100, die eine Benutzerberührungseingabe 643 über dem Benutzerschnittstellen-Objekt (z. B. einem Pin) erkennt, das der Reinigung entspricht, die durch den Pin 614b auf der Karte dargestellt wird, die in der Benutzerschnittstelle 602 angezeigt wird, die die Reinigungen beinhaltet, die durch Pins 614a, 614b, 614c, 614e und 614f dargestellt werden. 6L zeigt z. B. auch das Benutzersystem 540, das den detaillierten Wegbeschreibungsmodus anzeigt, der Route 616 vom Marker 636 zu der Reinigung, die durch den Pin 614a in der Benutzerschnittstelle 604 der Anzeige 546-1 dargestellt wird, beinhaltet, während die Vorrichtung 100 die Benutzerberührungseingabe 643 erkennt.
  • Während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt (728) wird, aktualisiert (732) die erste elektronische Vorrichtung in Antwort auf ein Erkennen der ersten Eingabe die erste Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um die entsprechenden Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird. 6M zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 aktualisiert, um das Informationsfeld 644 anzuzeigen, das der Reinigung entspricht, die durch den Pin 614b dargestellt wird, in Antwort auf ein Erkennen der Benutzerberührungseingabe 643 über dem Benutzerschnittstellen-Objekt (z. B. Pin), das der Reinigung entspricht, die durch den Pin 614b in 6L dargestellt wird. Während die Benutzerschnittstelle 602 in 6M aktualisiert wird, wird die Benutzerschnittstelle 604 auf der Anzeige 546-1 in 6M aufrecht erhalten, wie gezeigt vor dem Erkennen der Benutzerberührungseingabe 643 in 6L.
  • In einigen Ausführungsformen wird die erste Benutzerschnittstelle aktualisiert (734) in Antwort auf ein Erkennen der ersten Eingabe, ohne das Bereitstellen von Informationen an die zweite Anzeige, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um die entsprechenden Informationen über das zweite Objekt in der zweiten Benutzerschnittstelle anzuzeigen (z. B. sendet die erste elektronische Vorrichtung nicht die entsprechenden Informationen an die zweite elektronische Vorrichtung oder an die zweite Anzeige in Antwort auf die erste Eingabe). 6M zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 auf dem Touchscreen 112 in Antwort auf das Erkennen der Benutzerberührungseingabe 643 in 6L aktualisiert, ohne Informationen an die Anzeige 546-1 (oder System 540) bereitzustellen, die es der Benutzerschnittstelle 604 auf der Anzeige 546-1 ermöglichen, aktualisiert zu werden. Während die Benutzerschnittstelle 602 in 6M aktualisiert wird, wird die Benutzerschnittstelle 604 auf der Anzeige 546-1 in 6M aufrecht erhalten, wie gezeigt vor dem Erkennen der Benutzerberührungseingabe 643 in 6L.
  • In einigen Ausführungsformen beinhaltet (736) das Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um entsprechende Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird, ein Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um entsprechende Informationen über das zweite Objekt anzuzeigen, während die gesamte zweite Benutzerschnittstelle auf der zweiten Anzeige aufrecht erhalten wird, so wie sie angezeigt wurde direkt vor dem Erkennen der ersten Eingabe (z. B. wird die zweite Benutzerschnittstelle nicht aktualisiert in Antwort auf die erste Aktualisierung). 6M zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 auf dem Touchscreen 112 aktualisiert, um das Informationsfeld 644 anzuzeigen, das der Reinigung entspricht, die durch den Pin 614b dargestellt wird, in Antwort auf das Erkennen der Benutzerberührungseingabe 643 in 6L. Während die Benutzerschnittstelle 602 in 6M aktualisiert wird, wird die Benutzerschnittstelle 604 auf der Anzeige 546-1 in 6M aufrecht erhalten, wie gezeigt vor dem Erkennen der Benutzerberührungseingabe 643 in 6L.
  • Während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt (728) wird, nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, erkennt (738) die erste elektronische Vorrichtung eine zweite Eingabe eines Benutzers, die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen. 6Q zeigt z. B. die Vorrichtung 100, die die Benutzerberührungseingabe 661 erkennt, die einer Anfrage entspricht, die detaillierte Wegbeschreibung für die Route 659a vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners) anzuzeigen.
  • In Antwort auf das Erkennen (740) der zweiten Eingabe, aktualisiert (742) die erste elektronische Vorrichtung die erste Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Objekt als das ausgewählt Objekt anzuzeigen. 6R zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 aktualisiert, um das detaillierte Wegbeschreibungsfeld 662 vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners), anzuzeigen, in Antwort auf das Erkennen der Benutzerberührungseingabe 661 in 6Q.
  • In Antwort auf das Erkennen (740) der zweiten Eingabe stellt (744) die erste elektronische Vorrichtung der zweiten Anzeige Informationen bereit, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen. In Antwort auf das Erkennen der Benutzerberührungseingabe 661 in 6Q sendet die Vorrichtung 100 Informationen an das System 540, die es dem System 540 ermöglichen, die Benutzerschnittstelle 604 auf der Anzeige 546-1 zu aktualisieren. 6R zeigt z. B. die aktualisierte Benutzerschnittstelle 604, in der der detaillierte Wegbeschreibungsmodus (z. B. vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird) in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt wird, einschließlich des Markers 664, der den aktuellen Standort der Vorrichtung 100 angibt, Route 659a zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners) und das detaillierte Wegbeschreibungsfeld 663, das die erste Richtung (oder die erste Abbiegung) des Benutzers auf der Route 659a angibt.
  • In einigen Ausführungsformen, nach dem Bereitstellen der Informationen, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen (746), aktualisiert zu werden, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen, geht (748) die erste elektronische Vorrichtung in einen Anzeige-Synchronisationsmodus über (z. B. Übergehen in einen Abspiellisten-Abspielmodus oder einen Fahrtwegbeschreibungsmodus). 6R zeigt z. B. die Vorrichtung 100, die das detaillierte Wegbeschreibungsfeld 662 vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird, in der Benutzerschnittstelle 602 des Touchscreens 112 anzeigt (z. B. einen Anzeige-Synchronisationsmodus). In einigen Ausführungsformen, während sich die erste elektronische Vorrichtung im Anzeige-Synchronisationsmodus (750) befindet: die erste elektronische Vorrichtung aktualisiert (752) periodisch die erste Benutzerschnittstelle im Verlauf der Zeit (z. B. Aktualisieren des angezeigten Covers während die erste elektronische Vorrichtung eine Sequenz von Songs in einer Abspielliste abspielt oder Aktualisieren einer angezeigten Karte, um den Fortschritt eines Fahrzeugs anzugeben, das sich entlang einer Navigationsroute bewegt). Zum Beispiel, während die Vorrichtung 100 das detaillierte Wegbeschreibungsfeld 662 anzeigt, wie in 6R gezeigt, aktualisiert die Vorrichtung 100 periodisch die Benutzerschnittstelle 602, um die aktualisierte nächste Richtung (oder Abbiegung) auf der Route 659a und die aktualisierte Entfernung in Meilen und die verbleibende Zeit im detaillierten Wegbeschreibungsfeld 662 zu zeigen, während sich die Vorrichtung 100 dem Ziel nähert (z. B. der Reinigung, die durch den Pin 614b dargestellt wird, die Mary Ann's Cleaners entspricht). In einigen Ausführungsformen, während sie sich in dem Anzeige-Synchronisationsmodus (750) befindet: die erste elektronische Vorrichtung stellt (754) Informationen bereit, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, mit der ersten Benutzerschnittstelle synchronisiert zu werden, während die erste Benutzerschnittstelle im Verlauf der Zeit aktualisiert wird (z. B. Bereitstellen eines aktualisierten Covers oder von Kartenbildern an die Anzeige während die erste elektronische Vorrichtung die Abspielliste abspielt oder das Fahrzeug sich entlang der Navigationsroute bewegt). Zum Beispiel, während die Vorrichtung 100 das detaillierte Wegbeschreibungsfeld 662 anzeigt, wie in 6R gezeigt, stellt die Vorrichtung 100 Informationen an das System 540 bereit, die es dem System 540 ermöglichen, eine aktualisierte Benutzerschnittstelle 604 anzuzeigen, einschließlich der aktualisierten nächsten Richtung (oder Abbiegung) auf der Route 659a, der aktualisierten Entfernung in Meilen und der verbleibenden Zeit im detaillierten Wegbeschreibungsfeld 663 und Marker 664 (z. B. den aktuellen Standort der Vorrichtung 100), während sich die Vorrichtung 100 dem Ziel nähert (z. B. der Reinigung, die durch den Pin 614b dargestellt wird, die Mary Ann's Cleaners entspricht).
  • In einigen Ausführungsformen, vor dem Erkennen der ersten Eingabe, wird die erste Benutzerschnittstelle mit der zweiten Benutzerschnittstelle synchronisiert (756) (z. B. wird das erste Objekt in sowohl der ersten Benutzerschnittstelle als auch der zweiten Benutzerschnittstelle als das ausgewählte Objekt angezeigt); nach dem Antworten auf die erste Eingabe und vor dem Erkennen der zweiten Eingabe wird die erste Benutzerschnittstelle nicht mit der zweiten Benutzerschnittstelle synchronisiert (z. B. wird ein zweites Objekt als das ausgewählte Objekt in der ersten Benutzerschnittstelle angezeigt, während das zweite Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt bleibt); und nach dem Antworten auf die zweite Eingabe wird die erste Benutzerschnittstelle mit der zweiten Benutzerschnittstelle synchronisiert (z. B. wird das zweite Objekt als das ausgewählte Objekt in sowohl der ersten Benutzerschnittstelle als auch der zweiten Benutzerschnittstelle angezeigt).
  • In 6H werden die erste Benutzerschnittstelle 602 und die zweite Benutzerschnittstelle 604 synchronisiert. 6H zeigt z. B. die Benutzerschnittstelle 602 auf dem Touchscreen 112, die das detaillierte Wegbeschreibungsfeld 634 anzeigt, das die erste Richtung (oder Abbiegung) auf der Route 631a vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614a dargestellt wird (z. B. das erste ausgewählte Objekt) und den Namen des ersten ausgewählten Objekts oder Ziels (z. B. ABC Cleaners) angibt. 6H zeigt ebenso z. B. die Benutzerschnittstelle 604 auf der Anzeige 546-1, die einen detaillierten Wegbeschreibungsmodus mit Route 616 von dem aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614a dargestellt wird, anzeigt (z. B. das erste ausgewählte Objekt).
  • In 6M werden die erste Benutzerschnittstelle 602 und die zweite Benutzerschnittstelle 604 nicht synchronisiert. 6M zeigt z. B. die Benutzerschnittstelle 602 auf dem Touchscreen 112, die das Informationsfeld 644 anzeigt, das der Reinigung entspricht, die durch den Pin 614b dargestellt wird (z. B. das zweite ausgewählte Objekt). 6M zeigt ebenso z. B. die Benutzerschnittstelle 604 auf der Anzeige 546-1, die die Route 616 vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614a (z. B. dem ersten ausgewählten Objekt) dargestellt wird, anzeigt.
  • In 6R werden die erste Benutzerschnittstelle 602 und die zweite Benutzerschnittstelle 604 synchronisiert. 6R zeigt z. B. die Benutzerschnittstelle 602 auf dem Touchscreen 112, die das detaillierte Wegbeschreibungsfeld 662 anzeigt, das die erste Richtung des Benutzers (oder Abbiegung) auf der Route 659a vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. dem ausgewählten zweiten Objekt), und den Namen des ausgewählten zweiten Objekts oder Ziels (z. B. Mary Ann's Cleaners) angibt. 6R zeigt z. B. ebenso die Benutzerschnittstelle 604 auf der Anzeige 546-1, die einen detaillierten Wegbeschreibungsmodus mit der Route 659a vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. dem zweiten ausgewählten Objekt), anzeigt.
  • Demzufolge, wie zuvor beschrieben, werden die Benutzerschnittstelle, die auf der Touchscreen-Anzeige 112 angezeigt wird, und die Anzeige 546-1 intermittierend synchronisiert. Intermittierendes Synchronisieren der Benutzerschnittstellen, die auf der Touchscreen-Anzeige 112 und der Anzeige 546-1 angezeigt werden, ermöglicht es einem Beifahrer in einem Fahrzeug Informationen zu durchsuchen, die auf der Touchscreen-Anzeige 112 angezeigt werden (z. B. Ermitteln unterschiedlicher Kandidatenziele einschließlich Kontaktinformationen, Beurteilungen, Beschreibungen usw.), ohne konstantes Aktualisieren der Benutzerschnittstelle, die auf der Anzeige, die für den Fahrer sichtbar ist, angezeigt wird (z. B. Anzeige 546-1) in Antwort auf die Aktivität des Beifahrers. Sobald sich jedoch der Passagier in der Benutzerschnittstelle, die auf Touchscreen-Anzeige 112 angezeigt wird, auf eine Handlung festgelegt hat (z. B. ein Ziel ausgewählt hat) werden die Benutzerschnittstellen auf den Anzeigen synchronisiert, so dass der Fahrer zu dem ausgewählten Ziel fahren kann, und so dass der Benutzer helfen kann, zu dem ausgewählten Ziel zu navigieren. Auf ähnliche Weise, wenn der Fahrer ein Ziel in der Benutzerschnittstelle auswählt, die auf der Anzeige angezeigt wird, die für den Fahrer sichtbar ist (z. B. Anzeige 546-1), wird die Benutzerschnittstelle, die auf der Touchscreen-Anzeige 112 angezeigt wird, aktualisiert, um die Auswahl des Fahrers wiederzugeben, so dass der Beifahrer dem Fahrer helfen kann, zu dem ausgewählten Ziel zu navigieren. Das intermittierende Synchronisieren der Benutzerschnittstellen, das zuvor beschrieben worden ist, ist ein Fortschritt hinsichtlich einer Situation, in der die Benutzerschnittstellen, die auf zwei Anzeigen angezeigt werden, kontinuierlich synchronisiert werden (z. B. weil der Beifahrer in der Lage ist, zusätzliche Informationen zu betrachten, ohne wiederholt die Informationen zu ändern, die dem Fahrer angezeigt werden). Zusätzlich ist die intermittierende Synchronisation von Benutzerschnittstellen, die zuvor beschrieben worden ist, eine Verbesserung hinsichtlich einer Situation, in der die Benutzerschnittstellen, die auf zwei Anzeigen angezeigt werden, nie synchronisiert werden (z. B. weil der Beifahrer nicht den zusätzlichen Schritt des Aktualisierens einer Zieladresse in einem Fahrzeugnavigationssystem machen muss, nachdem er die Adresse auf der Vorrichtung 100 nachgeschaut hat).
  • Es sollte verstanden werden, dass die besondere Reihenfolge, in der die Handlungen in 7A bis 7D beschrieben worden sind, nur beispielhaft sind und nicht vorgesehen sind, anzugeben, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in welcher die Handlungen ausgeführt werden könnten. Der Fachmann würde verschiedene Wege erkennen, die hierin beschriebenen Handlungen neu anzuordnen. Zusätzlich sollte verstanden werden, dass Details anderer Verfahren, die hierin beschrieben worden sind, hinsichtlich anderer Verfahren, die hierin beschrieben worden sind (z. B. Verfahren 800 und 900) ebenso in einer analogen Weise zu dem Verfahren 700 anwendbar sind, wie zuvor beschrieben hinsichtlich der 7A bis 7D. Zum Beispiel haben die Kontakte, Gesten, Benutzerschnittstellen-Objekte, die zuvor mit Bezug zum Verfahren 700 beschrieben worden sind, optional eine oder mehrere Eigenschaften der Kontakte, Gesten, Benutzerschnittstellen-Objekte, die hierin mit Bezug zu anderen Verfahren beschrieben worden sind (z. B. die Verfahren 800 und 900). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 8A bis 8B sind Flussdiagramme, die ein Verfahren 800 zum Synchronisieren zweier oder mehrerer Anzeigen darstellen, in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 800 wird bei einer elektronischen Vorrichtung ausgeführt (z. B. die Vorrichtung 300, 3 oder die tragbare Multifunktionsvorrichtung 100, 1A), die sich in Kommunikation mit einer Fahrzeuganzeige eines Fahrzeugs befindet. Die tragbare elektronische Vorrichtung beinhaltet eine tragbare Vorrichtungsanzeige und eine berührungsempfindliche Oberfläche. In einigen Ausführungsformen ist die tragbare Vorrichtungsanzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche ist auf der tragbaren Vorrichtung. In einigen Ausführungsformen ist die tragbare Vorrichtung getrennt von der berührungsempfindlichen Oberfläche. Einige Handlungen im Verfahren 800 sind optional kombiniert und/oder die Reihenfolge einiger Handlungen ist optional geändert.
  • Wie nachfolgend beschrieben, stellt das Verfahren 800 eine intuitive Weise bereit, zwei oder mehrere Anzeigen zu synchronisieren. Dieses Verfahren reduziert die kognitive Belastung eines Benutzers, wenn er zwei oder mehrere Anzeigen verwendet, das dadurch eine effizientere Mensch-Maschinen-Schnittstelle erzeugt. Für batteriebetriebene elektronische Vorrichtungen spart das Ermöglichen eines Benutzers, zwei oder mehrere Anzeigen schneller und effizienter zu synchronisieren, Leistung und erhöht die Zeit zwischen Ladevorgängen.
  • Die tragbare elektronische Vorrichtung erhält (802) einen Satz von Kartensuchergebnissen, die eine Vielzahl von Kandidatenzielen beinhaltet. 6C zeigt z. B. eine Benutzersuchanfrage (z. B. Reinigung), die im Suchfeld 609 in der Benutzerschnittstelle 602 auf dem Touchscreen 112 angezeigt wird. In Antwort auf die Suchanfrage erhält die Vorrichtung 100 einen Satz von Kartensuchergebnissen, der eine Vielzahl von Kandidatenzielen beinhaltet, durch Suchen in einem lokalen Speicher der Vorrichtung 100, einem externen Speicher der Vorrichtung 100, dem Internet oder einer Kombination davon.
  • Die tragbare elektronische Vorrichtung zeigt (804) eine tragbare Vorrichtungs-Navigationsschnittstelle auf der tragbaren Vorrichtungsanzeige an, wobei die tragbare Vorrichtungs-Navigationsschnittstelle die Auswahl eines Ziels aus einer Vielzahl von Kandidatenzielen ermöglicht (z. B. Suchergebnisse, die einer zuvor ausgeführten Suchhandlung entsprechen). 6D zeigt z. B. eine tragbare Vorrichtungs-Navigationsschnittstelle (z. B. Benutzerschnittstelle 602), die der Suchanfrage ”Reinigung” entspricht, die im Suchanfragefeld 609 in 6C eingegeben worden ist, die auf dem Touchscreen 112 angezeigt wird. In 6D beinhaltet die Benutzerschnittstelle 602 auswählbare Benutzerschnittstellen-Objekte (z. B. Pins) oder Affordanzen, die den Reinigungen entsprechen, die durch Pins 614a und 614b dargestellt werden, in der Nähe des aktuellen Standortes 608 der Vorrichtung 100.
  • Die tragbare elektronische Vorrichtung sendet (806) Informationen an die Fahrzeuganzeige, die es der Fahrzeuganzeige ermöglichen, eine Fahrzeug-Navigationsschnittstelle anzuzeigen, wobei ein erstes Ziel aus der Vielzahl von Kandidatenzielen ein ausgewähltes Ziel in der Fahrzeug-Navigationsschnittstelle ist. 6D zeigt z. B. eine Fahrzeug-Navigationsschnittstelle (z. B. Benutzerschnittstelle 604), die auf der Anzeige 546-1 des Systems 540 angezeigt wird. In 6D wird die Reinigung, die durch den Pin 614a dargestellt wird (z. B. ABC Cleaners), als das ausgewählte Ziel in Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt und die Route 616 vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614a dargestellt wird, wird ebenso in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt. In einigen Ausführungsformen ist die Anzeige 546-1 eine Touchscreen-Anzeige. In einigen Ausführungsformen ist die Anzeige 546-1 eine primäre Anzeige einer Vielzahl von Anzeigen, die mit dem System 540 verknüpft sind. In einigen Ausführungsformen ist die Anzeige 546-1 in der Instrumententafel des Fahrzeugs implementiert und ist optisch zugreifbar für den Fahrer und/oder den Beifahrer des Fahrzeugs.
  • Während das erste Ziel das ausgewählte Ziel in der Fahrzeug-Navigationsschnittstelle ist (808), erkennt (810) die tragbare elektronische Vorrichtung eine erste Eingabe (z. B. eine Tipp- oder Wischgeste auf einer berührungsempfindlichen Oberfläche der ersten elektronischen Vorrichtung) von einem Benutzer, die einer Anfrage entspricht, Informationen über eines oder mehrere Kandidatenziele aus der Vielzahl von Kandidatenzielen, die anders sind als das erste Ziel, anzuzeigen (z. B. ohne Auswählen des zweiten Objekts als das ausgewählte Objekt). 6L zeigt z. B. die Vorrichtung 100, die eine Benutzerberührungseingabe 643 über dem Benutzerschnittstellen-Objekt (z. B. einen Pin) erkennt, der der Reinigung entspricht, die durch den Pin 614b (z. B. Mary Ann's Cleaners) auf der Karte, die in Benutzerschnittstelle 602 angezeigt wird, dargestellt wird. In 6L beinhaltet die Karte, die in der Benutzerschnittstelle angezeigt wird, die Reinigungen, die durch die Pins 614a, 614b, 614c, 614e und 614f dargestellt werden. In 6L wird die Reinigung, die durch den Pin 614a dargestellt wird (z. B. ABC Cleaners) als das ausgewählte Ziel in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt.
  • Während das erste Ziel das ausgewählte Ziel in der Fahrzeug-Navigationsschnittstelle ist (808), aktualisiert (812) die tragbare elektronische Vorrichtung in Antwort auf ein Erkennen der ersten Eingabe die tragbare Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeige in Übereinstimmung mit der ersten Eingabe, ohne dass die Fahrzeug-Navigationsschnittstelle auf der Fahrzeuganzeige aktualisiert wird. 6M zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 aktualisiert, um das Informationsfeld 644 anzuzeigen, das der Reinigung entspricht, die durch den Pin 614b dargestellt wird, in Antwort auf das Erkennen der Benutzerberührungseingabe 643 über dem Benutzerschnittstellen-Objekt (z. B. dem Pin), der der Reinigung entspricht, die durch den Pin 614b in 6L dargestellt wird. In 6M wird die Benutzerschnittstelle 602 aktualisiert, ohne dass Informationen an die Anzeige 546-1 (oder System 540) bereitgestellt wird, die es der Benutzerschnittstelle 604 erlauben, auf der Anzeige 546-1 aktualisiert zu werden. In 6M wird z. B. die Reinigung, die durch den Pin 614a dargestellt wird, als das ausgewählte Ziel in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt.
  • Während das erste Ziel das ausgewählte Ziel in der Fahrzeug-Navigationsschnittstelle ist (808), erkennt (814) die tragbare elektronische Vorrichtung nach dem Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle in Übereinstimmung mit der ersten Eingabe eine zweite Eingabe von einem Benutzer, die einer Anfrage entspricht, ein zweites Ziel aus der Vielzahl von Kandidatenzielen als das ausgewählte Ziel auszuwählen. 6Q zeigt z. B. die Vorrichtung 100, die die Benutzerberührungseingabe 661 erkennt, die einer Anfrage entspricht, die detaillierte Wegbeschreibung für die Route 659a vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners) anzuzeigen.
  • In Antwort auf das Erkennen (816) der zweiten Eingabe aktualisiert (818) die tragbare elektronische Vorrichtung die tragbare Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Ziel als das ausgewählte Ziel anzuzeigen. 6R zeigt z. B. die Vorrichtung 100, die die Benutzerschnittstelle 602 aktualisiert, um das detaillierte Wegbeschreibungsfeld 662 mit der Wegbeschreibung zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners) anzuzeigen, in Antwort auf das Erkennen der Benutzerberührungseingabe 661 in 6Q.
  • In Antwort auf das Erkennen (816) der zweiten Eingabe sendet (820) die tragbare elektronische Vorrichtung Informationen an die Fahrzeuganzeige, die es der Fahrzeuganzeige ermöglichen, die Fahrzeug-Navigationsschnittstelle zu aktualisieren in Übereinstimmung mit der zweiten Eingabe, um das zweite Ziel als das ausgewählte Ziel anzuzeigen. In Antwort auf das Erkennen der Benutzerberührungseingabe 661 in 6Q sendet die Vorrichtung 100 Informationen an das System 540, um es dem System 540 zu ermöglichen, die Benutzerschnittstelle 604 auf der Anzeige 546-1 zu aktualisieren. 6R zeigt z. B. die aktualisierte Benutzerschnittstelle 604, wobei der detaillierte Wegbeschreibungsmodus in der Benutzerschnittstelle 604 der Anzeige 546-1 angezeigt wird, einschließlich des Markers 664, der den aktuellen Standort der Vorrichtung 100 angibt, der Route 659a vom aktuellen Standort 608 der Vorrichtung 100 zu der Reinigung, die durch den Pin 614b dargestellt wird (z. B. Mary Ann's Cleaners) und des detaillierten Wegbeschreibungsfeldes 663, das die erste Richtung (oder Abbiegung) des Benutzers auf Route 659a angibt.
  • Es sollte verstanden werden, dass die besondere Reihenfolge, in der die Handlungen in 8A bis 8B beschrieben worden sind, nur exemplarisch ist und nicht beabsichtigt ist anzugeben, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Handlungen ausgeführt werden können. Der Fachmann würde verschiedene Wege erkennen, die hierin beschriebenen Handlungen neu anzuordnen. Zusätzlich sollte verstanden werden, dass Details anderer Verfahren, die hierin beschrieben worden sind (z. B. Verfahren 700 und 900) ebenso auf analoge Weise zu Verfahren 800 anwendbar sind, das zuvor hinsichtlich 8A und 8B beschrieben worden ist. Zum Beispiel haben die Kontakte, Gesten, Benutzerschnittstellen-Objekte, die zuvor mit Bezug zu Verfahren 800 beschrieben worden sind, optional eine oder mehrere der Eigenschaften der Kontakte, Gesten, Benutzerschnittstellen-Objekte, die hierin beschrieben worden sind mit Bezug zu anderen Verfahren, die hierin beschrieben worden sind (z. B. Verfahren 700 und 900). Der Kürze halber werden diese Details hier nicht wiederholt.
  • 9A bis 9C sind Flussdiagramme, die ein Verfahren 900 zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige darstellen in Übereinstimmung mit einigen Ausführungsformen. Das Verfahren 900 wird bei einer elektronischen Vorrichtung ausgeführt (z. B. Vorrichtung 300, 3 oder tragbare Multifunktionsvorrichtung 100, 1A), die sich in Kommunikation mit einer Vielzahl von Anzeigen befindet, die eine erste Anzeige und eine zweite Anzeige beinhaltet. In einigen Ausführungsformen beinhaltet die elektronische Vorrichtung optional eine Anzeige und eine berührungsempfindliche Oberfläche. In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche ist auf der elektronischen Vorrichtung. In anderen Ausführungsformen ist die elektronische Vorrichtung getrennt von der berührungsempfindlichen Oberfläche. Einige Handlungen im Verfahren 900 werden optional kombiniert und/oder die Reihenfolge mancher Handlungen ist optional vertauscht.
  • Wie nachfolgend beschrieben stellt das Verfahren 900 eine effiziente Weise zum Senden von Aktualisierungsinformationen an eine betroffene Anzeige bereit.
  • Eine elektronische Vorrichtung, die sich in Kommunikation mit einer Vielzahl von Anzeigen befindet, die eine erste Anzeige und eine zweite Anzeige beinhaltet, empfängt (902) die erste Eingabeinformation, die hinweisend ist für eine erste Eingabe, die von einer ersten Eingabequelle einer Vielzahl von Eingabequellen erkennt worden ist, wobei die erste Eingabeinformation beinhaltet: Einen ersten (eindeutigen) Identifikator für die erste Eingabequelle; und eine erste Eingabebeschreibung, die die Eingabe beschreibt. Zum Beispiel ist die erste Eingabequellenbeschreibung Roheingabedaten, wie z. B. Kontaktorte und Bewegungsmengen/Richtungen, die auf einer berührungsempfindlichen Oberfläche erkannt worden sind und/oder Gestendaten, die eine Art von Geste beschreiben, die auf der berührungsempfindlichen Oberfläche ausgeführt worden ist. In einigen Ausführungsformen befindet sich die Vorrichtung in Kommunikation mit einer Vielzahl von unterschiedlichen Eingabequellen (z. B. einen oder mehrere Knöpfe, Drehknöpfe, Drehschalter und/oder berührungsempfindliche Oberflächen), wobei eine jeweilige Eingabequelle abgebildet wird, um zusammen mit einer entsprechenden Anzeige zu arbeiten. In einigen Ausführungsformen, wie in größerem Detail nachfolgend mit Bezug auf 6DD bis 6EE beschrieben, wird die Abbildung optional aktualisiert, so dass das Abbilden einer entsprechenden Eingabequelle vom Abbilden auf die erste Anzeige zum Abbilden auf die zweite Anzeige geändert wird.
  • 6W bis 6FF zeigen z. B. die Vorrichtung 100 in Kommunikation mit den Anzeigen 546-1 und 546-2. Zum Beispiel sind die Anzeige 546-1 (z. B. eine primäre Anzeige) und 546-2 (z. B. eine zusätzliche Anzeige) mit dem System 540 verknüpft, welches in einem Fahrzeug implementiert ist. Zum Beispiel ist der Drehschalter 675 mit dem System 540 verknüpft und, wenn aktiviert, veranlasst die Vorrichtung eine oder beide der Anzeigen 546-1 und 546-2 zu steuern. 6X zeigt z. B. den Drehschalter 675, der die Drehung 681 erkennt (z. B. eine ungefähre 90 Grad Drehung im Uhrzeigersinn). In Antwort auf das Erkennen der Drehung 681 sendet der Drehschalter 675 (oder das System 540) Eingabeinformationen, die hinweisend sind für die Drehung 681, an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit dem Drehschalter 675 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit dem Drehschalter 675 verknüpft ist) und Eingabebeschreibungsinformationen, die die Drehung 681 beschreiben. Zum Beispiel beinhalten die Eingabebeschreibungsinformationen Rohdaten, die die Drehung 681 beschreiben, wie z. B. die Größenordnung (90 Grad) und die Richtung (im Uhrzeigersinn) der Drehung.
  • Die Vorrichtung wählt (904) eine erste betroffene Anzeige aus einer Vielzahl von Anzeigen aus basierend auf dem ersten Identifikator und einer Eingabequellen-Abbildung, die die Eingabequellen auf die entsprechenden Anzeigen abbildet. Zum Beispiel wählt die Vorrichtung 100 (oder bestimmt) in Antwort auf ein Empfangen von Eingabeinformationen, die der Drehung 681 in 6X des Drehschalters 675 entsprechen, eine betroffene Anzeige aus durch Korrelieren des Identifikators (z. B. Identifizieren der Eingabequelle als Drehschalter 675), der in den Eingabeinformationen beinhaltet ist, mit einer Anzeige (z. B. Anzeige 546-1) auf der Grundlage einer Eingabequellen-Abbildung, die die Eingabequellen auf die Anzeigen abbildet.
  • In einigen Ausführungsformen beinhaltet (906) das Auswählen der ersten betroffenen Anzeige: in Übereinstimmung mit einer Feststellung, dass die erste Eingabequelle der ersten Anzeige in der Eingabequellen-Abbildung zugewiesen ist, Auswählen der ersten Anzeige als die erste betroffene Anzeige, die von der ersten Eingabe betroffen ist; und in Übereinstimmung mit einer Feststellung, dass die erste Eingabequelle der zweiten Anzeige zugewiesen ist, die unterschiedlich ist von der ersten Anzeige, in der Eingabequellen-Abbildung, Auswählen der zweiten Anzeige als die erste betroffene Anzeige, die von der ersten Eingabe betroffen ist. Zum Beispiel, in Antwort auf das Empfangen von Eingabeinformationen, die der Kneifgeste in 6W auf der berührungsempfindlichen Oberfläche, die mit der Anzeige 546-1 verknüpft ist, entsprechen, wählt (oder bestimmt) die Vorrichtung 100 eine betroffene Anzeige durch Korrelieren des Identifikators (z. B. Identifizieren der Eingabequelle als die berührungsempfindliche Oberfläche, die mit der Anzeige 546-1 verknüpft ist), der in den Eingabeinformationen beinhaltet ist, mit einer Anzeige (z. B. Anzeige 546-1) auf der Grundlage der Eingabequellen-Abbildung, die die Eingabequellen auf die Anzeigen abbildet. In einem anderen Beispiel wählt (oder bestimmt) die Vorrichtung 100 in Antwort auf das Empfangen der Eingabeinformationen, die der Wischgeste nach oben in 6EE auf der berührungsempfindlichen Oberfläche, die mit der Anzeige 546-2 verknüpft ist, entsprechen, eine betroffene Anzeige durch Korrelieren des Identifikators (z. B. Identifizieren der Eingabequelle als die berührungsempfindliche Oberfläche, die mit der Anzeige 546-2 verknüpft ist), der in den Eingabeinformationen beinhaltet ist, mit einer Anzeige (z. B. die Anzeige 546-2) auf der Grundlage der Eingabequellen-Abbildung, die die Eingabequelle auf die Anzeigen abbildet.
  • In einigen Ausführungsformen, nach dem Auswählen der ersten betroffenen Anzeige, führt die Vorrichtung (908) die Schritte aus: Bestimmen eines entsprechenden Status einer Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird (z. B. eine Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, unmittelbar bevor die erste Eingabeinformation empfangen worden ist); und Erzeugen der Aktualisierungsinformationen auf der Grundlage der ersten Eingabebeschreibung und des entsprechenden Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird. Zum Beispiel wählt (oder bestimmt) die Vorrichtung 100 in Antwort auf das Empfangen von Eingabeinformationen, die der Drehung 681 in 6X des Drehschalters 675 entsprechen, eine betroffene Anzeige durch Korrelieren des Identifikators (z. B. Identifizieren der Eingabequelle als Drehschalter 675), der in den Eingabeinformationen beinhaltet ist, mit einer Anzeige (z. B. die Anzeige 546-1) auf der Grundlage einer Eingabequellen-Abbildung, die die Eingabequellen auf die Anzeigen abbildet. In diesem Beispiel bestimmt die Vorrichtung 100 auch nach dem Bestimmen, dass das Drehereignis, das in 6X erkannt worden ist, mit der Anzeige 546-1 verknüpft ist, den Anzeigestatus der Anzeige 546-1, die in 6X gezeigt wird (z. B. befindet sich die Benutzerschnittstelle 604 in einem Suchergebnis- oder Zielauswahlmodus). In diesem Beispiel erzeugt die Vorrichtung 100 die Aktualisierungsinformationen (z. B. die aktualisierte Benutzerschnittstelle, die in der Anzeige 546-1 in 6V angezeigt wird) auf der Grundlage der Eingabebeschreibungsinformationen, die in 6X gezeigt werden (z. B. eine ungefähr 90 Grad Drehung im Uhrzeigersinn) und des Anzeigestatus der Anzeige 546-1 (z. B. befindet sich die Benutzerschnittstelle 604 in einem Suchergebnis- oder Zielauswahlmodus).
  • In einigen Ausführungsformen entsprechen (910) die Aktualisierungsinformationen in Übereinstimmung mit einer Bestimmung, dass der entsprechende Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, ein erster Status ist, dem Ausführen einer ersten Handlung für den entsprechenden Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird (z. B. ist der entsprechende Status das Anzeigen einer ”gerade läuft”-Schnittstelle für das Abspielen von Ton und die entsprechende Handlung beinhaltet ein Anpassen einer Lautstärke der Tonwiedergabe, die mit der Benutzerschnittstelle verknüpft ist, die auf der ersten betroffenen Anzeige angezeigt wird, in Übereinstimmung mit einer Menge an Rotation eines Drehknopfes); und in Übereinstimmung mit einer Bestimmung, dass der entsprechende Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, ein zweiter Status ist, der unterschiedlich ist vom ersten Status, entsprechen die Aktualisierungsinformationen dem Ausführen einer zweiten Handlung, die unterschiedlich ist von der ersten Handlung, für den entsprechenden Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird (z. B. ist der entsprechende Status ein Anzeigen einer Liste von auswählbaren Gegenständen, wie z. B. Audioinhaltsgegenständen, und die entsprechende Handlung beinhaltet ein Navigieren durch die Liste auswählbarer Gegenstände auf der ersten betroffenen Anzeige in Übereinstimmung mit einer Menge von Drehungen eines Drehknopfes). 6Y bis 6Z zeigen z. B. die Anzeige 546-1, die von Süden nach Norden durch ausgewählte Suchergebnisse scrollt (z. B. Reinigungen) in der Benutzerschnittstelle 604 in Antwort auf ein Erkennen der Drehung 683 des Drehschalters 675 in 6Y (z. B. eine ungefähre 180 Grad Drehung gegen den Uhrzeigersinn) und in Übereinstimmung mit dem Anzeigestatus der Benutzerschnittstelle 604 in 6Y (z. B. ein Suchergebnis- oder Zielauswahlmodus). 6AA bis 6BB zeigen z. B. die Anzeige 546-1, die einen detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 verkleinert in Antwort auf ein Erkennen der Drehung 686 des Drehschalters 675 in 6AA (z. B. eine ungefähre 90 Grad Drehung gegen den Uhrzeigersinn) und in Übereinstimmung mit dem Anzeigestatus der Benutzerschnittstelle 604 in 6AA (z. B. ein detaillierter Wegbeschreibungsmodus).
  • In einigen Ausführungsformen hat die entsprechende Benutzerschnittstelle einen vorherigen Status vor dem Empfangen der ersten Benutzereingabe; und die Vorrichtung aktualisiert (912) die Benutzerschnittstelle zu einem aktualisierten Status, der unterschiedlich ist von dem vorherigen Status auf der Grundlage der ersten Eingabe und des vorherigen Status der entsprechenden Benutzerschnittstelle (z. B. in Antwort auf eine Wischgeste auf einer berührungsempfindlichen Oberfläche oder eine Drehung eines Knopfes, wird eine Karten-Benutzerschnittstelle in Übereinstimmung mit einer Größenordnung und einer Richtung der Wischgeste oder der Größenordnung der Rotation des Drehknopfes gescrollt). Die 6EE bis 6FF zeigen z. B. die Anzeige 546-2, die eine Liste von Songs 677 in der Benutzerschnittstelle 676 nach oben scrollt in Antwort auf ein Erkennen einer Wischgeste nach oben mit Benutzerberührung 689 auf der Anzeige 546-2 in 6EE und in Übereinstimmung mit dem Anzeigestatus der Benutzerschnittstelle 676 in 6EE (z. B. ein Album-Songlisten-Modus).
  • In einigen Ausführungsformen erzeugt (914) die Vorrichtung vor dem Senden der Aktualisierungsinformationen an die erste betroffene Anzeige die Aktualisierungsinformationen auf der Grundlage der ersten Eingabeinformationen, wobei: In Übereinstimmung mit einer Bestimmung, dass die erste Eingabebeschreibung die ersten Eingabeeigenschaften beschreibt, erzeugt die Vorrichtung die ersten Aktualisierungsinformationen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabebeschreibung die zweiten Eingabeeigenschaften beschreibt, die unterschiedlich sind von den ersten Eingabeeigenschaften, erzeugt die Vorrichtung zweite Aktualisierungsinformationen, die unterschiedlich sind von den ersten Aktualisierungsinformationen. Zum Beispiel, wenn die ersten Eingabeinformationen einer Rotation eines Drehknopfes entsprechen während eine Liste auf der ersten betroffenen Anzeige angezeigt wird, wenn die erste Eingabebeschreibung anzeigt, dass die erste Eingabe eine Rotation eines Knopfes im Uhrzeigersinn beinhaltet, scrollt die Vorrichtung eine Liste auf der betroffenen Anzeige nach unten; im Gegensatz dazu, wenn die erste Eingabebeschreibung anzeigt, dass die erste Eingabe eine Rotation gegen den Uhrzeigersinn des Drehknopfes beinhaltet, scrollt die Vorrichtung die Liste auf der betroffenen Anzeige nach oben.
  • In einem anderen Beispiel wählt eine 90 Grad Drehung des Drehschalters 675, wenn der Suchergebnis- oder Zielauswahlmodus angezeigt wird, ein nächstes Suchergebnis aus, eine Drehung im Uhrzeigersinn scrollt die Suchergebnisse von Norden nach Süden und eine Drehung gegen den Uhrzeigersinn scrollt die Suchergebnisse von Süden nach Norden. Die 6X bis 6V zeigen z. B. die Anzeige 546-1, die von Norden nach Süden durch die ausgewählten Suchergebnisse (z. B. Reinigungen) in der Benutzerschnittstelle 604 scrollt in Antwort auf das Erkennen der Drehung 681 des Drehschalters 675 in 6X (z. B. eine ungefähre 90 Grad Drehung im Uhrzeigersinn). Im Gegensatz dazu zeigen die 6V bis 6Z z. B. die Anzeige 546-1, die von Süden nach Norden durch die ausgewählten Suchergebnisse (z. B. Reinigungen) in der Benutzerschnittstelle 604 scrollt in Antwort auf das Erkennen der Drehung 683 des Drehschalters 675 in 6V (z. B. eine ungefähre 180 Grad Drehung gegen den Uhrzeigersinn).
  • Die Vorrichtung sendet (916) an die erste betroffene Anzeige Aktualisierungsinformationen, die es der ersten betroffenen Anzeige ermöglichen, aktualisiert zu werden in Übereinstimmung mit der ersten Eingabe. Zum Beispiel wählt die Vorrichtung 100 in Antwort auf das Empfangen der Eingabeinformationen, die der Drehung 681 in 6X des Drehschalters 675 entsprechen, die Anzeige 546-1 als die betroffene Anzeige aus durch Korrelieren des Identifikators (z. B. Identifizieren der Eingabequelle als Drehschalter 675), der in den Eingabeinformationen beinhaltet ist, mit der Anzeige 546-1 auf der Grundlage der Eingabequellen-Abbildung. Nach dem Auswählen der Anzeige als die betroffene Anzeige, sendet die Vorrichtung 100 Aktualisierungsinformationen an die betroffene Anzeige 546-1, die es der betroffenen Anzeige 546-1 ermöglichen, aktualisiert zu werden.
  • In einigen Ausführungsformen beinhalten (918) die Aktualisierungsinformationen Informationen, die der ersten Eingabe entsprechen (z. B. Roheingabedaten, wie z. B. Kontaktorte und Bewegungsmengen/Richtungen, die auf einer berührungsempfindlichen Oberfläche erkannt worden sind, und/oder Gestendaten, die eine Art von Geste beschreiben, die auf der berührungsempfindlichen Oberfläche ausgeführt worden ist). In einigen Ausführungsformen beinhalten die Aktualisierungsinformationen die erste Eingabebeschreibung. In einigen Ausführungsformen werden die Aktualisierungsinformationen erzeugt auf der Grundlage der ersten Eingabebeschreibung (z. B. ist die erste Eingabebeschreibung Rohberührungseingabedaten und die Aktualisierungsinformationen beinhalten eine Geste, die den Rohberührungseingabedaten entspricht).
  • In einigen Ausführungsformen beinhalten (920) die Aktualisierungsinformationen eine aktualisierte Benutzerschnittstelle zum Anzeigen auf der ersten betroffenen Anzeige (z. B. ein Bild zum Anzeigen auf der ersten Anzeige, das eine Vielzahl von Benutzerschnittstellen-Objekten beinhaltet). Nach dem Auswählen der Anzeige 546-1 als die betroffene Anzeige, die der Drehung 681 in 6X entspricht, sendet die Vorrichtung 100 an die betroffene Anzeige 546-1 Aktualisierungsinformationen, die es der betroffenen Anzeige 546-1 ermöglichen, aktualisiert zu werden in Übereinstimmung mit der Größenordnung (90 Grad) und der Richtung (im Uhrzeigersinn) der Drehung 681 des Drehschalters 675 in 6X. Zum Beispiel beinhalten die Aktualisierungsinformationen eine aktualisierte Benutzerschnittstelle, die die Suchergebnisse (z. B. Reinigungen) scrollt, so dass die nächste Reinigung südlich (z. B. Suzie's Cleaners, die der Reinigung entspricht, die durch den Pin 614d dargestellt wird) von ABC Cleaners, die der Reinigung entspricht, die durch den Pin 614a dargestellt wird, als das ausgewählte Suchergebnis in der Benutzerschnittstelle 604 in 6Y angezeigt wird.
  • In einigen Ausführungsformen erzeugt (922) die Vorrichtung Benutzerschnittstellen für zwei oder mehrere Anzeigen der Vielzahl von Anzeigen und stellt jeweilige Benutzerschnittstellen entsprechenden Anzeigen bereit. Zum Beispiel sendet die Vorrichtung 100 Bilder, die darstellend sind für eine erste Karten-/Navigations-Benutzerschnittstelle zum Anzeigen an eine erste Anzeige (z. B. die primäre Anzeige 546-1 oder eine Instrumententafel-Navigationsanzeige) eines Fahrzeug-Informationsanzeigesystems (z. B. System 540), wie z. B. ein Fahrzeugunterhaltungs- oder Navigationssystem und erzeugt eine zweite, unterschiedliche Karten/Navigations-Benutzerschnittstelle für eine zweite unterschiedliche Anzeige, die strukturell mit der Vorrichtung integriert ist (z. B. Touchscreen 112 der Vorrichtung 100 oder eine andere tragbare elektronische Vorrichtung). In einigen Ausführungsformen sendet die Vorrichtung Bilder, die darstellend für eine unterschiedliche Benutzerschnittstelle sind zur Anzeige auf einer dritten Anzeige in dem Fahrzeug (z. B. die zusätzliche Anzeige 546-2 oder eine Rücksitz-Unterhaltungsanzeige) eines Fahrzeug-Informationsanzeigesystems (z. B. System 540). In einigen Ausführungsformen empfängt (926) die Vorrichtung nach dem Senden der Aktualisierungsinformationen, die es der ersten betroffenen Anzeige ermöglichen, aktualisiert zu werden, in Übereinstimmung mit der ersten Eingabe (924), zweite Eingabeinformationen, die hinweisend sind für eine zweite Eingabe, die durch eine zweite Eingabequelle der Vielzahl von Eingabequellen erkannt worden ist, die unterschiedlich ist von der ersten Eingabequelle, wobei die zweiten Eingabeinformationen beinhalten: Einen zweiten (eindeutigen) Identifikator für die zweite Eingabequelle; und eine zweite Eingabebeschreibung, die die zweite Eingabe beschreibt. Zum Beispiel ist die zweite Eingabebeschreibung Roheingabedaten, wie z. B. Kontaktorte und Bewegungsmengen/Richtungen, die auf einer berührungsempfindlichen Oberfläche erkannt worden sind und/oder Gestendaten, die eine Art von Geste beschreiben, die auf der berührungsempfindlichen Oberfläche ausgeführt worden ist. Nach dem Auswählen der Anzeige 546-1 als die erste betroffene Anzeige, die der Drehung 681 in 6X entspricht, sendet die Vorrichtung 100 Aktualisierungsinformationen an die erste betroffene Anzeige 546-1, die es der ersten betroffenen Anzeige 546-1 ermöglichen, aktualisiert zu werden, wie in 6V gezeigt. Nachfolgend zeigt z. B. 6EE die berührungsempfindliche Oberfläche, die mit der Anzeige 546-2 verknüpft ist, die eine Wischgeste nach oben mit der Benutzerberührungseingabe 689 erkennt. In Antwort auf das Erkennen der Wischgeste nach oben sendet die berührungsempfindliche Oberfläche, die mit der Anzeige 546-2 (oder dem System 540) verknüpft ist, Eingabeinformationen, die hinweisend sind für die Benutzerberührungseingabe 689 (oder die Wischgeste nach oben) an die Vorrichtung 100. Die Eingabeinformationen beinhalten einen Identifikator, der mit der berührungsempfindlichen Oberfläche verknüpft ist, die mit der Anzeige 546-2 verknüpft ist (z. B. einen eindeutigen Identifikator, der mit der berührungsempfindlichen Oberfläche verknüpft ist, die mit der Anzeige 546-2 verknüpft ist) und Eingabebeschreibungsinformationen, die die Benutzerberührungseingabe 689 beschreiben (oder die Wischgeste nach oben).
  • In einigen Ausführungsformen wählt (928) die Vorrichtung nach dem Senden der Aktualisierungsinformationen, die es der betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe (924) aktualisiert zu werden, eine zweite betroffene Anzeige aus der Vielzahl von Anzeigen aus, auf der Grundlage des zweiten Identifikators und der Eingabequellen-Abbildung. In Antwort auf das Empfangen von Eingabeinformationen, die der Wischgeste nach oben in 6EE auf der berührungsempfindlichen Oberfläche, die mit der Anzeige 546-2 verknüpft ist, entsprechen, wählt die Vorrichtung 100 die Anzeige 546-2 als die zweite betroffene Anzeige aus durch Korrelieren des Identifikators (z. B. Identifizieren der Eingabequelle als die berührungsempfindliche Oberfläche, die mit der Anzeige 546-2 verknüpft ist), der in den Eingabeinformationen beinhaltet ist, mit einer Anzeige (z. B. Anzeige 546-2) auf der Grundlage der Eingabequellen-Abbildung, die die Eingabequellen auf die Anzeigen abbildet.
  • In einigen Ausführungsformen sendet (930) die Vorrichtung nach dem Senden der Aktualisierungsinformationen, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe (924) aktualisiert zu werden, Aktualisierungsinformationen an die zweite betroffene Anzeige, die es der zweiten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der zweiten Eingabe aktualisiert zu werden. In einigen Ausführungsformen (z. B. wenn die erste Eingabequelle und die zweite Eingabequelle beide auf dieselbe Anzeige abgebildet werden) ist die erste betroffene Anzeige dieselbe wie die zweite betroffene Anzeige. In einigen Ausführungsformen (z. B. wenn die erste Eingabequelle und die zweite Eingabequelle auf unterschiedliche Anzeigen abgebildet werden) ist die erste betroffene Anzeige unterschiedlich von der zweiten betroffenen Anzeige. Nach dem Auswählen der Anzeige 546-2 als die zweite betroffene Anzeige sendet die Vorrichtung 100 an die betroffene Anzeige 546-2 Aktualisierungsinformationen, die es der betroffenen Anzeige 546-2 ermöglichen, aktualisiert zu werden. Zum Beispiel beinhalten in 6FF die Aktualisierungsinformationen eine aktualisierte Benutzerschnittstelle, die es der Anzeige 546-2 ermöglicht, die Liste 677 anzuzeigen, die nach oben in der Benutzerschnittstelle 676 gescrollt wird.
  • In einigen Ausführungsformen erkennt (932) die Vorrichtung eine Änderung der Verfügbarkeit einer jeweiligen Anzeige der Vielzahl von Anzeigen und in Antwort auf das Erkennen der Änderung der Verfügbarkeit der jeweiligen Anzeige aktualisiert die Vorrichtung die Eingabequellen-Abbildung, um die Änderung der Verfügbarkeit der jeweiligen Anzeige zu zeigen. In einigen Ausführungsformen beinhaltet die Änderung der Verfügbarkeit der jeweiligen Anzeige ein Computersystem (z. B. ein Fahrzeuginformations-Anzeigesystem, wie z. B. ein Navigations- oder Unterhaltungssystem), das unterschiedlich ist von der elektronischen Vorrichtung, die die Steuerung der jeweiligen Anzeige übernimmt. In einigen Ausführungsformen beinhaltet die Änderung der Verfügbarkeit der jeweiligen Anzeige ein Computersystem, das unterschiedlich ist von der elektronischen Vorrichtung, die die Steuerung der jeweiligen Anzeige an (oder zurück an) die elektronische Vorrichtung gibt (z. B. während das Fahrzeug zurücksetzt, zeigt ein Fahrzeuginformations-Anzeigesystem eine Videoeinspielung von einer Rückfahrkamera auf einer Anzeige des Fahrzeuginformations-Anzeigesystems an und nachdem das Fahrzeug aufgehört hat, zurückzusetzen, ermöglicht das Fahrzeuginformations-Anzeigesystem es der elektronischen Vorrichtung, wieder eine Benutzerschnittstelle auf der Anzeige des Fahrzeuginformations-Anzeigesystems anzuzeigen, die von der elektronischen Vorrichtung bereitgestellt wird).
  • Die 6W bis 6FF zeigen z. B. die Anzeige 546-1 und die Anzeige 546-2, die mit dem System 540 verknüpft sind, das in einem Fahrzeug implementiert ist. Während sich das Fahrzeug im Rückwärtsgang befindet, zeigt z. B. 6CC die Anzeige 546-1, die einen Fahrzeugrückfahrmodus anzeigt, der eine Videoeinspielung einer Rückfahrkamera in der Benutzerschnittstelle 604 beinhaltet, und die Anzeige 546-2, die einen Fahrzeugrückfahrmodus anzeigt, der eine Videoeinspielung von der Rückfahrkamera in der Benutzerschnittstelle 676 beinhaltet. Während sich das Fahrzeug im Rückwärtsgang befindet, verdrängt der Fahrzeugrückfahrmodus alle Aktualisierungsinformationen, die von Anzeigen 546-1 und 546-2 von der Vorrichtung 100 empfangen werden. In einigen Ausführungsformen erkennt (934) die Vorrichtung, während eine jeweilige Eingabequelle der ersten Anzeige zugewiesen ist, eine Änderung der Anzeigenzuweisung für eine jeweilige Eingabequelle der Vielzahl von Eingabequellen von der ersten Anzeige zu der zweiten Anzeige und in Antwort auf das Erkennen der Änderungen der Anzeigenzuweisung für die jeweilige Eingabequelle aktualisiert die Vorrichtung die Eingabequellen-Abbildung, um die Änderung der Anzeigenzuweisung für die jeweilige Eingabequelle zu zeigen, so dass die Eingabeinformationen, die hinweisend sind für Eingaben, die mit der jeweiligen Eingabequelle verknüpft sind, verwendet werden, um eine Benutzerschnittstelle zu aktualisieren, die auf der zweiten Anzeige angezeigt wird, anstatt verwendet zu werden, um eine Benutzerschnittstelle zu aktualisieren, die auf der ersten Anzeige angezeigt wird. Zum Beispiel wechselt ein Beifahrer in einem Fahrzeug vom Verwenden eines ersten Drehknopfes, um eine Benutzerschnittstelle in einer primären Anzeige eines Fahrzeuginformations-Anzeigesystems zu steuern, zum Verwenden des ersten Drehknopfs, um eine Benutzerschnittstelle in einer zusätzlichen Anzeige des Fahrzeuginformations-Anzeigesystems zu steuern (z. B. eine Rücksitzunterhaltungsanzeige) und Eingabeinformationen, die einen Identifikator für den ersten Drehknopf beinhalten, werden verwendet, um eine Benutzerschnittstelle zu aktualisieren, die auf der zusätzlichen Anzeige angezeigt wird, anstatt verwendet zu werden, um eine Benutzerschnittstelle zu aktualisieren, die auf der primären Anzeige angezeigt wird.
  • In den 6W bis 6CC veranlasst der Drehschalter 675, wenn aktiviert, die Vorrichtung die Anzeige 546-1 zu steuern. Demzufolge ist in den 6W bis 6CC der Drehschalter 675 mit der Anzeige 546-1 in der Abbildung der Eingabequelle auf die Anzeige verknüpft. 6AA bis 6BB zeigen z. B. die Anzeige 546-1, die einen detaillierten Wegbeschreibungsmodus in der Benutzerschnittstelle 604 verkleinert in Antwort auf das Erkennen der Drehung 686 des Drehschalters 675 (z. B. eine ungefähre 90 Grad Drehung gegen den Uhrzeigersinn) in 6AA in Übereinstimmung mit einer Bestimmung, dass der Drehschalter 675 auf der Anzeige 546-1 abgebildet wird.
  • Im Gegensatz dazu veranlasst der Drehschalter 675 in 6DD bis 6EE, wenn aktiviert, die Vorrichtung die Anzeige 546-2 zu steuern. Demzufolge ist in den 6DD bis 6EE der Drehschalter 675 mit der Anzeige 546-2 in der geänderten Abbildung der Eingabequelle auf die Anzeige verknüpft. In einem anderen Beispiel zeigen die 6DD bis 6EE die Anzeige 546-2, die eine Liste 677 in der Benutzerschnittstelle 676 nach unten scrollt in Antwort auf das Erkennen der Drehung 688 des Drehschalters 675 (z. B. eine ungefähre 90 Grad Drehung gegen den Uhrzeigersinn) in 6DD in Übereinstimmung mit einer Bestimmung, dass der Drehschalter 675 auf der Anzeige 546-2 abgebildet wird.
  • Es sollte verstanden werden, dass die besondere Reihenfolge, in der die Handlungen in 9A bis 9C beschrieben worden sind, rein beispielhaft ist und nicht beabsichtigt ist, anzugeben, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Handlungen ausgeführt werden könnten. Der Fachmann würde verschiedene Weisen erkennen, die hierin beschriebenen Handlungen neu zu ordnen. Zusätzlich sollte verstanden werden, dass Details anderer Verfahren, die hierin beschrieben worden sind, hinsichtlich anderer Verfahren, die hierin beschrieben worden sind (z. B. die Verfahren 700 und 800) ebenso auf analoge Weise zu dem Verfahren 900, das zuvor hinsichtlich der 9A bis 9C beschrieben worden ist, anwendbar sind. Zum Beispiel haben die Kontakte, Gesten, Benutzerschnittstellen-Objekte, die zuvor mit Bezug auf das Verfahren 900 beschrieben worden sind, optional eine oder mehrere der Eigenschaften der Kontakte, Gesten, Benutzerschnittstellen-Objekte, die hierin mit Bezug zu anderen Verfahren beschrieben worden sind (z. B. die Verfahren 700 und 800). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 10 ein funktionales Blockdiagramm einer ersten elektronischen Vorrichtung 1000, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen eingerichtet ist. Die funktionalen Blöcke der Vorrichtung sind optional in Hardware, Software oder einer Kombination von Hardware und Software implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen auszuführen. Es wird vom Fachmann verstanden, dass die funktionalen Blöcke, die in 10 beschrieben werden, optional kombiniert oder in Unterblöcke getrennt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Demzufolge unterstützt die Beschreibung hierin optional jede mögliche Kombination oder Trennung oder weitere Definitionen der funktionalen Blöcke, die hierin beschrieben sind.
  • Wie in 10 gezeigt, beinhaltet eine erste elektronische Vorrichtung 1000 eine erste Anzeigeeinheit 1002, die eingerichtet ist, um eine erste Benutzerschnittstelle anzuzeigen, wobei: Die erste Benutzerschnittstelle eine Auswahl aus einer Vielzahl von auswählbaren Objekten ermöglicht; wobei die erste Benutzerschnittstelle einer zweiten Benutzerschnittstelle entspricht, die auf einer zweiten Anzeigeeinheit angezeigt wird, die unterschiedlich ist von der ersten Anzeigeeinheit; und ein erstes Objekt aus der Vielzahl von auswählbaren Objekten wird als ein auswählbares Objekt in der zweiten Benutzerschnittstelle angezeigt. Optional beinhaltet die erste elektronische Vorrichtung ebenso eine Kommunikationsschnittstelleneinheit 1004, die eingerichtet ist, um mit einer zweiten elektronischen Vorrichtung zu kommunizieren und eine erste berührungsempfindliche Oberflächeneinheit 1006, die eingerichtet ist, um eine oder mehrere Berührungseingaben zu empfangen. Die erste elektronische Vorrichtung 1000 beinhaltet weiterhin eine Verarbeitungseinheit 1008, die mit der ersten Anzeigeeinheit 1002 und optional mit der Kommunikationsschnittstelle 1004 und der ersten berührungsempfindlichen Oberflächeneinheit 1006 gekoppelt ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1008 eine Erkennungseinheit 1010, eine Aktualisierungseinheit 1012, eine Bereitstellungseinheit 1014, eine Synchronisationseinheit 1016 und eine Empfangseinheit 1018.
  • Während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt wird, ist die Verarbeitungseinheit 1008 eingerichtet, um: Eine erste Eingabe von einem Benutzer zu erkennen (z. B. mit der Erkennungseinheit 1010), die einer Anfrage entspricht, eine Anzeige von Informationen über ein zweites Objekt aus der Vielzahl von auswählbaren Objekten in der ersten Benutzerschnittstelle zu ermöglichen; in Antwort auf das Erkennen der ersten Eingabe, die erste Benutzerschnittstelle auf der ersten Anzeigeeinheit 1002 zu aktualisieren (z. B. mit der Aktualisierungseinheit 1012) in Übereinstimmung mit der ersten Eingabe, um die Anzeige der jeweiligen Informationen über das zweite Objekt zu ermöglichen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird; und nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, eine zweite Eingabe von einem Benutzer zu erkennen (z. B. mit der Erkennungseinheit 1010), die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen. In Übereinstimmung mit dem Erkennen der zweiten Eingabe ist die Verarbeitungseinheit 1008 weiterhin eingerichtet, um: Die erste Benutzerschnittstelle auf der ersten Anzeigeeinheit 1002 zu aktualisieren (z. B. mit der Aktualisierungseinheit 1012) in Übereinstimmung mit der zweiten Eingabe, um die Anzeige des zweiten Objekts als das ausgewählte Objekt zu ermöglichen; und um der zweiten Anzeigeeinheit Informationen bereitzustellen (z. B. mit der Bereitstellungseinheit 1014), die es der zweiten Benutzerschnittstelle ermöglichen, auf der zweiten Anzeigeeinheit aktualisiert zu werden, um die Anzeige des zweiten Objekts als das zweite ausgewählte Objekt anstelle des ersten Objekts zu ermöglichen.
  • In einigen Ausführungsformen wird die erste Benutzerschnittstelle in Antwort auf das Erkennen der ersten Eingabe aktualisiert, ohne an die zweite Anzeigeeinheit Informationen bereitzustellen, die es der zweiten Benutzerschnittstelle ermöglichen, auf der zweiten Anzeigeeinheit aktualisiert zu werden, um die Anzeige der jeweiligen Informationen über das zweite Objekt in der zweiten Benutzerschnittstelle zu ermöglichen.
  • In einigen Ausführungsformen beinhaltet das Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeigeeinheit 1002 in Übereinstimmung mit der ersten Eingabe, um die Anzeige jeweiliger Informationen über das zweite Objekt zu ermöglichen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeigeeinheit 1002 in Übereinstimmung mit der ersten Eingabe, um die Anzeige von jeweiligen Informationen über das zweite Objekt zu ermöglichen, während die gesamte zweite Benutzerschnittstelle auf der zweiten Anzeigeeinheit aufrecht erhalten wird, so wie sie angezeigt wurde unmittelbar vor dem Erkennen der ersten Eingabe.
  • In einigen Ausführungsformen entspricht die Vielzahl von auswählbaren Objekten einer Vielzahl von Kartenorten und das ausgewählte Objekt entspricht einem aktuell ausgewählten Ziel.
  • In einigen Ausführungsformen entspricht die Vielzahl von auswählbaren Objekten einer Vielzahl von Navigationsrouten und das ausgewählte Objekt entspricht einer aktuell ausgewählten Navigationsroute.
  • In einigen Ausführungsformen entspricht die Vielzahl von auswählbaren Objekten einer Vielzahl von Inhaltsgegenständen, die mit der ersten elektronischen Vorrichtung 1000 abgespielt werden können und das ausgewählte Objekt entspricht einem aktuell ausgewählten Inhaltsgegenstand.
  • In einigen Ausführungsformen entspricht die Vielzahl von auswählbaren Objekten einer Vielzahl von Anwendungen und das ausgewählte Objekt entspricht einer aktuell ausgewählten Anwendung.
  • In einigen Ausführungsformen entspricht die Vielzahl von ausgewählten Objekten einer Vielzahl von Suchergebnissen, die in Antwort auf eine Suchanfrage erzeugt wurden und das ausgewählte Objekt entspricht einem aktuell ausgewählten Suchergebnis.
  • In einigen Ausführungsformen wurde das erste Objekt automatisch als das ausgewählte Objekt ausgewählt auf der Grundlage von vorbestimmten Objektauswahlkriterien. In einigen Ausführungsformen wird die erste Benutzerschnittstelle vor dem Erkennen der ersten Eingabe mit der zweiten Benutzerschnittstelle synchronisiert; nach dem Beantworten der ersten Eingabe und vor dem Erkennen der zweiten Ausgabe wird die erste Benutzerschnittstelle nicht mit der zweiten Benutzerschnittstelle synchronisiert; und nach dem Beantworten der zweiten Eingabe wird die erste Benutzerschnittstelle mit der zweiten Benutzerschnittstelle synchronisiert.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1008 eingerichtet, um: Nach dem Bereitstellen der Informationen, die es der zweiten Benutzerschnittstelle ermöglichen, auf der zweiten Anzeigeeinheit aktualisiert zu werden, um die Anzeige des zweiten Objekts als das ausgewählte Objekt anstelle des ersten Objekts zu ermöglichen, in einen Anzeigesynchronisationsmodus überzugehen (z. B. mit der Synchronisationseinheit 1016); und während sie sich im Anzeigesynchronisationsmodus befindet: Periodisch die erste Benutzerschnittstelle im Zeitverlauf zu aktualisieren (z. B. mit der Aktualisierungseinheit 1012); und Informationen bereitzustellen (z. B. mit der Bereitstellungseinheit 1014), die es der zweiten Benutzerschnittstelle ermöglichen, auf der zweiten Anzeigeeinheit synchronisiert zu werden, während die erste Benutzerschnittstelle als die erste Benutzerschnittstelle im Zeitverlauf aktualisiert wird.
  • In einigen Ausführungsformen steuert die zweite elektronische Vorrichtung ein In-Fahrzeug-Unterhaltungssystem mit einer nativen grafischen Benutzerschnittstelle und die zweite Benutzerschnittstelle wird auf der zweiten Anzeigeeinheit angezeigt anstelle von zumindest einem Teil der nativen grafischen Benutzerschnittstelle der zweiten elektronischen Vorrichtung.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1008 eingerichtet, um: Informationen zu empfangen (z. B. mit der Empfangseinheit 1018), die einer jeweiligen Eingabe einer Steuerung des In-Fahrzeug-Unterhaltungssystems entspricht; und in Antwort auf das Empfangen der Informationen, die der jeweiligen Eingabe entsprechen, die erste Benutzerschnittstelle und die zweite Benutzerschnittstelle in Übereinstimmung mit der jeweiligen Eingabe zu aktualisieren (z. B. mit der Aktualisierungseinheit 1012).
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 11 ein funktionales Blockdiagramm einer tragbaren elektronischen Vorrichtung 1100, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen eingerichtet ist. Die funktionalen Blöcke der Vorrichtung sind optional implementiert in Hardware, Software oder einer Kombination von Hardware und Software, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen auszuführen. Es wird vom Fachmann verstanden werden, dass die funktionalen Blöcke, die in 11 beschrieben werden, optional kombiniert oder in Unterblöcke getrennt werden können, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Demzufolge unterstützt die Beschreibung optional jede mögliche Kombination oder Teilung oder weitere Definition der funktionalen Blöcke, die hierin beschrieben werden.
  • Wie in 11 gezeigt beinhaltet eine tragbare elektronische Vorrichtung 1100 eine tragbare Vorrichtungsanzeigeeinheit 1102, die eingerichtet ist, um eine tragbare Vorrichtungsnavigationsschnittstelle anzuzeigen, eine Kommunikationsschnittstelleneinheit 1104, die eingerichtet ist, um mit einer Fahrzeuganzeigeeinheit eines Fahrzeugs zu kommunizieren und optional eine berührungsempfindliche Oberflächeneinheit 1106, die eingerichtet ist, um eine oder mehrere Berührungseingaben zu empfangen; und eine Verarbeitungseinheit 1108, die mit der tragbaren Vorrichtungsanzeigeeinheit 1102 und der Kommunikationsschnittstelleneinheit 1104 gekoppelt ist und optional mit der berührungsempfindlichen Oberflächeneinheit 1106. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1108 eine Einholungseinheit 1110, eine Anzeigeermöglichungseinheit 1112, eine Sendeeinheit 1114, eine Erkennungseinheit 1116 und eine Aktualisierungseinheit 1118.
  • Die Verarbeitungseinheit 1108 ist eingerichtet, um: Einen Satz von Kartensuchergebnissen zu erhalten (z. B. mit der Einholungseinheit 1110), der eine Vielzahl von Kandidatenzielen beinhaltet; eine Anzeige der tragbaren Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeigeeinheit 1102 zu ermöglichen (z. B. mit der Anzeigeermöglichungseinheit 1112), wobei die tragbare Vorrichtungsnavigationsschnittstelle eine Auswahl eines Ziels aus der Vielzahl von Kandidatenzielen ermöglicht; und Senden (z. B. mit der Sendeeinheit 1114) von Informationen an die Fahrzeuganzeigeeinheit, die es der Fahrzeuganzeigeeinheit ermöglicht, die Anzeige der Fahrzeugnavigationsschnittstelle zu ermöglichen, wobei ein erstes Ziel aus der Vielzahl von Kandidatenzielen ein ausgewähltes Ziel in der Fahrzeugnavigationsschnittstelle ist. Während das erste Ziel das ausgewählte Ziel der Fahrzeugnavigationsschnittstelle ist, ist die Verarbeitungseinheit 1108 ebenso eingerichtet zum: Erkennen (z. B. mit der Erkennungseinheit 1116) einer ersten Eingabe von einem Benutzer, die einer Anfrage entspricht, Informationen über eines oder mehrere Kandidatenziele aus der Vielzahl von Kandidatenzielen, das/die anders ist/sind als das erste Ziel, anzuzeigen; in Antwort auf das Erkennen der ersten Eingabe die tragbare Vorrichtungsnavigationsschnittstelle auf der tragbaren Vorrichtungsanzeigeeinheit 1102 zu aktualisieren (z. B. mit der Aktualisierungseinheit 1118) in Übereinstimmung mit der ersten Eingabe, ohne dass die Fahrzeugnavigationsschnittstelle auf der Fahrzeuganzeigeeinheit aktualisiert wird; und nach dem Aktualisieren der tragbaren Vorrichtungsnavigationsschnittstelle in Übereinstimmung mit der ersten Eingabe, eine zweite Eingabe von einem Benutzer zu erkennen (z. B. mit der Erkennungseinheit 1116), die einer Anfrage entspricht, ein zweites Ziel aus der Vielzahl von Kandidatenzielen als das ausgewählte Ziel auszuwählen.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 12 ein funktionales Blockdiagramm einer tragbaren elektronischen Vorrichtung 1200, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen eingerichtet ist. Die funktionalen Blöcke der Vorrichtung sind optional implementiert in Hardware, Software oder einer Kombination von Hardware und Software, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen auszuführen. Es wird vom Fachmann verstanden werden, dass die funktionalen Blöcke, die in 12 beschrieben werden, optional, kombiniert oder in Unterblöcke getrennt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Demzufolge unterstützt die Beschreibung hier optional jede mögliche Kombination oder Trennung oder weitere Definition der funktionalen Blöcke, die hierin beschrieben werden.
  • Wie in 12 gezeigt, beinhaltet eine elektronische Vorrichtung 1200 eine Kommunikationsschnittstelleneinheit 1202, die eingerichtet ist, um mit einer Vielzahl von Anzeigen zu kommunizieren, die eine erste Anzeigeeinheit und eine zweite Anzeigeeinheit beinhaltet. In einigen Ausführungsformen beinhaltet die elektronische Vorrichtung 1200 optional ebenso eine Anzeigeeinheit 1204, die eingerichtet ist, eine Benutzerschnittstelle anzuzeigen und eine berührungsempfindliche Oberflächeneinheit 1206, die eingerichtet ist, um eine oder mehrere Berührungseingaben zu empfangen. Die elektronische Vorrichtung 1200 beinhaltet weiterhin eine Verarbeitungseinheit 1208, die mit der Kommunikationsschnittstelleneinheit 1202 gekoppelt ist, und optional mit der Anzeigeeinheit 1204 und der berührungsempfindlichen Oberflächeneinheit 1206 gekoppelt ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 1208 eine Empfangseinheit 1210, eine Auswahleinheit 1212, eine Sendeeinheit 1214, eine Erzeugungseinheit 1216, eine Bestimmungseinheit 1218, eine Aktualisierungseinheit 1220, eine Erkennungseinheit 1222 und eine Abbildungsaktualisierungseinheit 1224.
  • Die Verarbeitungseinheit 1208 ist eingerichtet, um erste Eingabeinformationen zu empfangen (z. B. mit einer Empfangseinheit 1210), die anzeigend sind für eine erste Eingabe, die von einer ersten Eingabequelle einer Vielzahl von Eingabequellen erkannt worden ist, wobei die ersten Eingabeinformationen beinhalten: Einen ersten Identifikator für die erste Eingabequelle; und eine erste Eingabebeschreibung, die die erste Eingabe beschreibt. Die Verarbeitungseinheit 1208 ist auch eingerichtet, um eine erste betroffene Anzeige aus der Vielzahl von Anzeigen auszuwählen (z. B. mit der Auswahleinheit 1212) auf der Grundlage des ersten Identifikators und einer Eingabequellen-Abbildung, die die Eingabequellen auf die entsprechenden Anzeigen abbildet. Die Verarbeitungseinheit 1208 ist weiterhin eingerichtet, um an die erste betroffene Anzeige Aktualisierungsinformationen zu senden (z. B. mit der Sendeeinheit 1214), die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe aktualisiert zu werden.
  • In einigen Ausführungsformen beinhaltet das Auswählen der ersten betroffenen Anzeige: In Übereinstimmung mit einer Bestimmung, dass die erste Eingabequelle der ersten Anzeige in der Eingabequellen-Abbildung zugewiesen ist, Auswählen (z. B. mit der Auswahleinheit 1212) der ersten Anzeige als erste betroffene Anzeige, die von der ersten Eingabe betroffen ist; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabequelle der zweiten Anzeige, die unterschiedlich ist von der ersten Anzeige, in der Eingabequellen-Abbildung zugewiesen ist, Auswählen (z. B. mit der Auswahleinheit 1212) der zweiten Anzeige als die erste betroffene Anzeige, die von der ersten Eingabe betroffen ist.
  • In einigen Ausführungsformen beinhalten die Aktualisierungsinformationen Informationen, die der ersten Eingabe entsprechen.
  • In einigen Ausführungsformen beinhalten die Aktualisierungsinformationen eine aktualisierte Benutzerschnittstelle zur Anzeige auf der ersten betroffenen Anzeige.
  • In einigen Ausführungsformen erzeugt die Vorrichtung Benutzerschnittstellen für zwei oder mehrere Anzeigen der Vielzahl von Anzeigen und stellt jeweilige Benutzerschnittstellen den entsprechenden Anzeigen bereit.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1208 vor dem Senden der Aktualisierungsinformationen an die erste betroffene Anzeige eingerichtet, um die Aktualisierungsinformationen zu erzeugen (z. B. mit der Erzeugungseinheit 1216) auf der Grundlage der ersten Eingabeinformationen, wobei: In Übereinstimmung mit einer Bestimmung, dass die erste Eingabebeschreibung die ersten Eingabeeigenschaften beschreibt, die Verarbeitungseinheit 1208 eingerichtet ist, um die ersten Aktualisierungsinformationen zu erzeugen (z. B. mit der Erzeugungseinheit 1216); und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabebeschreibung die zweiten Eingabeeigenschaften beschreibt, die unterschiedlich sind von den ersten Eingabeeigenschaften, die Verarbeitungseinheit 1208 eingerichtet ist, um zweite Aktualisierungsinformationen, die unterschiedlich sind von den ersten Aktualisierungsinformationen, zu erzeugen (z. B. mit der Erzeugungseinheit 1216).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1208 nach dem Auswählen der ersten betroffenen Anzeige eingerichtet, um: Einen entsprechenden Status einer Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, zu bestimmen (z. B. mit der Bestimmungseinheit 1218); und die Aktualisierungsinformationen zu erzeugen (z. B. mit der Erzeugungseinheit 1216) auf der Grundlage der ersten Eingabebeschreibung und des jeweiligen Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird.
  • In einigen Ausführungsformen entsprechen die Aktualisierungsinformationen in Übereinstimmung mit einer Bestimmung, dass der jeweilige Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, ein erster Status ist, dem Ausführen einer ersten Handlung für den jeweiligen Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird; und in Übereinstimmung mit einer Bestimmung, dass der jeweilige Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, ein zweiter Status ist, der unterschiedlich ist vom ersten Status, entsprechen die Aktualisierungsinformationen dem Ausführen einer zweiten Handlung, die unterschiedlich ist von der ersten Handlung für den jeweiligen Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird.
  • In einigen Ausführungsformen hat die jeweilige Benutzerschnittstelle vor dem Empfangen der ersten Eingabeinformationen einen vorherigen Status; und die Verarbeitungseinheit 1208 ist eingerichtet, um die Benutzerschnittstelle zu einem aktualisierten Status hin zu aktualisieren (z. B. mit der Aktualisierungseinheit 1220), der unterschiedlich ist vom vorherigen Status auf der Grundlage der ersten Eingabe und dem vorherigen Status der jeweiligen Benutzerschnittstelle.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1208 eingerichtet, um: Eine Veränderung der Verfügbarkeit einer entsprechenden Anzeige der Vielzahl von Anzeigen zu erkennen (z. B. mit der Erkennungseinheit 1222) und in Antwort auf das Erkennen der Veränderung der Verfügbarkeit der jeweiligen Anzeige, die Eingabequellenabbildung zu aktualisieren (z. B. mit der Abbildungsaktualisierungseinheit 1224), um die Veränderung der Verfügbarkeit der jeweiligen Anzeige zu zeigen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1208 eingerichtet, während eine entsprechende Eingabequelle der ersten Anzeige zugewiesen ist, eine Änderung der Anzeigenzuweisung für eine entsprechende Eingabequelle der Vielzahl von Eingabequellen von der ersten Anzeige zu der zweiten Anzeige zu erkennen (z. B. mit der Erkennungseinheit 1222). Und in Antwort auf das Erkennen der Änderung der Anzeigenzuweisung für die jeweilige Eingabequelle ist die Verarbeitungseinheit 1208 eingerichtet, um die Eingabequellen-Abbildung zu aktualisieren (z. B. mit der Abbildungsaktualisierungseinheit 1224), um die Änderung der Anzeigenzuweisung für die jeweilige Eingabequelle zu zeigen, so dass die Eingabeinformationen, die hinweisend sind für Eingaben, die mit der jeweiligen Eingabequelle verknüpft sind, verwendet werden, um eine Benutzerschnittstelle, die auf der zweiten Anzeige angezeigt wird, zu aktualisieren anstatt verwendet zu werden, um eine Benutzerschnittstelle zu aktualisieren, die auf der ersten Anzeige angezeigt wird.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 1208 eingerichtet, um nach dem Senden der Aktualisierungsinformationen, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe aktualisiert zu werden, zweite Eingabeinformationen zu empfangen (z. B. mit der Empfangseinheit 1210), die hinweisend sind für eine zweite Eingabe, die von einer zweiten Eingabequelle der Vielzahl von Eingabequellen erkannt worden ist, die unterschiedlich ist von der ersten Eingabequelle, wobei die zweite Eingabeinformationen beinhalten: Einen zweiten Identifikator für die zweite Eingabequelle; und eine zweite Eingabebeschreibung, die die zweite Eingabe beschreibt. Die Verarbeitungseinheit 1208 ist ebenso eingerichtet, um: Eine zweite betroffene Anzeige aus der Vielzahl von Anzeigen auszuwählen (z. B. mit der Auswahleinheit 1212) auf der Grundlage des zweiten Identifikators und der Eingabequellen-Abbildung; und an die zweite betroffene Anzeige Aktualisierungsinformationen zu senden (z. B. mit der Sendeeinheit 1214), die es der zweiten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der zweiten Eingabe aktualisiert zu werden.
  • Die Handlungen der Informationsverarbeitungsverfahren, die zuvor beschrieben worden sind, können optional implementiert werden durch Ausführen auf einem oder mehreren funktionalen Modulen einer Informationsverarbeitungsvorrichtung, wie z. B. Allzweckprozessoren (z. B. wie zuvor beschrieben hinsichtlich der 1A und 3) oder anwendungsspezifischen Chips.
  • Die Handlungen, die zuvor beschrieben worden sind hinsichtlich der 7A bis 7D, 8A bis 8B und 9A bis 9C sind optional durch Komponenten implementiert, die in den 1A bis 1B oder den 10 bis 12 gezeigt werden. Zum Beispiel sind die Anzeigehandlung 702, die Empfangshandlung 722, die Erkennungshandlungen 730 und 738, die Aktualisierungshandlung 742, die Einholungshandlung 802, die Sendehandlungen 806 und 820, die Erkennungshandlungen 810 und 814, die Aktualisierungshandlungen 812 und 818, die Empfangshandlungen 902 und 928, die Identifizierungshandlungen 904 und 930, die Sendehandlungen 918 und 932 und/oder die Erkennungshandlungen 934 und 936 optional durch Ereignissortierer 170, Ereigniserkenner 180 und Ereignishandler 190 implementiert. Der Ereignisüberwacher 171 in dem Ereignissortierer 170 erkennt einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignis-Sendemodul 174 liefert die Ereignisinformationen an die Anwendung 136-1. Ein jeweiliger Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einem ersten Ort auf der berührungsempfindlichen Oberfläche (oder ob eine Rotation der Vorrichtung) einem vorbestimmten Ereignis oder Unterereignis entspricht, wie z. B. eine Auswahl eines Objekts auf einer Benutzerschnittstelle oder eine Rotation der Vorrichtung von einer Ausrichtung zu einer anderen. Wenn ein jeweiliges vorbestimmtes Ereignis oder Unterereignis erkannt wird, aktiviert der Ereigniserkenner 180 einen Ereignishandler 190, der mit der Erkennung des Ereignisses oder des Unterereignisses verknüpft ist. Der Ereignishandler 190 verwendet optional oder ruft den Datenaktualisierer 176 oder den Objektaktualisierer 177 auf, um den internen Status 192 der Anwendung zu aktualisieren. In einigen Ausführungsformen greift der Ereignishandler 190 auf einen jeweiligen GUI-Aktualisierer 178 zu, um das, was durch die Anwendung angezeigt wird, zu aktualisieren. Ähnlich wäre es dem Fachmann klar, wie andere Verfahren implementiert werden können auf der Grundlage der Komponenten, die in den 1A bis 1B gezeigt werden.
  • Die vorangegangene Beschreibung wurde zum Zwecke der Erklärung mit Bezug zu bestimmten Ausführungsformen beschrieben. Die vorangegangenen veranschaulichenden Diskussionen sind jedoch nicht beabsichtigt erschöpfend zu sein oder die Erfindung auf die besonderen Formen, die offenbart worden sind, zu beschränken. Viele Modifikationen und Variationen sind hinsichtlich der vorangegangenen Lehren möglich. Die Ausführungsformen wurden ausgewählt und beschrieben, um am besten die Prinzipien der Erfindung und ihre praktischen Anwendungen zu erklären, um es dadurch anderen Fachleuten zu ermöglichen, die Erfindung und verschiedene beschriebene Ausführungsformen mit verschiedenen Modifikationen am besten zu verwenden, wie es für die besondere, in Erwägung gezogene Anwendung geeignet ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11a [0051]
    • IEEE 802.11b [0051]
    • IEEE 802.11g [0051]
    • IEEE 802.11n [0051]

Claims (30)

  1. Nichtflüchtiges computerlesbares Speichermedium, welches eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfasst/umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: Anzeigen einer ersten Benutzerschnittstelle auf der ersten Anzeige, wobei: die erste Benutzerschnittstelle eine Auswahl aus einer Vielzahl von auswählbaren Objekten ermöglicht; die erste Benutzerschnittstelle einer zweiten Benutzerschnittstelle entspricht, die auf einer zweiten Anzeige angezeigt wird, die unterschiedlich ist von der ersten Anzeige; und ein erstes Objekt aus der Vielzahl von auswählbaren Objekten angezeigt wird als ein ausgewähltes Objekt in der zweiten Benutzerschnittstelle; während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt wird: Erkennen einer ersten Eingabe eines Benutzers, die einer Anfrage entspricht, Informationen über ein zweites Objekt der Vielzahl von auswählbaren Objekten in der ersten Benutzerschnittstelle anzuzeigen; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um jeweilige Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird; und nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, Erkennen einer zweiten Eingabe eines Benutzers, die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen; und in Antwort auf das Erkennen der zweiten Eingabe: Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Objekt als das ausgewählte Objekt anzuzeigen; und Bereitstellen an die zweite Anzeige von Informationen, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen.
  2. Medium nach Anspruch 1, wobei die erste Benutzerschnittstelle aktualisiert wird in Antwort auf das Erkennen der ersten Eingabe ohne das Bereitstellen von Informationen an die zweite Anzeige, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um die jeweiligen Informationen über das zweite Objekt in der zweiten Benutzerschnittstelle anzuzeigen.
  3. Medium nach Anspruch 1, wobei das Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um jeweilige Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe beinhaltet, um jeweilige Informationen über das zweite Objekt anzuzeigen, während die gesamte zweite Benutzerschnittstelle auf der zweiten Anzeige aufrecht erhalten wird, wie sie angezeigt wurde, unmittelbar vor dem Erkennen der ersten Eingabe.
  4. Medium nach Anspruch 1, wobei: die Vielzahl von auswählbaren Objekten einer Vielzahl von Kartenorten entspricht; und das ausgewählte Objekt einem aktuell ausgewählten Ziel entspricht.
  5. Medium nach Anspruch 1, wobei: die Vielzahl von auswählbaren Objekten einer Vielzahl von Navigationsrouten entspricht; und das ausgewählte Objekt einer aktuell ausgewählten Navigationsroute entspricht.
  6. Medium nach Anspruch 1, wobei: die Vielzahl von auswählbaren Objekten einer Vielzahl von Inhaltsgegenständen entspricht, die mit der ersten elektronischen Vorrichtung abgespielt werden können; und das ausgewählte Objekt einem aktuell ausgewählten Inhaltsgegenstand entspricht.
  7. Medium nach Anspruch 1, wobei: die Vielzahl von auswählbaren Objekten einer Vielzahl von Anwendungen entspricht; und das ausgewählte Objekt einer aktuell ausgewählten Anwendung entspricht.
  8. Medium nach Anspruch 1, wobei: die Vielzahl von auswählbaren Objekten einer Vielzahl von Suchergebnissen entspricht, die in Antwort auf eine Suchanfrage erzeugt worden sind; und das ausgewählte Objekt einem aktuell ausgewählten Suchergebnis entspricht.
  9. Medium nach Anspruch 1, wobei das erste Objekt automatisch ausgewählt worden ist als das ausgewählte Objekt auf der Grundlage von vorbestimmten Objektauswahlkriterien.
  10. Medium nach Anspruch 1, wobei: vor dem Erkennen der ersten Eingabe die erste Benutzerschnittstelle mit der zweiten Benutzerschnittstelle synchronisiert wird; nach dem Antworten auf die erste Eingabe und vor dem Erkennen der zweiten Eingabe die erste Benutzerschnittstelle nicht mit der zweiten Benutzerschnittstelle synchronisiert wird; und nach dem Antworten auf die zweite Eingabe die erste Benutzerschnittstelle mit der zweiten Benutzerschnittstelle synchronisiert wird.
  11. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: nach dem Bereitstellen der Informationen, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen: Übergehen in einen Anzeige-Synchronisationsmodus; und während sie sich im Anzeige-Synchronisationsmodus befindet: periodisches Aktualisieren der ersten Benutzerschnittstelle im Zeitverlauf; und Bereitstellen von Informationen, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, mit der ersten Benutzerschnittstelle synchronisiert zu werden, während die erste Benutzerschnittstelle im Zeitverlauf aktualisiert wird.
  12. Medium nach Anspruch 1, wobei die zweite Anzeige eine Anzeige ist, die mit einer zweiten elektronischen Vorrichtung gekoppelt ist, die unterschiedlich ist von der ersten elektronischen Vorrichtung.
  13. Medium nach Anspruch 12, wobei: die zweite elektronische Vorrichtung ein In-Fahrzeug-Unterhaltungssystem mit einer nativen grafischen Benutzerschnittstelle steuert; und die zweite Benutzerschnittstelle auf der zweiten Anzeige angezeigt wird anstelle von zumindest einem Teil der nativen grafischen Benutzerschnittstelle der zweiten elektronischen Vorrichtung.
  14. Medium nach Anspruch 13, wobei die eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: Empfangen von Informationen, die einer jeweiligen Eingabe von einer Steuerung des In-Fahrzeug-Unterhaltungssystems entsprechen; und in Antwort auf das Empfangen der Informationen, die der jeweiligen Eingabe entsprechen, Aktualisieren der ersten Benutzerschnittstelle und der zweiten Benutzerschnittstelle in Übereinstimmung mit der jeweiligen Eingabe.
  15. Medium nach Anspruch 12, wobei die erste Benutzerschnittstelle und die zweite Benutzerschnittstelle beide durch dieselbe Anwendung erzeugt werden, die auf der ersten elektronischen Vorrichtung ausgeführt wird.
  16. Erste elektronische Vorrichtung, umfassend: eine erste Anzeige; einen oder mehrere Prozessoren; Speicher; und eines oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, um von dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Befehle beinhalten für: Anzeigen einer ersten Benutzerschnittstelle auf der ersten Anzeige, wobei: die erste Benutzerschnittstelle eine Auswahl aus einer Vielzahl von auswählbaren Objekten ermöglicht; die erste Benutzerschnittstelle einer zweiten Benutzerschnittstelle entspricht, die auf einer zweiten Anzeige angezeigt wird, die unterschiedlich ist von der ersten Anzeige; und ein erstes Objekt aus der Vielzahl von auswählbaren Objekten als ein ausgewähltes Objekt in der zweiten Benutzerschnittstelle angezeigt wird; während das erste Objekt als das ausgewählte Objekt in der zweiten Benutzerschnittstelle angezeigt wird: Erkennen einer ersten Eingabe eines Benutzers, die einer Anfrage entspricht, Informationen über ein zweites Objekt der Vielzahl von auswählbaren Objekten in der ersten Benutzerschnittstelle anzuzeigen; in Antwort auf das Erkennen der ersten Eingabe, Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der ersten Eingabe, um die jeweiligen Informationen über das zweite Objekt anzuzeigen, während die Anzeige des ersten Objekts als das ausgewählte Objekt in der zweiten Benutzerschnittstelle aufrecht erhalten wird; und nach dem Aktualisieren der ersten Benutzerschnittstelle in Übereinstimmung mit der ersten Eingabe, Erkennen einer zweiten Eingabe eines Benutzers, die einer Anfrage entspricht, das zweite Objekt als das ausgewählte Objekt auszuwählen; und in Antwort auf das Erkennen der zweiten Eingabe: Aktualisieren der ersten Benutzerschnittstelle auf der ersten Anzeige in Übereinstimmung mit der zweiten Eingabe, um das zweite Objekt als das ausgewählte Objekt anzuzeigen; und Bereitstellen von Informationen an die zweite Anzeige, die es der zweiten Benutzerschnittstelle auf der zweiten Anzeige ermöglichen, aktualisiert zu werden, um das zweite Objekt als das ausgewählte Objekt anstelle des ersten Objekts anzuzeigen.
  17. Nichtflüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfassen, welche, wenn sie von einer tragbaren elektronischen Vorrichtung ausgeführt werden, die eine tragbare Vorrichtungsanzeige beinhaltet und sich in Kommunikation mit einer Fahrzeuganzeige eines Fahrzeugs befindet, die elektronische Vorrichtung veranlassen: einen Satz von Karten-Suchergebnissen zu erhalten, der eine Vielzahl von Kandidatenzielen beinhaltet; eine tragbare Vorrichtungs-Navigationsschnittstelle auf der tragbaren Vorrichtungsanzeige anzuzeigen, wobei die tragbare Vorrichtungs-Navigationsschnittstelle eine Auswahl von Zielen aus der Vielzahl von Kandidatenzielen ermöglicht; Informationen an die Fahrzeuganzeige zu senden, die es der Fahrzeuganzeige ermöglichen, eine Fahrzeug-Navigationsschnittstelle anzuzeigen, wobei ein erstes Ziel der Vielzahl von Kandidatenzielen ein ausgewähltes Ziel in der Fahrzeug-Navigationsschnittstelle ist; während das erste Ziel das ausgewählte Ziel in der Fahrzeug-Navigationsschnittstelle ist: eine erste Eingabe von einem Benutzer zu erkennen, die einer Anfrage entspricht, Informationen über eines oder mehrere Kandidatenziele aus der Vielzahl von Kandidatenzielen anzuzeigen, die anders sind als das erste Ziel; in Antwort auf das Erkennen der ersten Eingabe, die tragbare Vorrichtungs-Navigationsschnittstelle auf der tragbaren Vorrichtungsanzeige in Übereinstimmung mit der ersten Eingabe zu aktualisieren, ohne, dass die Fahrzeug-Navigationsschnittstelle auf der Fahrzeuganzeige aktualisiert wird; und nach dem Aktualisieren der tragbaren Vorrichtungs-Navigationsschnittstelle in Übereinstimmung mit der ersten Eingabe, eine zweite Eingabe von einem Benutzer zu erkennen, die einer Anfrage entspricht, ein zweites Ziel aus der Vielzahl von Kandidatenzielen als das ausgewählte Ziel auszuwählen; und in Antwort auf das Erkennen der zweiten Eingabe: die tragbare Vorrichtungs-Navigationsschnittstelle auf der tragbaren Vorrichtungsanzeige in Übereinstimmung mit der zweiten Eingabe zu aktualisieren, um das zweite Ziel als das ausgewählte Ziel anzuzeigen; und Informationen an die Fahrzeuganzeige zu senden, die es der Fahrzeuganzeige ermöglichen, die Fahrzeug-Navigationsschnittstelle in Übereinstimmung mit der zweiten Eingabe zu aktualisieren, um das zweite Ziel als das ausgewählte Ziel anzuzeigen.
  18. Nichtflüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfassen, welche, wenn sie von einer elektronischen Vorrichtung ausgeführt werden, die sich in Kommunikation mit einer Vielzahl von Anzeigen befindet, die eine erste Anzeige und eine zweite Anzeige beinhaltet, die Vorrichtung veranlassen auszuführen: Empfangen von ersten Eingabeinformationen, die hinweisend sind für eine erste Eingabe, die von einer ersten Eingabequelle der Vielzahl von Eingabequellen erkannt worden ist, wobei die erste Eingabeinformationen beinhalten: einen ersten Identifikator für die erste Eingabequelle; und eine erste Eingabebeschreibung, die die erste Eingabe beschreibt; Auswählen einer ersten betroffenen Anzeige aus der Vielzahl von Anzeigen auf der Grundlage des ersten Identifikators und einer Eingabequellen-Abbildung, die die Eingabequellen auf die entsprechenden Anzeigen abbildet; und Senden von Aktualisierungsinformationen an die erste betroffene Anzeige, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe aktualisiert zu werden.
  19. Medium nach Anspruch 18, wobei das Auswählen der ersten betroffenen Anzeige beinhaltet: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabequelle der ersten Anzeige in der Eingabequellen-Abbildung zugewiesen ist, Auswählen der ersten Anzeige als die erste betroffene Anzeige, die von der ersten Eingabe betroffen ist; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabequelle der zweiten Anzeige, die unterschiedlich ist von der ersten Anzeige, in der Eingabequellen-Abbildung zugewiesen ist, Auswählen der zweiten Anzeige als die erste betroffene Anzeige, die von der ersten Eingabe betroffen ist.
  20. Medium nach Anspruch 18, wobei die Aktualisierungsinformationen Informationen beinhalten, die der ersten Eingabe entsprechen.
  21. Medium nach Anspruch 18, wobei die Aktualisierungsinformationen eine aktualisierte Benutzerschnittstelle zum Anzeigen auf der ersten betroffenen Anzeige beinhalten.
  22. Medium nach Anspruch 18, wobei die Vorrichtung Benutzerschnittstellen für zwei oder mehrere Anzeigen der Vielzahl von Anzeigen erzeugt und jeweilige Benutzerschnittstellen für die entsprechenden Anzeigen bereitstellt.
  23. Medium nach Anspruch 18, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: vor dem Senden der Aktualisierungsinformationen an die erste betroffene Anzeige, Erzeugen der Aktualisierungsinformationen auf der Grundlage der ersten Eingabeinformationen, wobei: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabebeschreibung erste Eingabeeigenschaften beschreibt, Erzeugen von ersten Aktualisierungsinformationen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabebeschreibung zweite Eingabeeigenschaften beschreibt, die unterschiedlich sind von den ersten Eingabeeigenschaften, Erzeugen von zweiten Aktualisierungsinformationen, die unterschiedlich sind von den ersten Aktualisierungsinformationen.
  24. Medium nach Anspruch 18, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer Anzeige ausgeführt werden, die Vorrichtung veranlassen auszuführen: nach dem Auswählen der ersten betroffenen Anzeige: Bestimmen eines jeweiligen Status einer Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird; und Erzeugen der Aktualisierungsinformationen auf der Grundlage der ersten Eingabebeschreibung und des jeweiligen Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird.
  25. Medium nach Anspruch 24, wobei: in Übereinstimmung mit einer Bestimmung, dass der jeweilige Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, ein erster Status ist, die Aktualisierungsinformationen dem Ausführen einer ersten Handlung für den jeweiligen Status der Benutzerschnittstelle entsprechen, die auf der ersten betroffenen Anzeige angezeigt wird; und in Übereinstimmung mit einer Bestimmung, dass der jeweilige Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird, ein zweiter Status ist, der unterschiedlich ist vom ersten Status, die Aktualisierungsinformationen dem Ausführen einer zweiten Handlung entsprechen, die unterschiedlich ist von der ersten Handlung, für den jeweiligen Status der Benutzerschnittstelle, die auf der ersten betroffenen Anzeige angezeigt wird.
  26. Medium nach Anspruch 24, wobei: die jeweilige Benutzerschnittstelle einen vorherigen Zustand vor dem Empfangen der ersten Eingabeinformationen hat; und das Verfahren ein Aktualisieren der Benutzerschnittstelle zu einem aktualisierten Status beinhaltet, der unterschiedlich ist von dem vorherigen Status, auf der Grundlage der ersten Eingabe und des vorherigen Status der jeweiligen Benutzerschnittstelle.
  27. Medium nach Anspruch 18, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: Erkennen einer Änderung der Verfügbarkeit einer entsprechenden Anzeige der Vielzahl von Anzeigen; und in Antwort auf das Erkennen der Änderungen der Verfügbarkeit der jeweiligen Anzeige, Aktualisieren der Eingabequellen-Abbildung, um die Änderung der Verfügbarkeit der jeweiligen Anzeige zu zeigen.
  28. Medium nach Anspruch 18, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die Vorrichtung veranlassen auszuführen: während eine jeweilige Eingabequelle der ersten Anzeige zugewiesen ist, Erkennen einer Änderung der Anzeigenzuweisung für eine entsprechende Eingabequelle der Vielzahl von Eingabequellen von der ersten Anzeige zu der zweiten Anzeige; und in Antwort auf das Erkennen der Änderung der Anzeigezuweisung für die jeweilige Eingabequelle, Aktualisieren der Eingabequellen-Abbildung, um die Änderungen der Anzeigezuweisung für die jeweilige Eingabequelle zu zeigen, so dass die Eingabeinformationen, die hinweisend sind für Eingaben, die mit der jeweiligen Eingabequelle verknüpft sind, verwendet werden, um eine Benutzerschnittstelle zu aktualisieren, die auf der zweiten Anzeige angezeigt wird, anstatt verwendet zu werden, um eine Benutzerschnittstelle zu aktualisieren, die auf der ersten Anzeige angezeigt wird.
  29. Medium nach Anspruch 27, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von einer ersten elektronischen Vorrichtung mit einer ersten Anzeige ausgeführt werden, die erste Vorrichtung veranlassen auszuführen: nach dem Senden der Aktualisierungsinformationen, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der Eingabe aktualisiert zu werden: Empfangen von zweiten Eingabeinformationen, die hinweisend für eine zweite Eingabe sind, die von einer zweiten Eingabequelle der Vielzahl von Eingabequellen erkannt worden ist, die unterschiedlich ist von der ersten Eingabequelle, wobei die zweiten Eingabeinformationen beinhalten: einen zweiten Identifikator für die zweite Eingabequelle; und eine zweite Eingabebeschreibung, die die zweite Eingabe beschreibt; Auswählen einer zweiten betroffenen Anzeige aus der Vielzahl von Anzeigen auf der Grundlage des zweiten Identifikators und der Eingabequellen-Abbildung; und Senden von Aktualisierungsinformationen an die zweite betroffene Anzeige, die es der zweiten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der zweiten Eingabe aktualisiert zu werden.
  30. Elektronische Vorrichtung, umfassend: eine Kommunikationsschnittstelle zum Kommunizieren mit einer Vielzahl von Anzeigen, die eine erste Anzeige und eine zweite Anzeige beinhaltet; einen oder mehrere Prozessoren; Speicher; und eines oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, um von dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Befehle beinhalten zum: Empfangen von ersten Eingabeinformationen, die hinweisend sind für eine erste Eingabe, die von einer ersten Eingabequelle einer Vielzahl von Eingabequellen erkannt worden ist, wobei die ersten Eingabeinformationen beinhalten: einen ersten Identifikator für die erste Eingabequelle; und eine erste Eingabebeschreibung, die die erste Eingabe beschreibt; Auswählen einer ersten betroffenen Anzeige aus der Vielzahl von Anzeigen auf der Grundlage des ersten Identifikators und einer Eingabequellen-Abbildung, die die Eingabequellen auf die entsprechenden Anzeigen abbildet; und Senden von Aktualisierungsinformationen an die erste betroffene Anzeige, die es der ersten betroffenen Anzeige ermöglichen, in Übereinstimmung mit der ersten Eingabe aktualisiert zu werden.
DE202014004560.7U 2013-06-08 2014-05-30 Vorrichtung und grafische Benutzerschnittstelle zum Synchronisieren zweier oder mehrerer Anzeigen Active DE202014004560U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361832842P 2013-06-08 2013-06-08
US61/832,842 2013-06-08

Publications (1)

Publication Number Publication Date
DE202014004560U1 true DE202014004560U1 (de) 2014-09-12

Family

ID=51228623

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014004560.7U Active DE202014004560U1 (de) 2013-06-08 2014-05-30 Vorrichtung und grafische Benutzerschnittstelle zum Synchronisieren zweier oder mehrerer Anzeigen

Country Status (9)

Country Link
US (3) US11002558B2 (de)
EP (2) EP2992418B1 (de)
JP (1) JP6545155B2 (de)
KR (1) KR101947229B1 (de)
CN (2) CN110413357B (de)
AU (6) AU2014100584B4 (de)
DE (1) DE202014004560U1 (de)
HK (1) HK1219144A1 (de)
WO (1) WO2014197339A1 (de)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US10097496B2 (en) 2012-05-09 2018-10-09 Apple Inc. Electronic mail user interface
US10649622B2 (en) 2012-05-09 2020-05-12 Apple Inc. Electronic message user interface
US10235014B2 (en) 2012-05-09 2019-03-19 Apple Inc. Music user interface
KR102118209B1 (ko) 2013-02-07 2020-06-02 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
AU2014100584B4 (en) 2013-06-08 2015-03-05 Apple Inc. Device, method, and graphical user interface for synchronizing two or more displays
JP2015007949A (ja) * 2013-06-26 2015-01-15 ソニー株式会社 表示装置、表示制御方法及びコンピュータプログラム
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
CN108196761B (zh) 2013-09-03 2021-03-09 苹果公司 利用磁属性来操控用户界面对象的用户界面
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US10924603B1 (en) * 2014-03-01 2021-02-16 sigmund lindsay clements Phone map used to find and operate multiuser devices
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP4036685A1 (de) 2014-06-27 2022-08-03 Apple Inc. Benutzerschnittstelle mit reduzierter grösse
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
CN113824998A (zh) * 2014-09-02 2021-12-21 苹果公司 音乐用户界面
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10200824B2 (en) * 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
KR102458444B1 (ko) 2016-01-05 2022-10-25 삼성전자주식회사 전자 장치 및 그 동작 방법
CA3005631C (en) * 2016-03-30 2022-04-26 Google Llc Secondary computing device assistant
US10198072B2 (en) * 2016-06-08 2019-02-05 Immersion Corporation Haptic feedback for opportunistic displays
KR102304936B1 (ko) * 2016-06-12 2021-09-27 애플 인크. 제어가능한 외부 디바이스들을 관리하기 위한 사용자 인터페이스
CN110058757B (zh) * 2016-09-06 2022-08-12 苹果公司 用于对触摸输入进行处理和消除歧义的设备和方法
US10652337B2 (en) * 2016-09-07 2020-05-12 Thundar Power New Energy Vehicle Developmont Company Limited Passenger side display via a user portable device
US11237709B2 (en) 2016-10-25 2022-02-01 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
AU2017101426B4 (en) * 2016-10-25 2018-03-15 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
DK179492B1 (en) 2016-10-25 2019-01-08 Apple Inc. SYSTEMS AND METHODS FOR ENABLING LOW-VISION USERS TO INTERACT WITH A TOUCH-SENSITIVE SECONDARY DISPLAY
KR20180071049A (ko) * 2016-12-19 2018-06-27 삼성전자주식회사 전자 장치 및 그 이미지 동기화 방법
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10237209B2 (en) * 2017-05-08 2019-03-19 Google Llc Initializing a conversation with an automated agent via selectable graphical element
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
KR102395289B1 (ko) * 2017-05-24 2022-05-09 현대자동차주식회사 차량의 디스플레이 관리 장치
CN107415691B (zh) * 2017-07-28 2020-11-20 上海仪电汽车电子系统有限公司 集中式车载显示控制系统
CN111031958B (zh) * 2017-08-16 2023-09-15 柯惠有限合伙公司 在微创手术期间合成多个相机视点之间的空间感知过渡
CN116679903A (zh) * 2017-10-03 2023-09-01 谷歌有限责任公司 车辆环境中的多个数字助理协调
JP6940365B2 (ja) * 2017-10-12 2021-09-29 日立Astemo株式会社 情報更新装置
CN108163216B (zh) * 2017-11-03 2022-06-28 中航通飞研究院有限公司 一种低成本航电系统
US10732916B2 (en) * 2017-11-28 2020-08-04 Ncr Corporation Multi-device display processing
CN111433713A (zh) * 2018-01-04 2020-07-17 哈曼国际工业有限公司 上下文和无感知按钮屏幕转接
EP3562168B1 (de) * 2018-04-27 2020-11-04 Spotify AB Medienwiedergabeaktionen basierend auf knopfdrehung
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
KR102569372B1 (ko) * 2018-06-26 2023-08-22 구글 엘엘씨 디지털 어시스턴트 애플리케이션과 내비게이션 애플리케이션 간의 인터페이싱
DK179896B1 (en) 2018-09-11 2019-08-30 Apple Inc. CONTENT-BASED TACTILE OUTPUTS
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN111107518A (zh) * 2018-10-25 2020-05-05 上海博泰悦臻电子设备制造有限公司 显示方法、车载终端、显示系统及计算机可读存储介质
US10878805B2 (en) * 2018-12-06 2020-12-29 Microsoft Technology Licensing, Llc Expediting interaction with a digital assistant by predicting user responses
TWI742421B (zh) * 2018-12-12 2021-10-11 富智捷股份有限公司 使用者介面整合方法和車載裝置
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109976861B (zh) * 2019-03-28 2023-01-10 北京小米移动软件有限公司 交互界面显示方法、装置及存储介质
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
EP4231124A1 (de) 2019-05-31 2023-08-23 Apple Inc. Benutzerschnittstellen zur audiomediensteuerung
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
EP4004702A1 (de) * 2019-09-09 2022-06-01 Apple Inc. Benutzerschnittstelle für forschungsstudien
KR102461918B1 (ko) * 2019-10-11 2022-11-02 구글 엘엘씨 차량용 확장가능 컴퓨팅 아키텍처
US11899757B2 (en) * 2019-12-02 2024-02-13 Cox Automotive, Inc. Systems and methods for temporary digital content sharing
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
CN111857910A (zh) * 2020-06-28 2020-10-30 维沃移动通信有限公司 信息的显示方法、装置及电子设备
JP2022012403A (ja) * 2020-07-01 2022-01-17 キヤノン株式会社 プログラム、情報処理装置及び制御方法
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN117215697A (zh) * 2020-07-21 2023-12-12 联想(北京)有限公司 一种控制方法及装置
CN112181249A (zh) * 2020-09-25 2021-01-05 北京字节跳动网络技术有限公司 播放控制方法、装置、电子设备和存储介质
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
CN114764316A (zh) * 2020-12-31 2022-07-19 华为技术有限公司 焦点同步方法及电子设备
CN114816158A (zh) * 2021-01-11 2022-07-29 华为技术有限公司 界面的控制方法、装置、电子设备和可读存储介质
CN114765700B (zh) * 2021-01-13 2023-07-14 腾讯科技(深圳)有限公司 信息交互方法和装置、存储介质及电子设备
CN114793295B (zh) * 2021-01-25 2023-07-07 腾讯科技(深圳)有限公司 视频的处理方法、装置、电子设备及计算机可读存储介质
CN112612570B (zh) * 2021-03-08 2021-06-22 全时云商务服务股份有限公司 一种查看应用程序被遮挡区域的方法及系统
CN113094135B (zh) * 2021-04-06 2023-05-30 北京字跳网络技术有限公司 页面显示控制方法、装置、设备及存储介质
CN114302248B (zh) * 2021-04-30 2024-04-12 海信视像科技股份有限公司 一种显示设备及多窗口语音播报方法
CN116257196A (zh) * 2021-12-09 2023-06-13 华为技术有限公司 一种分享导航信息的方法、电子设备和系统
CN113997786B (zh) * 2021-12-30 2022-03-25 江苏赫奕科技有限公司 一种适用于车辆的仪表界面显示方法和装置
CN114379573A (zh) * 2022-01-10 2022-04-22 海信集团控股股份有限公司 车辆及其控制方法
WO2024010109A1 (ko) * 2022-07-06 2024-01-11 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어 방법
CN115334293B (zh) * 2022-07-11 2023-10-13 岚图汽车科技有限公司 显示系统及其投影控制方法、主副显示系统
US11960668B1 (en) * 2022-11-10 2024-04-16 Honeywell International Inc. Cursor management methods and systems for recovery from incomplete interactions
US11954325B1 (en) 2023-04-05 2024-04-09 Honeywell International Inc. Methods and systems for assigning text entry components to cursors
CN116424243B (zh) * 2023-04-12 2023-12-19 深圳市比纳瑞科技有限公司 一种智能车载多媒体系统控制方法及装置

Family Cites Families (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3687840B2 (ja) * 2000-06-29 2005-08-24 マツダ株式会社 車両用情報処理装置及び車両用情報通信方法
US8380630B2 (en) * 2000-07-06 2013-02-19 David Paul Felsher Information record infrastructure, system and method
JP3980844B2 (ja) * 2001-05-31 2007-09-26 富士通株式会社 案内情報リクエスト装置および案内情報提供装置
JP4860847B2 (ja) * 2001-09-03 2012-01-25 パイオニア株式会社 通信ナビゲーションシステム及び方法、並びにコンピュータプログラム
JP4737900B2 (ja) * 2001-09-28 2011-08-03 クラリオン株式会社 移動体接近警告システム及び方法、並びに移動体接近警告システムの利用側移動体端末
JP2004028909A (ja) * 2002-06-27 2004-01-29 Victor Co Of Japan Ltd 車内無線通信システム
US20040021681A1 (en) * 2002-07-30 2004-02-05 Liao Chin-Hua Arthur Dual-touch-screen mobile computer
US20040260438A1 (en) * 2003-06-17 2004-12-23 Chernetsky Victor V. Synchronous voice user interface/graphical user interface
US7689394B2 (en) * 2003-08-26 2010-03-30 Siemens Industry, Inc. System and method for remotely analyzing machine performance
JP2005140521A (ja) * 2003-11-04 2005-06-02 Pioneer Electronic Corp 交通状況報知装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
US7035734B2 (en) * 2003-12-10 2006-04-25 Cisco Technology, Inc. Method and system for communicating navigation information
EP1568970B1 (de) * 2004-02-26 2006-12-20 Alcatel Verfahren zur Eingabe von Zielortinformationen über ein mobiles Endgerät
US7440290B2 (en) * 2004-05-17 2008-10-21 Qualcomm Incorporated Control systems
US20050281414A1 (en) * 2004-06-18 2005-12-22 Simon Gregory R Method and apparatus for control of personal digital media devices using a vehicle audio system
US8407347B2 (en) * 2004-11-19 2013-03-26 Xiao Qian Zhang Method of operating multiple input and output devices through a single computer
US8606516B2 (en) 2004-11-30 2013-12-10 Dash Navigation, Inc. User interface system and method for a vehicle navigation device
US20060123359A1 (en) * 2004-12-03 2006-06-08 Schatzberger Richard J Portable electronic device having user interactive visual interface
CN101080693B (zh) * 2004-12-14 2010-07-28 宝马股份公司 用于在具有更新装置的汽车中使用至少一个移动终端设备的系统
JP2006246113A (ja) 2005-03-04 2006-09-14 Matsushita Electric Ind Co Ltd 操作システムおよび被操作端末
US7953513B2 (en) * 2005-03-15 2011-05-31 Siemens Industry, Inc. Systems, devices, and methods for automation control
US7552009B2 (en) 2005-07-14 2009-06-23 Honda Motor Co., Ltd. System and method for synchronizing data for use in a navigation system
CA2559684C (en) * 2005-09-16 2013-12-31 User-Centric Enterprises, Inc. User-centric event reporting
US8136138B2 (en) * 2005-12-15 2012-03-13 Visteon Global Technologies, Inc. Display replication and control of a portable device via a wireless interface in an automobile
NZ570413A (en) * 2006-02-28 2011-07-29 Phenomenome Discoveries Inc Methods for the diagnosis of dementia and other neurological disorders
US7669142B2 (en) 2006-02-28 2010-02-23 Microsoft Corporation Viewable and actionable search results
JP4551961B2 (ja) 2006-03-31 2010-09-29 パイオニア株式会社 音声入力支援装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および、ナビゲーション装置
TW200808076A (en) * 2006-07-26 2008-02-01 Mitac Int Corp Method and portable electronic device for automatically switching loudspeaker output
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7877204B2 (en) 2006-11-24 2011-01-25 Qualcomm Incorporated System and method for sending destination locations to navigation devices
EP2091784B1 (de) * 2006-12-20 2012-02-01 Johnson Controls Technology Company Fernanzeige-wiedergabesystem und -verfahren
JP2008170157A (ja) * 2007-01-05 2008-07-24 United Video Properties Inc 移動体ナビゲーション装置用電子番組表、目的地情報提供方法及び装置
CN101646992B (zh) 2007-03-28 2012-05-30 株式会社爱可信 内容再现系统、内容再现控制装置
US7881744B2 (en) * 2007-04-10 2011-02-01 Research In Motion Limited Media transfer and control system
US8265617B2 (en) * 2007-04-10 2012-09-11 Research In Motion Limited Media transfer and control system
US8180379B2 (en) 2007-06-28 2012-05-15 Apple Inc. Synchronizing mobile and vehicle devices
US8024511B2 (en) * 2007-08-31 2011-09-20 Siemens Industry, Inc. Systems, devices, and/or methods to access synchronous RAM in an asynchronous manner
CA2699409A1 (en) * 2007-09-14 2009-03-19 Tomtom International B.V. Communications apparatus, system and method of providing a user interface
JP2009140488A (ja) 2007-11-14 2009-06-25 Fujitsu Ten Ltd 車載装置および表示制御システム
JP2009137392A (ja) * 2007-12-05 2009-06-25 Mitsubishi Electric Corp 表示制御装置
WO2009073806A2 (en) * 2007-12-05 2009-06-11 Johnson Controls Technology Company Vehicle user interface systems and methods
JP2009154647A (ja) * 2007-12-26 2009-07-16 Aisin Aw Co Ltd マルチ画面表示装置及びそのプログラム
US20090182562A1 (en) * 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
US8588814B2 (en) * 2008-02-05 2013-11-19 Madhavi Jayanthi Client in mobile device for sending and receiving navigational coordinates and notifications
JP4524763B2 (ja) 2008-03-25 2010-08-18 株式会社デンソー 自動車用情報提供システム
JP4390006B2 (ja) 2008-04-01 2009-12-24 トヨタ自動車株式会社 カーナビゲーション装置、携帯情報端末、及びカーナビゲーションシステム
US20100064053A1 (en) 2008-09-09 2010-03-11 Apple Inc. Radio with personal dj
US20100293462A1 (en) 2008-05-13 2010-11-18 Apple Inc. Pushing a user interface to a remote device
US8970647B2 (en) * 2008-05-13 2015-03-03 Apple Inc. Pushing a graphical user interface to a remote device with display rules provided by the remote device
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9870130B2 (en) 2008-05-13 2018-01-16 Apple Inc. Pushing a user interface to a remote device
US20090284476A1 (en) 2008-05-13 2009-11-19 Apple Inc. Pushing a user interface to a remote device
US9965035B2 (en) 2008-05-13 2018-05-08 Apple Inc. Device, method, and graphical user interface for synchronizing two or more displays
US20130275899A1 (en) 2010-01-18 2013-10-17 Apple Inc. Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts
US8707044B2 (en) * 2008-08-11 2014-04-22 Tti Inventions D Llc System and method for using networked mobile devices in vehicles
JP2010130369A (ja) * 2008-11-27 2010-06-10 Fujitsu Ten Ltd 車載装置および遠隔操作システム
US20100127996A1 (en) * 2008-11-27 2010-05-27 Fujitsu Ten Limited In-vehicle device, remote control system, and remote control method
JP2010130669A (ja) 2008-12-01 2010-06-10 Fujitsu Ten Ltd 車載装置および無線通信システム
CN102187178B (zh) * 2008-12-22 2015-11-25 电子地图北美公司 用于绿色路线选择的方法、装置和地图数据库
WO2010077223A1 (en) * 2008-12-30 2010-07-08 Tele Atlas North America, Inc. A method and system for transmitting and/or receiving at least one location reference, enhanced by at least one focusing factor
EP2397372A4 (de) 2009-02-10 2016-06-15 Toyota Motor Co Ltd Fahrzeuginformationsverarbeitungsvorrichtung und -verfahren
US8942922B2 (en) * 2009-03-30 2015-01-27 Denso International America, Inc. Navigation location mark by cell phone
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) * 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9916625B2 (en) * 2012-02-02 2018-03-13 Progressive Casualty Insurance Company Mobile insurance platform system
US8928551B2 (en) 2009-07-07 2015-01-06 Village Green Technologies, LLC Multiple displays for a portable electronic device and a method of use
US20110034128A1 (en) * 2009-08-05 2011-02-10 Kirsch David M Mobile Communication Device Linked to In-Vehicle System
GB0915515D0 (en) 2009-09-04 2009-10-07 Ucl Business Plc Treatment of vasculoproliferative conditions
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
AU2012101470B4 (en) * 2010-01-18 2013-05-16 Apple Inc. Prioritizing selection criteria by automated assistant
US20110188197A1 (en) * 2010-02-03 2011-08-04 Craig Jackson Integrated audio and video port for portable electonic devices
US20110239142A1 (en) 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing content over multiple displays
US20110247013A1 (en) * 2010-04-01 2011-10-06 Gm Global Technology Operations, Inc. Method for Communicating Between Applications on an External Device and Vehicle Systems
FR2959327B1 (fr) * 2010-04-21 2013-03-08 Delphi Tech Inc Systeme d'enregistrement et de consultation de messages vocaux
US20120041633A1 (en) * 2010-08-16 2012-02-16 Ford Global Technologies, Llc Systems and methods for regulating control of a vehicle infotainment system
CN103118904B (zh) * 2010-09-17 2015-10-07 歌乐株式会社 车载信息系统、车载装置、信息终端
US8565963B2 (en) * 2010-09-23 2013-10-22 Xerox Corporation Method and system for remotely tracking vehicle-centric data and user-centric data
JP5234160B2 (ja) 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
US8781730B2 (en) 2011-04-11 2014-07-15 Garmin Switzerland Gmbh Route selection employing metrics
JP6076897B2 (ja) * 2011-04-15 2017-02-08 クラリオン株式会社 車載情報システム、車載装置、情報端末用プログラム
US9285944B1 (en) 2011-04-22 2016-03-15 Angel A. Penilla Methods and systems for defining custom vehicle user interface configurations and cloud services for managing applications for the user interface and learned setting functions
US20120321112A1 (en) * 2011-06-16 2012-12-20 Apple Inc. Selecting a digital stream based on an audio sample
GB2492789B (en) 2011-07-12 2018-01-03 Denso Corp Displays
JP5857535B2 (ja) * 2011-08-29 2016-02-10 アイシン・エィ・ダブリュ株式会社 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
JP2013053942A (ja) * 2011-09-05 2013-03-21 Panasonic Corp ナビゲーション装置、および、それを用いて運転支援システム
CN108337380B (zh) 2011-09-30 2022-08-19 苹果公司 自动调整用户界面以用于免提交互
KR101302363B1 (ko) * 2011-10-05 2013-09-06 팅크웨어(주) 전자 기기 및 전자 기기의 제어 방법
US9203480B2 (en) 2011-10-06 2015-12-01 Massachusetts Institute Of Technology Coherent transmission from distributed wireless transmitters using legacy receivers
US8947202B2 (en) * 2011-10-20 2015-02-03 Apple Inc. Accessing a vehicle using portable devices
US9116563B2 (en) * 2011-10-28 2015-08-25 Honda Motor Co., Ltd. Connecting touch screen phones in a vehicle
JP5921162B2 (ja) * 2011-11-24 2016-05-24 富士通テン株式会社 車両用装置、目的地の設定方法、及びプログラム
US8847791B1 (en) * 2011-12-08 2014-09-30 Google Inc. Systems and methods for determining parking difficulty of segments of a geographic area
US8433463B1 (en) * 2012-02-09 2013-04-30 Nordic Capital Partners, LLC Vehicular dual mode master/slave interface
US9336827B2 (en) 2012-04-11 2016-05-10 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for browsing a mobile device with an in-vehicle user interface
US9431012B2 (en) * 2012-04-30 2016-08-30 2236008 Ontario Inc. Post processing of natural language automatic speech recognition
US20130297604A1 (en) * 2012-05-01 2013-11-07 Research In Motion Limited Electronic device and method for classification of communication data objects
US10296516B2 (en) 2012-05-21 2019-05-21 Here Global B.V. Method and apparatus for navigation using multiple synchronized mobile devices
KR101919788B1 (ko) 2012-05-31 2018-11-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN102810117B (zh) * 2012-06-29 2016-02-24 北京百度网讯科技有限公司 一种用于提供搜索结果的方法与设备
CN102724329A (zh) * 2012-07-05 2012-10-10 深圳市路畅科技股份有限公司 一种车载导航仪的控制方法
US20140026088A1 (en) 2012-07-17 2014-01-23 Sap Ag Data Interface Integrating Temporal and Geographic Information
CN102759359A (zh) * 2012-07-18 2012-10-31 深圳市凯立德科技股份有限公司 一种与移动终端交互的定位导航设备及其交互方法
US9969263B2 (en) * 2012-09-06 2018-05-15 Toyota Jidosha Kabushiki Kaisha Mobile terminal device, on-vehicle device, and on-vehicle system
CN102930263A (zh) * 2012-09-27 2013-02-13 百度国际科技(深圳)有限公司 一种信息处理方法及装置
US8958981B2 (en) 2012-11-06 2015-02-17 Cheng-Yu Wang Near field communication mobile device and navigation device communication system
US9794134B2 (en) 2012-11-16 2017-10-17 Apple Inc. System and method for negotiating control of a shared audio or visual resource
CN104937603B (zh) * 2013-01-10 2018-09-25 日本电气株式会社 终端、解锁方法和程序
CN103118176A (zh) * 2013-01-16 2013-05-22 广东好帮手电子科技股份有限公司 一种通过车载主机实现手机语音控制功能的方法及系统
US9619131B2 (en) 2013-02-22 2017-04-11 Blackberry Limited Methods and devices for displaying content
US9719797B2 (en) 2013-03-15 2017-08-01 Apple Inc. Voice and touch user interface
US10655979B2 (en) 2013-06-08 2020-05-19 Apple Inc. User interface for displaying predicted destinations
US10251034B2 (en) * 2013-03-15 2019-04-02 Blackberry Limited Propagation of application context between a mobile device and a vehicle information system
US9300779B2 (en) * 2013-03-15 2016-03-29 Blackberry Limited Stateful integration of a vehicle information system user interface with mobile device operations
US20140343753A1 (en) * 2013-05-15 2014-11-20 Honda Motor Co., Ltd. System and method for vehicle interface extension and control
AU2014100584B4 (en) 2013-06-08 2015-03-05 Apple Inc. Device, method, and graphical user interface for synchronizing two or more displays

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11a
IEEE 802.11b
IEEE 802.11g
IEEE 802.11n

Also Published As

Publication number Publication date
HK1219144A1 (zh) 2017-03-24
EP2992418B1 (de) 2022-02-16
AU2014100584A4 (en) 2014-07-03
KR101947229B1 (ko) 2019-02-12
AU2021201449A1 (en) 2021-03-25
AU2014100584B4 (en) 2015-03-05
KR20160014047A (ko) 2016-02-05
EP2992418A1 (de) 2016-03-09
AU2019213441A1 (en) 2019-08-29
US11692840B2 (en) 2023-07-04
AU2019213441C1 (en) 2021-06-03
JP6545155B2 (ja) 2019-07-17
AU2022224855B2 (en) 2024-05-02
AU2014275224A1 (en) 2015-12-24
AU2014275224B2 (en) 2017-08-31
US20210190525A1 (en) 2021-06-24
WO2014197339A1 (en) 2014-12-11
CN105283840B (zh) 2019-07-05
CN105283840A (zh) 2016-01-27
CN110413357B (zh) 2022-09-06
US20180253148A1 (en) 2018-09-06
US11002558B2 (en) 2021-05-11
AU2019213441B9 (en) 2021-03-11
CN110413357A (zh) 2019-11-05
US20230324196A1 (en) 2023-10-12
EP4009166A1 (de) 2022-06-08
AU2022224855A1 (en) 2022-09-29
AU2017268569A1 (en) 2017-12-21
AU2021201449B2 (en) 2022-06-23
AU2019213441B2 (en) 2021-01-28
JP2016529580A (ja) 2016-09-23
AU2017268569B2 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
DE202014004560U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Synchronisieren zweier oder mehrerer Anzeigen
CN110083411B (zh) 用于从模板生成用户界面的设备和方法
US9965035B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE202017004558U1 (de) Intelligenter automatisierter Assistent
DE202014004549U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
DE202014004554U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
DE202013012233U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
DE102016214955A1 (de) Latenzfreier digitaler Assistent
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202015003891U1 (de) Vorgefertigte Antworten in Nachrichten
DE112016001104T5 (de) Aktivierung von virtuellen Assistenten
DE202015005999U1 (de) Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE202015006141U1 (de) Elektronische Touch-Kommunikation
DE202013011826U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Zugreifen auf eine Anwendung in einer gesperrten Vorrichtung
DE202014004477U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Verwalten von Ordnern mit mehreren Seiten

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20141023

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years