DE202014004572U1 - Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen - Google Patents

Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen Download PDF

Info

Publication number
DE202014004572U1
DE202014004572U1 DE202014004572.0U DE202014004572U DE202014004572U1 DE 202014004572 U1 DE202014004572 U1 DE 202014004572U1 DE 202014004572 U DE202014004572 U DE 202014004572U DE 202014004572 U1 DE202014004572 U1 DE 202014004572U1
Authority
DE
Germany
Prior art keywords
camera
camera interface
touch
interface
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202014004572.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202014004572U1 publication Critical patent/DE202014004572U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Abstract

Nichtflüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfassen, welche, wenn sie von einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einer Kamera ausgeführt werden, die Vorrichtung veranlassen auszuführen: Anzeigen einer ersten Kameraschnittstelle auf der Anzeige für eine erste virtuelle Kamera, die Medien mit ersten Ausgabedimensionen erzeugt; während des Anzeigens der ersten Kameraschnittstelle auf der Anzeige, Erkennen einer ersten Geste, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert; und in Antwort auf das Erkennen der ersten Geste, Schalten vom Anzeigen der ersten Kameraschnittstelle zum Anzeigen einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen, wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle.

Description

  • VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der vorläufigen US-Patentanmeldung Nr. 61/832,958, eingereicht am 9. Juni 2013, welche hierin durch Verweis in ihrer Gesamtheit aufgenommen ist.
  • TECHNISCHES GEBIET
  • Dies bezieht sich im Allgemeinen auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, einschließlich aber nicht beschränkt auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, die mehrere Kameraschnittstellen beinhalten.
  • HINTERGRUND
  • Die Verwendung von berührungsempfindlichen Oberflächen als Eingabevorrichtungen für Computer und andere elektronische Computervorrichtungen hat in den letzten Jahren signifikant zugenommen. Beispielhafte berührungsempfindliche Oberflächen beinhalten Touchpads und Touchscreen-Anzeigen. Solche Oberflächen sind weitverbreitet, um Benutzerschnittstellenobjekte auf einer Anzeige zu manipulieren oder um verschiedene Merkmale der Vorrichtung zu aktivieren. Zum Beispiel kann ein Benutzer eine Kameraanwendung der Vorrichtung verwenden, um Standbilder oder Videos aufzuzeichnen.
  • Allerdings sind Verfahren zum Schalten zwischen Modi in einer Kameraanwendung mühevoll und ineffizient. Zum Beispiel beinhalten aktuelle Verfahren zum Schalten zwischen Modi oder Schnittstellen einer Kameraanwendung, dass der Benutzer einen Kippschalter aktiviert oder durch eine komplexe Abfolge von Menüs und Einstellungsschnittstellen navigiert. Der Kippschalter kann ungünstig platziert sein hinsichtlich der Position der Hände und Finger des Benutzers, wenn der Benutzer die Vorrichtung in Vorbereitung auf das Aufzeichnen von Bildern oder Videos hält. Weiterhin sind Kippschalter nicht sehr effektiv zum Schalten zwischen mehr als zwei Modi. Demzufolge besteht ein Bedarf für ein effizienteres und günstigeres Verfahren zum Schalten zwischen Kameramodi.
  • ZUSAMMENFASSUNG
  • Demzufolge besteht ein Bedarf für elektronische Vorrichtungen mit schnelleren, effizienteren Verfahren und Schnittstellen zum Schalten zwischen Kameraschnittstellen. Solche Verfahren und Schnittstellen ergänzen optional oder ersetzen konventionelle Verfahren zum Schalten zwischen Kameraschnittstellen. Solche Verfahren und Schnittstellen reduzieren die kognitive Belastung eines Benutzers und erzeugen eine effizientere Mensch-Maschinen-Schnittstelle. Für batteriebetriebene Vorrichtungen sparen solche Verfahren und Schnittstellen Leistung und erhöhen die Zeit zwischen Ladevorgängen.
  • Die oben beschriebenen Mängel und anderen Probleme, die mit Benutzerschnittstellen für elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen verknüpft sind, werden reduziert oder durch die offenbarten Vorrichtungen beseitigt. In einigen Ausführungsformen ist die Vorrichtung ein Desktop-Computer. In einigen Ausführungsformen ist die Vorrichtung tragbar (z. B. ein Notebook-Computer, ein Tablet-Computer oder eine handgehaltene Vorrichtung). In einigen Ausführungsformen weist die Vorrichtung ein Touchpad auf. In einigen Ausführungsformen weist die Vorrichtung eine berührungsempfindliche Anzeige auf (ebenso bekannt als ein „Touchscreen” oder eine „Touchscreen-Anzeige”). In einigen Ausführungsformen weist die Vorrichtung eine grafische Benutzerschnittstelle („graphical user interface”, GUI), einen oder mehrere Prozessoren, Speicher und eines oder mehrere Module, Programme oder Sätze von Befehlen, die in dem Speicher gespeichert sind, auf, zum Ausführen mehrerer Funktionen. In einigen Ausführungsformen interagiert der Benutzer hauptsächlich mit der GUI durch Fingerkontakte und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen beinhalten die Funktionen optional Bildbearbeitung, Zeichnen, Darstellen, Textverarbeitung, Webseitenerstellen, Disk Authoring, Erstellen von Tabellenkalkulationen, Spielen von Spielen, Telefonieren, Führen von Videokonferenzen, E-Mailen, Instant Messaging, Trainingsunterstützung, digitales Fotografieren, digitales Video, Surfen im Internet, Abspielen digitaler Musik und/oder Abspielen digitalen Videos. Ausführbare Befehle zum Ausführen dieser Funktionen sind optional in einem nichtflüchtigen computerlesbaren Speichermedium oder anderen Computerprogrammprodukten beinhaltet, die eingerichtet sind zur Ausführung durch einen oder mehrere Prozessoren.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren bei einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einer Kamera ausgeführt. Das Verfahren beinhaltet: Anzeigen einer ersten Kameraschnittstelle auf der Anzeige für eine erste virtuelle Kamera, die Medien mit ersten Ausgabedimensionen erzeugt; während des Anzeigens der ersten Kameraschnittstelle auf der Anzeige, Erkennen einer ersten Geste, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert; und in Antwort auf das Erkennen der ersten Geste, Schalten vom Anzeigen der ersten Kameraschnittstelle zum Anzeigen einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen, wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die eingerichtet ist, um eine erste Kameraschnittstelle für eine erste virtuelle Kamera anzuzeigen, die Medien mit ersten Ausgabedimensionen erzeugt, eine berührungsempfindliche Oberflächeneinheit, die eingerichtet ist, um Kontakte und Gesten zu empfangen, eine Kameraeinheit und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindlichen Oberflächeneinheit und der Kameraeinheit gekoppelt ist. Die Verarbeitungseinheit ist eingerichtet, um: während des Ermöglichens der Anzeige der ersten Kameraschnittstelle auf der Anzeigeeinheit, eine erste Geste zu erkennen, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberflächeneinheit beinhaltet, wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert; in Antwort auf das Erkennen der ersten Geste, Schalten vom Ermöglichen der Anzeige der ersten Kameraschnittstelle zum Ermöglichen der Anzeige einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen, wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeige, eine berührungsempfindliche Oberfläche, eine Kamera, einen oder mehrere Prozessoren, Speicher und eines oder mehrere Programme; das eine oder die mehreren Programme sind in dem Speicher gespeichert und eingerichtet, um von dem einen oder den mehreren Prozessoren ausgeführt zu werden, und das eine oder die mehreren Programme beinhalten Befehle zum Ausführen der Handlungen von jedem der hierin beschriebenen Verfahren. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine grafische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einer Kamera, einem Speicher und einem oder mehreren Prozessoren, um das eine oder die mehreren Programme, die in dem Speicher gespeichert sind, auszuführen, eines oder mehrere der Elemente, die in jedem der zuvor beschriebenen Verfahren angezeigt werden, welche in Antwort auf Eingaben aktualisiert werden, wie in jedem der zuvor beschriebenen Verfahren beschrieben. In Übereinstimmung mit einigen Ausführungsformen sind in einem computerlesbaren Speichermedium Befehle gespeichert, welche, wenn sie von einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einer Kamera ausgeführt werden, die Vorrichtung veranlassen, die Handlungen von jedem der Verfahren, auf die Bezug genommen wird und die zuvor beschrieben worden sind, auszuführen. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung: eine Anzeige, eine berührungsempfindliche Oberfläche, eine Kamera; und Mittel zum Ausführen der Handlungen von jedem der zuvor beschriebenen Verfahren. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einer Kamera Mittel zum Ausführen der Handlungen von jedem der zuvor beschriebenen Verfahren.
  • Demzufolge werden elektronische Vorrichtungen mit Anzeigen, berührungsempfindlichen Oberflächen und Kameras bereitgestellt mit schnelleren und effizienteren Verfahren und Schnittstellen zum Schalten zwischen Kameraschnittstellen, die dadurch die Effektivität, Effizienz und Benutzerzufriedenheit mit solchen Vorrichtungen erhöhen. Solche Verfahren und Schnittstellen können konventionelle Verfahren zum Schalten zwischen Kameraschnittstellen ergänzen oder ersetzen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der verschiedenen beschriebenen Ausführungsformen sollte Bezug genommen werden auf die nachstehende Beschreibung der Ausführungsformen im Zusammenhang mit den nachfolgenden Zeichnungen, in denen gleiche Bezugszeichen sich auf entsprechende Teile überall in den Figuren beziehen.
  • 1A ist ein Blockdiagramm, das eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit einigen Ausführungsformen veranschaulicht.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten für ein Ereignis-Handling veranschaulicht in Übereinstimmung mit einigen Ausführungsformen.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung, die einen Touchscreen aufweist, in Übereinstimmung mit einigen Ausführungsformen.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Anwendungsmenü auf einer tragbaren Multifunktionsvorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer berührungsempfindlichen Oberfläche, die getrennt ist von der Anzeige, in Übereinstimmung mit einigen Ausführungsformen.
  • 5A5N veranschaulichen beispielhafte Benutzerschnittstellen zum Schalten zwischen Kameraschnittstellen in Übereinstimmung mit einigen Ausführungsformen.
  • 6A6G sind Flussdiagramme, die ein Verfahren zum Schalten zwischen Kameraschnittstellen veranschaulichen, in Übereinstimmung mit einigen Ausführungsformen.
  • 7 ist ein funktionales Blockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Viele elektronische Vorrichtungen weisen Kameras auf mit einem Standbildkameramodus und einem Videokameramodus. Mit den Fortschritten bei Hardware und Software kann die Vorrichtung sogar mehr Modi der Kamera unterstützen. Mit der Zunahme der unterschiedlichen Modi der Kamera kann das Schalten zwischen ihnen ineffizient sein. Typischerweise schaltet der Benutzer zwischen den Modi unter Verwendung von Schaltern, Knöpfen oder einigen anderen Affordanzen, die an Orten auf der Anzeige angezeigt werden, die nicht die günstigsten sind (z. B. Navigieren durch eine Reihe von Menüs und Einstellungsschnittstellen). Im Besonderen verhindert die schlechte Platzierung der Modus-Schalt-Affordanzen, wenn die Vorrichtung eine Touchscreen-Vorrichtung ist, den schnellen Zugriff auf unterschiedliche Kameramodi, wenn solch schneller Zugriff wünschenswert ist. Die nachfolgenden Ausführungsformen beschreiben Verfahren zum schnellen Schalten zwischen Kameraschnittstellen, die unterschiedlichen Kameramodi entsprechen. Der Benutzer schaltet zwischen einer Sequenz von mindestens zwei Kameraschnittstellen unter Verwendung von Wischgesten entlang der berührungsempfindlichen Oberfläche in entgegengesetzten Richtungen. Dieses Schalten zwischen Kameramodi ist effizienter und einfacher zu verwenden.
  • Nachfolgend stellen 1A1B, 2 und 3 eine Beschreibung von beispielhaften Vorrichtungen bereit. 4A4B und 5A5N veranschaulichen beispielhafte Benutzerschnittstellen zum Schalten zwischen Kameraschnittstellen. 6A6G sind Flussdiagramme, die ein Verfahren zum Schalten zwischen Kameraschnittstellen veranschaulichen. Die Benutzerschnittstellen in 5A5N werden verwendet, um die Verfahren in den 6A6G zu veranschaulichen.
  • Es wird nun im Detail verwiesen auf Ausführungsformen, Beispiele, welche in den begleitenden Zeichnungen gezeigt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Jedoch ist es dem Fachmann klar, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Details angewendet werden können. In anderen Fällen sind wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben worden, um nicht unnötig die Aspekte der Ausführungsformen unklar zu machen.
  • Es ist ebenso klar, dass, obwohl die Ausdrücke erster, zweiter, usw. in einigen Fällen hierin verwendet sind zum Beschreiben verschiedener Elemente, diese Elemente nicht durch diese Ausdrücke beschränkt werden sollten. Diese Ausdrücke werden nur verwendet zum Unterscheiden eines Elements von einem anderen. Zum Beispiel könnte ein erster Kontakt ein zweiter Kontakt genannt werden, und in ähnlicher Weise könnte ein zweiter Kontakt ein erster Kontakt genannt werden, ohne von dem Geltungsbereich der verschiedenen beschriebenen Ausführungsformen abzuweichen. Der erste Kontakt und der zweite Kontakt sind beides Kontakte, aber sie sind nicht der gleiche Kontakt.
  • Die Terminologie, welche in der Beschreibung der verschiedenen beschriebenen Ausführungsformen hierin verwendet wird, dient nur dem Zwecke des Beschreibens spezieller Ausführungsformen und soll nicht beschränkend sein. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den angehängten Ansprüchen verwendet, sollen die Singularformen „ein”, „eine” und „der”, „die”, „das” die Pluralformen auch umfassen, es sei denn der Zusammenhang zeigt klar das Gegenteil an. Es ist auch klar, dass der Ausdruck „und/oder” wie hierin verwendet sich auf irgendwelche und alle möglichen Kombinationen von ein oder mehreren der assoziierten aufgelisteten Gegenstände bezieht und diese umfasst. Es ist weiter klar, dass die Ausdrücke „umfassen”, „umfassend”, „aufweisen” und/oder „aufweisend”, wenn in dieser Beschreibung verwendet, das Vorliegen der genannten Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht das Vorliegen oder Hinzufügen ein oder mehrerer ande- rer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt.
  • Wie hierin verwendet, wird der Ausdruck „wenn” optional ausgelegt als „wenn” oder „nach” oder „in Antwort auf Bestimmen” oder „in Antwort auf Detektieren” abhängig vom Zusammenhang. In ähnlicher Weise wird der Ausdruck „wenn bestimmt wird” oder „wenn [eine genannte Bedingung oder ein Ereignis] detektiert wird” optional ausgelegt als „nach Bestimmen” oder „in Antwort auf Bestimmen” oder „nach Detektieren [der genannten Bedingung oder des Ereignisses]” oder „in Antwort auf Detektieren [die genannte Bedingung oder das Ereignis]” abhängig vom Zusammenhang zu bedeuten.
  • Wie hierin verwendet bezieht sich der Begriff „Auflösung” einer Anzeige auf die Anzahl von Pixeln (ebenso bezeichnet als „Pixelanzahl” oder „Pixelauflösung”) entlang jeder Achse oder in jeder Dimension der Anzeige. Zum Beispiel kann eine Anzeige eine Auflösung von 320×480 Pixeln aufweisen. Weiterhin, wie hierin verwendet, bezieht sich der Begriff „Auflösung” einer Multifunktionsvorrichtung auf die Auflösung einer Anzeige der Multifunktionsvorrichtung. Der Begriff „Auflösung” impliziert keine Beschränkung der Größe von jedem Pixel oder dem Abstand der Pixel. Zum Beispiel weist eine zweite Anzeige mit einer 320×480-Pixel-Auflösung im Vergleich zu einer ersten Anzeige mit einer 1420×768-Pixel-Auflösung eine niedrigere Auflösung auf. Jedoch sollte verstanden werden, dass die physikalische Größe einer Anzeige nicht nur von der Pixel-Auflösung abhängt, sondern ebenso von anderen Faktoren, einschließlich der Pixelgröße und dem Abstand der Pixel. Demzufolge kann die erste Anzeige dieselbe, eine kleinere oder eine größere physikalische Größe aufweisen im Vergleich zu der zweiten Anzeige.
  • Ausführungsformen der elektronischen Vorrichtungen, Benutzerschnittstellen für solche Vorrichtungen, und assoziierte Prozesse zum Verwenden solcher Vorrichtungen werden beschrieben. In einigen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie beispielsweise ein Mobiltelefon, welches auch andere Funktionen beinhaltet, wie beispielsweise PDA- und/oder Musikplayer-Funktionen. Beispielhafte Ausführungsformen von tragbaren Multifunktionsvorrichtungen umfassen ohne Beschränkung das iPhone@-, iPod Touch@-, und iPad@-Vorrichtungen von Apple Inc. aus Cupertino, Kalifornien. Andere tragbare elektronische Vorrichtungen, wie beispielsweise Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Berührungsbildschirmanzeigen und/oder Touchpads) werden optional verwendet. Es ist auch klar, dass in einigen Ausführungsformen die Vorrichtung nicht eine tragbare Kommunikationsvorrichtung ist, sondern ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche ist (z. B. eine Berührungsbildschirmanzeige und/oder ein Touchpad).
  • In der folgenden Diskussion wird eine elektronische Vorrichtung, welche eine Anzeige und eine berührungsempfindliche Oberfläche umfasst, beschrieben. Es ist jedoch klar, dass die elektronische Vorrichtung optional eine oder mehrere andere physische Benutzerschnittstellenvorrichtungen umfasst, wie beispielsweise eine physische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt typischerweise eine Vielzahl von Anwendungen, wie beispielsweise eine oder mehrere der folgenden: Eine Zeichnungsanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Webseitenerzeugungsanwendung, eine Disk-Authoring-Anwendung, eine Tabellenanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine Email-Anwendung, eine Instant-Messaging-Anwendung, eine Trainingsunterstützungsanwendung, eine Fotomanagementanwendung, eine Digitalkameraanwendung, eine Digitalvideokameraanwendung, eine Webbrowsing-Anwendung, eine Digitalmusikplayeranwendung, und/oder Digitalvideoplayeranwendung.
  • Die verschiedenen Anwendungen, welche auf der Vorrichtung ausgeführt werden, verwenden optional zumindest eine gemeinsame physische Benutzerschnittstellenvorrichtung, wie beispielsweise die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie korrespondierende Information, welche auf der Vorrichtung angezeigt wird, werden optional angepasst und/oder variiert von einer Anwendung zu der nächsten und/oder innerhalb einer jeweiligen Anwendung. Auf diese Weise unterstützt eine gemeinsame physische Architektur (wie beispielsweise berührungsempfindliche Oberfläche) der Vorrichtung optional die Vielzahl von Anwendungen mit Benutzerschnittstellen, welche für den Benutzer intuitiv und transparent sind.
  • Nun wird verwiesen auf Ausführungsformen der tragbaren Vorrichtungen mit berührungsempfindlichen Anzeigen. 1A ist ein Blockdiagramm, welches eine tragbare Multifunktionsvorrichtung 100 mit berührungsempfindlichen Anzeigen 112 gemäß einigen Ausführungsformen zeigt. Die berührungsempfindliche Anzeige 112 wird manchmal ein „Berührungsbildschirm” der Einfachheit halber genannt, und ist manchmal bekannt als oder genannt ein berührungsempfindliches Anzeigesystem. Die Vorrichtung 100 umfasst einen Speicher 102 (welcher optional ein oder mehrere computerlesbare Speichermedien umfasst), Speichersteuereinheit 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, Peripheriegeräteschnittstelle 118, HF-Schaltung 108, Audioschaltung 110, Lautsprecher 111, Mikrophon 113, Eingabe/Ausgabe (I/O)-Subsystem 106, andere Eingabe- oder Steuerungsvorrichtungen 116, und einen externen Anschluss 124. Die Vorrichtung 100 umfasst optional einen oder mehrere optische Sensoren 164. Die Vorrichtung 100 umfasst optional einen oder mehrere Intensitätssensoren 165 zum Detektieren der Intensität von Kontakten auf der Vorrichtung 100 (z. B. einer berührungsempfindlichen Oberfläche, wie beispielsweise das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100). Die Vorrichtung 100 umfasst optional einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 100 (z. B. Erzeugen taktiler Ausgaben auf einer berührungsempfindlichen Oberfläche, wie beispielsweise berührungsempfindliches Anzeigesystem 112 der Vorrichtung 100 oder Touchpad 355 der Vorrichtung 300). Diese Komponenten kommunizieren optional über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und in den Ansprüchen verwendet, bezieht sich der Ausdruck „Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche auf die Kraft oder den Druck (Kraft pro Flächeneinheit) eines Kontakts (z. B. eines Fingerkontakts) auf der berührungsempfindlichen Oberfläche, oder auf einen Ersatz (Vertreter (Proxy)) für die Kraft oder den Druck eines Kontakts auf die berührungsempfindliche Oberfläche. Die Intensität eines Kontakts hat einen Wertebereich, welcher zumindest vier verschiedene Werte umfasst, und typischer hunderte von verschiedenen Werten umfasst (z. B. zumindest 256). Die Intensität eines Kontakts wird optional bestimmt (oder gemessen) unter Verwendung verschiedener Herangehensweisen und verschiedener Sensoren oder Kombinationen von Sensoren. Zum Beispiel werden ein oder mehrere Kraftsensoren unterhalb oder neben der berührungsempfindlichen Oberfläche optional verwendet zum Messen der Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche. In einigen Implementierungen werden Kraftmessungen aus mehreren Kraftsensoren kombiniert (z. B. ein gewichteter Durchschnitt) zum Bestimmen einer geschätzten Kraft eines Kontakts. In ähnlicher Weise wird eine drucksensitive Spitze eines Stifts optional verwendet zum Bestimmen eines Drucks des Stifts auf die berührungsempfindliche Oberfläche. Alternativ werden die Größe des Kontaktbereichs, welcher auf der berührungsempfindlichen Oberfläche detektiert wird und/oder Änderungen dieser, die Kapazität der berührungsempfindlichen Oberfläche in der Nähe des Kontakts und/oder Änderungen dieser, und/oder der Widerstand der berührungsempfindlichen Oberfläche nahe des Kontakts und/oder Änderungen von diesem, optional verwendet als ein Ersatz für die Kraft oder den Druck des Kontakts auf die berührungsempfindliche Oberfläche. In einigen Implementierungen werden die Ersatzmessungen für die Kontaktkraft oder den Druck direkt verwendet zum Bestimmen, ob eine Intensitätsschwelle überschritten worden ist (z. B. die Intensitätsschwelle wird in Einheiten entsprechend den Ersatzmessungen beschrieben). In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder -druck konvertiert in eine geschätzte Kraft oder Druck, und die geschätzte Kraft oder Druck wird verwendet zum Bestimmen, ob eine Intensitätsschwelle überschritten worden ist (z. B. die Intensitätsschwelle ist eine Druckschwelle, welche in Einheiten von Druck gemessen wird).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Ausdruck „taktile Ausgabe” auf physische Verschiebung einer Vorrichtung relativ zu einer vorherigen Position der Vorrichtung, physische Verschiebung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) einer Vorrichtung relativ zu einer anderen Komponente (z. B. Gehäuse) der Vorrichtung, oder Verschiebung der Komponente relativ zu einem Massezentrum der Vorrichtung, welches durch einen Benutzer detektiert werden wird mit dem Berührungsempfinden des Benutzers. Zum Beispiel in Situationen, wo die Vorrichtung oder die Komponente der Vorrichtung in Kontakt mit einer Oberfläche eines Benutzers ist, welche berührungsempfindlich ist (z. B. ein Finger, eine Handfläche oder ein anderer Teil der Hand eines Benutzers), wird die taktile Ausgabe, welche durch die physische Verschiebung erzeugt wird, durch den Benutzer interpretiert werden als eine taktile Empfindung, welche einer wahrgenommenen Änderung der physischen Charakteristika der Vorrichtung oder der Komponente der Vorrichtung entspricht. Zum Beispiel wird die Bewegung einer berührungsempfindlichen Oberfläche (z. B. einer berührungsempfindlichen Anzeige oder Trackpad) optional interpretiert durch den Benutzer als ein „Down Click” oder „Up Click” einer physischen Aktuatortaste. In einigen Fällen wird ein Benutzer eine taktile Empfindung fühlen, wie beispielsweise einen „Down Click” oder „UP Click”, selbst wenn es keine Bewegung einer physischen Aktuatortaste, welche mit der berührungsempfindlichen Oberfläche assoziiert ist, gibt, welche physisch durch die Bewegungen des Benutzers gedrückt (z. B. verschoben) wird. Als ein anderes Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche optional interpretiert oder erfasst durch den Benutzer als „Rauigkeit” der berührungsempfindlichen Oberfläche, selbst wenn es keine Änderung der Weichheit (smoothness) der berührungsempfindlichen Oberfläche gibt. Während solche Interpretationen der Berührung durch einen Benutzer von den individualisierten Empfindungswahrnehmungen des Benutzers abhängen werden, gibt es viele Empfindungswahrnehmungen von Berührung, welche einer großen Vielzahl von Benutzern gemein sind. Somit, wenn eine taktile Ausgabe beschrieben wird als korrespondierend mit einer speziellen Empfindungswahrnehmung eines Benutzers (z. B. einem „Up Click”, einem „Down Click”, „Rauigkeit”), wenn nicht anders genannt, korrespondiert die erzeugte taktile Ausgabe mit physischer Verschiebung der Vorrichtung oder einer Komponente davon, welche die beschriebene Empfindungswahrnehmung für einen typischen (oder einen durchschnittlichen) Benutzer erzeugen wird.
  • Es ist klar, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung ist, und dass die Vorrichtung 100 optional mehr oder weniger Komponenten als gezeigt aufweist, optional zwei oder mehrere Komponenten kombiniert, oder optional eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweist. Die verschiedenen Komponenten, welche in 1A gezeigt sind, werden in Hardware, Software oder einer Kombination von sowohl Hardware als auch Software implementiert, einschließlich einem oder mehreren signalverarbeitungs- und/oder anwendungsspezifischen integrierten Schaltkreisen.
  • Der Speicher 102 umfasst optional Hochgeschwindigkeitsspeicher mit wahlfreiem Zugriff und optional umfasst er auch nicht-flüchtigen Speicher, wie beispielsweise eine oder mehrere magnetische Festplattenspeichervorrichtungen, Flash-Speichervorrichtungen oder andere, nicht-flüchtige Solid-State-Speichervorrichtungen. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie beispielsweise CPU 120 und Peripheriegeräteschnittstelle 118, wird optional durch die Speichersteuereinheit 122 gesteuert.
  • Die Peripheriegeräteschnittstelle 118 kann verwendet werden zum Koppeln der Eingabe- und Ausgabe-Peripheriegeräte der Vorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 führen verschiedene Softwareprogramme und/oder Sätze von Instruktionen, welche in dem Speicher 102 gespeichert sind, aus, um verschiedene Funktionen für die Vorrichtung 100 durchzuführen und Daten zu verarbeiten.
  • In einigen Ausführungsformen werden die Peripheriegeräteschnittstelle 118, die CPU 120 und die Speichersteuereinheit 122 optional implementiert als ein einzelner Chip, wie beispielsweise Chip 104. In einigen anderen Ausführungsformen sind sie optional implementiert auf getrennten Chips.
  • Die HF(Hochfrequenz)-Schaltung 108 empfängt und sendet HF-Signale, auch genannt elektromagnetische Signale. Die HF-Schaltung 108 konvertiert elektrische Signale zu/aus elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über elektromagnetische Signale. Die HF-Schaltung 108 umfasst optional wohlbekannte Schaltungen zum Ausfuhren dieser Funktionen, einschließlich aber nicht beschränkt auf ein Antennensystem, einen HF-Transceiver, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC-Chipsatz, eine Subscriber Identity Module(SIM)-Karte, Speicher usw. Die HF-Schaltung 108 kommuniziert optional mit Netzwerken, wie beispielsweise dem Internet, auch bezeichnet als World Wide Web (WWW), einem Intranet und/oder einem drahtlosen Netzwerk, wie beispielsweise einem zellularen Telefonnetzwerk, einem drahtlosen lokalen Bereichsnetzwerk (LAN) und/oder einem Metropolitan Area Network (MAN), und anderen Vorrichtungen durch drahtlose Kommunikation. Die drahtlose Kommunikation verwendet optional irgendeines einer Vielzahl von Kommunikationsstandards, Protokollen und Technologien, einschließlich aber nicht beschränkt auf Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.11n), voice over Internet Protocol (VoiP), Wi-MAX, ein Protokoll für Email (z. B. Internet message access protocol (IMAP) und/oder post office protocol (POP)), Instant Messaging (z. B. extensible messaging und presence protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging und Presence Service (IMPS)), und/oder Short Message Service (SMS), oder irgendein anderes geeignetes Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, welche noch nicht entwickelt sind bezüglich des Einreichungsdatums dieses Dokuments.
  • Die Audioschaltung 110, der Lautsprecher 111 und das Mikrophon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Die Audioschaltung 110 empfängt Audiodaten von der Peripheriegeräteschnittstelle 118, konvertiert die Audiodaten zu einem elektrischen Signal und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 konvertiert das elektrische Signal zu für den Menschen hörbaren Schallwellen. Die Audioschaltung 110 empfängt auch elektrische Signale, welche durch das Mikrophon 113 aus den Schallwellen konvertiert werden. Die Audioschaltung 110 konvertiert das elektrische Signal zu Audiodaten und überträgt die Audiodaten an die Peripheriegeräteschnittstelle 118 zur Verarbeitung. Die Audiodaten werden optional abgerufen aus und/oder übertragen an den Speicher 102 und/oder die HF-Schaltung 108 durch die Peripheriegeräteschnittstelle 118. In einigen Ausführungsformen umfasst die Audioschaltung 110 auch einen Kopfhöreranschluss (z. B. 212, 2). Der Kopfhöreranschluss stellt eine Schnittstelle zwischen der Audioschaltung 110 und den entfernbaren Audioeingabe/-ausgabe-Peripheriegeräten bereit, wie beispielsweise die Nur-Ausgabe-Kopfhörer oder ein Kopfhörer mit sowohl Ausgabe (z. B. ein Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrophon).
  • Das I/O-Subsystem 106 koppelt Eingabe-/Ausgabe-Peripheriegeräte auf der Vorrichtung 100, wie beispielsweise Berührungsbildschirm 112 und andere Eingabesteuerungsvorrichtungen 116, mit der Peripheriegeräteschnittstelle 118. Das I/O-Subsystem 106 umfasst optional eine Anzeigesteuereinheit 156, eine optische Sensorsteuereinheit 158, eine Intensitätssteuereinheit 159, haptische Rückmeldungssteuereinheit 161 und eine oder mehrere Eingabesteuereinheiten 160 für andere Eingabe- oder Steuerungsvorrichtungen. Die eine oder die mehreren Eingabesteuereinheiten 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuerungsvorrichtungen 116. Die anderen Eingabesteuerungsvorrichtungen 116 umfassen optional physische Tasten (z. B. Drucktasten, Wipptasten, usw.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder, usw. In einigen alternativen Ausführungsformen werden die Eingabesteuereinheit(en) 116 optional gekoppelt mit irgendeinem (oder keinem) der folgenden: einer Tastatur, Infrarotanschluss, USB-Anschluss, und einer Zeigervorrichtung, wie beispielsweise einer Maus. Die ein oder mehreren Tasten (z. B. 208, 2) umfassen optional eine Nach-oben/Nach-unten-Taste für Lautstärkesteuerung des Lautsprechers 111 und/oder des Mikrophons 113. Die ein oder die mehreren Tasten umfassen optional eine Drucktaste (z. B. 206, 2).
  • Die berührungsempfindliche Anzeige 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigesteuereinheit 156 empfängt und/oder sendet elektrische Signale von/an den Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgabe an den Benutzer an. Die visuelle Ausgabe umfasst optional Grafiken, Text, Symbole, Video und irgendeine Kombination davon (kollektiv „Grafiken” genannt). In einigen Ausführungsformen korrespondiert ein Teil der oder die ganze visuellen Ausgabe mit Benutzerschnittstellenobjekten.
  • Der Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, Sensor oder Satz von Sensoren, welche Eingabe von dem Benutzer basierend auf haptischem und/oder taktilem Kontakt annimmt. Der Berührungsbildschirm 112 und die Anzeigesteuereinheit 156 (zusammen mit irgendwelchen assoziierten Modulen und/oder Sätzen von Instruktionen in dem Speicher 102) detektieren Kontakt (und irgendeine Bewegung oder Unterbrechung des Kontakts) auf dem Berührungsbildschirm 112 und konvertieren den detektierten Kontakt in Interaktion mit den Benutzerschnittstellenobjekten (z. B. einem oder mehreren Softkeys, Symbolen, Webseiten oder Bildern), welche auf dem Berührungsbildschirm 112 angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Punkt von Kontakt zwischen dem Berührungsbildschirm 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 verwendet optional LCD (liquid crystal display)-Technologie, LPD (light emitting polymer display)-Technologie, oder LED (light emitting diode)-Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden. Der Berührungsbildschirm 112 und die Anzeigesteuereinheit 156 detektieren optional Kontakt und irgendeine Bewegung oder Unterbrechung davon unter Verwendung irgendeiner von einer Vielzahl von Berührungserfassungstechnologien, welche jetzt bekannt sind oder später entwickelt werden, einschließlich aber nicht beschränkt auf kapazitive, resistive, Infrarot- und oberflächenakustische Wellentechnologien, ebenso wie andere Näherungssensor-Arrays oder andere Elemente zum Bestimmen eines oder mehrerer Punkte von Kontakt mit dem Berührungsbildschirm 112. In einer beispielhaften Ausführungsform wird projected mutual capacitance sensing technology verwendet, wie beispielsweise jene, welche in dem iPhone®, iPod Touch®, und iPad® von Apple Inc. aus Cupertino California vorgefunden werden.
  • Der Berührungsbildschirm 112 hat optional eine Videoauflösung über 100 dpi. In einigen Ausführungsformen hat der Berührungsbildschirm eine Videoauflösung von ungefähr 160 dpi. Der Benutzer kontaktiert optional den Berührungsbildschirm 112 unter Verwendung irgendeines geeigneten Objekts oder Körpergliedes, wie beispielsweise einem Stift, einem Finger usw. In einigen Ausführungsformen ist die Benutzerschnittstelle gestaltet, um primär mit Finger-basierten Kontakten und Gesten zu arbeiten, welche weniger genau sein können als Stift-basierte Eingabe aufgrund des größeren Bereichs von Kontakt eines Fingers auf dem Berührungsbildschirm. In einigen Ausführungsformen übersetzt die Vorrichtung die grobe Finger-basierte Eingabe in eine präzise Zeiger-/Cursorposition oder -befehl zum Ausführen der Aktionen, welche durch den Benutzer gewünscht sind.
  • In einigen Ausführungsformen, zusätzlich zu dem Berührungsbildschirm, umfasst die Vorrichtung 100 optional ein Touchpad (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen. In einigen Ausführungsformen ist das Touchpad ein berührungsempfindlicher Bereich der Vorrichtung, welcher, anders als der Berührungsbildschirm, nicht visuelle Ausgabe anzeigt. Das Touchpad ist optional eine berührungsempfindliche Oberfläche, welche von dem Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, welche durch den Berührungsbildschirm gebildet wird.
  • Die Vorrichtung 100 umfasst auch ein Leistungssystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung. Das Leistungssystem 162 umfasst optional ein Leistungsverwaltungssystem, eine oder mehrere Leistungsquellen (z. B. Batterie, Wechselstrom (AC)), ein Wiederaufladesystem, eine Leistungsausfalldetektionsschaltung, einen Leistungskonverter oder -inverter, einen Leistungsstatusindikator (z. B. eine Licht-emittierende Diode (LED)) und irgendwelche anderen Komponenten, welche mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen assoziiert sind.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere optische Sensoren 164. 1A zeigt einen optischen Sensor, welcher mit der optischen Sensorsteuereinheit 158 in dem I/O-Subsystem 106 gekoppelt ist. Der optische Sensor 164 umfasst optional eine Ladungs-gekoppelte Vorrichtung (CCD) oder komplementäre Metalloxid-Halbleiter (CMOS)-Fototransistoren. Der optische Sensor 164 empfängt Licht aus der Umgebung, projiziert durch eine oder mehrere Linsen, und konvertiert das Licht in Daten, welche ein Bild repräsentieren. In Verbindung mit dem Bildmodul 143 (auch genannt ein Kameramodul), erfasst der optische Sensor 164 optional Standbilder oder Video. In einigen Ausführungsformen ist der optische Sensor angeordnet auf der Rückseite der Vorrichtung 100, gegenüberliegend der Berührungsbildschirmanzeige 112 auf der Vorderseite der Vorrichtung, so dass die Berührungsbildschirmanzeige betriebsbereit ist zur Verwendung als ein Bildsucher für Stand- und/oder Videobilderfassung. In einigen Ausführungsformen ist ein anderer optischer Sensor angeordnet auf der Vorderseite der Vorrichtung, so dass das Bild des Benutzers optional erhalten wird durch Videokonferenz, während der Benutzer die anderen Videokonferenzmitglieder auf der Berührungsbildschirmanzeige betrachtet.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Kontaktintensitätssensoren 165. 1A zeigt einen Kontaktintensitätssensor, welcher mit der Intensitätssensorsteuereinheit 159 in dem I/O-Subsystem 106 gekoppelt ist. Der Kontaktintensitätssensor 165 umfasst optional einen oder mehrere piezoresistive Dehnungsmessstreifen, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen, oder andere Intensitätssensoren (z. B. Sensoren, welche zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet werden). Der Kontaktintensitätssensor 165 empfängt Kontaktintensitätsinformation (z. B. Druckinformation oder eine Ersatz (proxy) für Druckinformation) aus der Umgebung. In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor zusammen angeordnet mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. das berührungsempfindliche Anzeigesystem 112). In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüberliegend der Berührungsbildschirmanzeige 112, welche auf der Vorderseite der Vorrichtung 100 angeordnet ist.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Näherungssensoren 166. 1A zeigt den Näherungssensor 166, welcher mit der Peripheriegeräteschnittstelle 118 gekoppelt ist. Alternativ wird der Näherungssensor 166 mit der Eingabesteuereinheit 160 in dem I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen schaltet der Näherungssensor den Berührungsbildschirm 112 ab und deaktiviert diesen, wenn die Multifunktionsvorrichtung sich in der Nähe des Ohrs des Benutzers befindet (z. B. wenn der Benutzer einen Telefonanruf tätigt).
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere taktile Ausgabegeneratoren 167. 1A zeigt einen taktilen Ausgabegenerator, welcher mit der haptischen Rückmeldesteuereinheit 161 in dem I/O-Subsystem 106 gekoppelt ist. Der taktile Ausgabegenerator 167 umfasst optional eine oder mehrere elektroakustische Vorrichtungen, wie beispielsweise Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Vorrichtungen, welche Energie in lineare Bewegung konvertieren, wie beispielsweise ein Motor, eine Magnetspule, ein elektroaktives Polymer, piezoelektrischer Aktuator, elektrostatischer Aktuator, oder eine andere taktile Ausgabe-erzeugende Komponente (z. B. eine Komponente, welche elektrische Signale in taktile Ausgaben auf der Vorrichtung konvertiert). Der Kontaktintensitätssensor 165 empfängt taktile Rückmeldeerzeugungsinstruktionen von dem haptischen Rückmeldungsmodul 133 und erzeugt taktile Ausgaben auf der Vorrichtung 100, welche fähig sind, durch einen Benutzer der Vorrichtung 100 erfasst zu werden. In einigen Ausführungsformen ist zumindest ein taktiler Ausgabegenerator zusammen angeordnet mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. berührungsempfindliches Anzeigesystem 112) und erzeugt optional eine taktile Ausgabe durch vertikales Bewegen der berührungsempfindlichen Oberfläche (z. B. hinein/heraus aus einer Oberfläche der Vorrichtung 100) oder seitliches Bewegen dieser (z. B. nach hinten und nach vorne in der gleichen Ebene wie eine Oberfläche der Vorrichtung 100). In einigen Ausführungsformen ist zumindest ein taktiler Ausgabegeneratorsensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüberliegend der Berührungsbildschirmanzeige 112, welche auf der Vorderseite der Vorrichtung 100 angeordnet ist.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Beschleunigungsmesser 168. 1A zeigt den Beschleunigungsmesser 168, welcher mit der Peripheriegeräteschnittstelle 118 gekoppelt ist. Alternativ ist der Beschleunigungsmesser 168 optional mit einer Eingabesteuereinheit 160 in dem I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen wird die Information auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten angezeigt, welche von dem einen oder den mehreren Beschleunigungsmessern empfangen werden. Die Vorrichtung 100 umfasst optional zusätzlich zu dem Beschleunigungsmesser/den Beschleunigungsmessern 168, ein Magnetometer (nicht gezeigt) und einen GPS (oder GLONASS oder anderes globales Navigationssystem)-Empfänger (nicht gezeigt) zum Erhalten von Information bezüglich des Orts und der Orientierung (z. B. Portrait oder Landschaft) der Vorrichtung 100.
  • In einigen Ausführungsformen umfassen die Softwarekomponenten, welche in dem Speicher 102 gespeichert sind, ein Betriebssystem 126, ein Kommunikationsmodul (oder Satz von Instruktionen) 128, Kontakt/Bewegungsmodul (oder Satz von Instruktionen) 130, Grafikmodul (oder Satz von Instruktionen) 132, Texteingabemodul (oder Satz von Instruktionen) 134, ein Global Positioning System(GPS)-Modul (oder Satz von Instruktionen) 135, und Anwendungen (oder Satz von Instruktionen) 136. Des Weiteren speichert in einigen Ausführungsformen der Speicher 102 den Vorrichtungs-/globalen internen Zustand 157, wie in 1A und 3 gezeigt. Der Vorrichtungs-/globaler interner Zustand 157 umfasst ein oder mehrere von: aktiver Anwendungszustand, welcher anzeigt, welche Anwendungen, wenn überhaupt welche, derzeitig aktiv sind; dem Anzeigezustand, welcher anzeigt, welche Anwendungen, Ansichten oder andere Information verschiedene Bereiche der Berührungsbildschirmanzeige 112 belegen; Sensorzustand, einschließlich Information, welche von den verschiedenen Sensoren der Vorrichtung und Eingabesteuerungsvorrichtungen 116 erhalten werden; und Standortinformation bezüglich des Orts und/oder der Höhe der Vorrichtung.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, oder ein eingebettetes Betriebssystem wie beispielsweise VxWorks) umfasst verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speicherungsvorrichtungssteuerung, Leistungsverwaltung, usw.) und ermöglicht Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht Kommunikation mit anderen Vorrichtungen über ein oder mehrere externe Ports 124 und umfasst auch verschiedene Softwarekomponenten zum Bearbeiten von Daten, welche durch die HF-Schaltung 108 und/oder den externen Port 124 empfangen wurden. Der externe Port 124 (z. B. Universal Serial Bus (USB), FIREWIRE, usw.) ist angepasst zum direkten Koppeln mit anderen Vorrichtungen oder indirektem Koppeln über ein Netzwerk (z. B. das Internet, drahtloses LAN, usw.). In einigen Ausführungsformen ist der externe Port ein Multi-Pin (z. B. 30-Pin)-Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem 30-Pin-Steckverbinder, welcher auf iPod(Markenzeichen von Apple Inc.)-Vorrichtungen verwendet wird.
  • Das Kontakt/Bewegungsmodul 130 detektiert optional Kontakt mit dem Berührungsbildschirm 112 (in Verbindung mit der Anzeigesteuereinheit 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. einem Touchpad oder einem physischen Klickrad). Das Kontakt/Bewegungsmodul 130 umfasst verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, bezogen auf Detektion von Kontakt, wie beispielsweise Bestimmen, ob Kontakt aufgetreten ist (z. B. Detektieren eines Finger-nach-unten-Ereignisses), Bestimmen einer Intensität des Kontakts (z. B. die Kraft oder der Druck des Kontakts oder ein Ersatz für die Kraft oder den Druck des Kontakts), Bestimmen, ob es Bewegung des Kontakts gibt und Nachverfolgen der Bewegung über die berührungsempfindliche Oberfläche hinweg (z. B. Detektieren eines oder mehrerer Finger-ziehen-Ereignisse), und Bestimmen, ob der Kontakt aufgehört hat (z. B. Detektieren eines Finger-nach-oben-Ereignisses oder eines Abbruchs des Kontakts). Das Kontakt-/Bewegungsmodul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Das Bestimmen von Bewegung des Kontaktpunktes, das dargestellt wird durch eine Serie von Kontaktdaten, umfasst optional Bestimmen von Geschwindigkeit (Größenordnung), Geschwindigkeit (Größenordnung und Richtung) und/oder einer Beschleunigung (einer Veränderung der Größenordnung und/oder der Richtung) des Kontaktpunktes. Diese Operationen werden optional auf Einzelkontakte (z. B. Einfingerkontakte) oder auf mehrere gleichzeitige Kontakte (z. B. ”Multitouch”-/mehrfache Fingerkontakte) angewendet. In einigen Ausführungsformen erkennt das Kontakt-/Bewegungsmodul 130 und der Anzeigecontroller 156 einen Kontakt auf einem Touchpad.
  • In einigen Ausführungsformen verwendet das Kontakt/Bewegungsmodul 130 einen Satz von ein oder mehreren Intensitätsschwellen, um zu bestimmen, ob eine Operation durch einen Benutzer ausgeführt worden ist (z. B. um zu bestimmen, ob ein Benutzer auf ein Symbol „geklickt” hat). In einigen Ausführungsformen werden zumindest eine Untermenge von den Intensitätsschwellen bestimmt gemäß Softwareparametern (z. B. die Intensitätsschwellen werden nicht bestimmt durch die Aktivierungsschwellen spezieller physischer Aktuatoren und können angepasst werden, ohne Ändern der physischen Hardware der Vorrichtung 100). Zum Beispiel kann eine Maus-„Klick”-Schwelle eines Trackpads oder einer Berührungsbildschirmanzeige auf irgendeinen von einem großen Bereich von vordefinierten Schwellenwerten gesetzt werden, ohne das Trackpad oder die Berührungsbildschirmanzeigehardware zu ändern. Zusätzlich werden in einigen Implementierungen einem Benutzer der Vorrichtung Softwareeinstellungen zum Anpassen ein oder mehrerer des Satzes von Intensitätsschwellen bereitgestellt durch Anpassen von individuellen Intensitätsschwellen und/oder durch Anpassen einer Vielzahl von Intensitätsschwellen, gleichzeitig mit einem System-Level-Klick-„Intensitäts”-Parameter).
  • Das Kontakt-/Bewegungsmodul 130 detektiert optional eine Gesteneingabe durch einen Benutzer. Unterschiedliche Gesten auf der berührungsempfindlichen Oberfläche haben unterschiedliche Kontaktmuster (z. B. unterschiedliche Bewegungen, Timings und/oder Intensitäten der detektierten Kontakte). Somit wird eine Geste durch Detektieren eines bestimmten Kontaktmusters optional detektiert. Zum Beispiel umfasst das Detektieren einer Fingertapgeste ein Detektieren eines Finger-Herunter-Ereignisses, gefolgt von einem Detektieren eines Finger-Herauf-(Abheben)-Ereignisses an derselben Position (oder im Wesentlichen derselben Position) wie das Finger-Herunter-Ereignis (z. B. an der Position eines Symbols). Als ein anderes Beispiel umfasst das Detektieren einer Finger-Wisch-Geste auf der berührungsempfindlichen Oberfläche ein Detektieren eines Finger-Herunter-Ereignisses, gefolgt von einem Detektieren eines oder mehrerer Finger-Ziehen-Ereignisse und anschließend gefolgt von einem Detektieren eines Finger-Herauf-(Abheben)-Ereignisses.
  • Das Grafikmodul 132 umfasst verschiedene bekannte Softwarekomponenten zum Rendern und Darstellen von Grafiken auf dem Berührungsbildschirm 112 oder einer anderen Anzeige umfassend Komponenten zum Ändern der visuellen Wirkung (z. B. Helligkeit, Durchsichtigkeit, Sättigung, Kontrast oder andere visuelle Eigenschaft) von Grafiken, die angezeigt werden. Wie hier verwendet bezeichnet der Ausdruck ”Grafiken” jedes Objekt, das einem Benutzer angezeigt werden kann, einschließlich ohne Beschränkung, Text, Webseiten, Symbole (wie Benutzerschnittstellenobjekte einschließlich Soft Keys), digitale Bilder, Videos, Animationen und Ähnliches.
  • In einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die Grafiken, die zu verwenden sind, repräsentieren. Jeder Grafik ist optional ein entsprechender Code zugeordnet. Das Grafikmodul 132 empfängt von Anwendungen usw. einen oder mehrere Codes, die anzuzeigende Grafiken spezifizieren zusammen mit, falls notwendig, Koordinatendaten und anderen Grafikeigenschaftsdaten und erzeugt dann Bildschirm-Bilddaten zum Ausgeben an den Anzeigecontroller 156.
  • Das haptische Rückmeldungsmodul 133 umfasst verschiedene Softwarekomponenten zum Erzeugen von Instruktionen, welche durch den/die taktilen Ausgabegenerator(en) 167 verwendet werden, um taktile Ausgaben an einem oder mehreren Orten auf der Vorrichtung 100 zu erzeugen in Antwort auf Benutzerinteraktionen mit der Vorrichtung 100.
  • Das Texteingabemodul 134, welches optional eine Komponente des Grafikmoduls 132 ist, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, Email 140, IM 141, Browser 147, und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS-Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Verwendung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, an die Kamera 143 als Bild-/Videometadaten und an Anwendungen, die positionsbasierte Dienste bereitstellen wie Wetter-Widgets, lokale Gelbe-Seiten-Widgets und Karten-/Navigations-Widgets).
  • Die Anwendungen 136 umfassen optional die folgenden Module (oder Mengen von Instruktionen) oder eine Untermenge oder Obermenge davon:
    • • Kontaktmodul 137 (manchmal bezeichnet als Adressbuch oder Kontaktliste);
    • • Telefonmodul 138;
    • • Videokonferenzmodul 139;
    • • Emailclientmodul 140;
    • • Instant Messaging-(IM)-Modul 141;
    • • Trainingsunterstützungsmodul 142;
    • • Kameramodul 143 für Stand- und/oder Videobilder;
    • • Bildmanagementmodul 144;
    • • Browsermodul 147;
    • • Kalendermodul 148;
    • • Widget-Module 149, welche optional eines oder mehrere der Folgenden enthalten: Wetter-Widget 149-1, Aktien-Widget 149-2, Taschenrechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5 und andere Widgets, die vom Benutzer erhalten werden, sowie benutzererzeugte Widgets 149-6;
    • • Widget-Erzeugungsmodul 150 zum Erstellen benutzererstellter Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikplayermodul 152, welches optional aus einem Videoplayermodul und einem Musikplayermodul gebildet ist;
    • • Notizmodul 153;
    • • Kartenmodul 154; und/oder
    • • Online-Videomodul 155.
  • Beispiele anderer Anwendungen 136, die optional im Speicher 102 gespeichert sind, umfassen andere Textverarbeitungsanwendungen, andere Bildbearbeitungsanwendungen, Zeichnungsanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, digitales Rechtemanagement, Spracherkennung und Spracherzeugung.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134, wird das Kontaktmodul 137 optional verwendet zum Verwalten eines Adressbuches oder einer Kontaktliste (z. B. gespeichert in dem anwendungsinternen Zustand 192 des Kontaktmoduls 137 im Speicher 102 oder im Speicher 270) umfassend: Hinzufügen eines oder mehrerer Name(n) zu dem Adressbuch; Löschen eines oder mehrerer Name(n) aus dem Adressbuch; Verknüpfen einer oder mehrerer Telefonnummer(n), Emailadresse(n), physikalische Adresse(n) oder anderer Informationen mit einem Namen; Verknüpfen eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder Emailadressen zum Einleiten und/oder Ermöglichen von Kommunikationen durch das Telefon 138, Videokonferenz 139, Email 140, oder IM 141, usw.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 wird das Telefon 138 optional zum Eingeben einer Sequenz von Zeichen verwendet, die einer Telefonnummer entspricht, zum Zugreifen auf eine oder mehrere Telefonnummern in dem Adressbuch 137, zum Ändern einer Telefonnummer, die eingegeben wurde, zum Wählen einer entsprechenden Telefonnummer, zum Führen einer Konversation und Trennen oder Auflegen, wenn die Konversation abgeschlossen ist. Wie oben erwähnt, verwendet die drahtlose Kommunikation einen beliebigen einer Vielzahl von Kommunikationsstandards, Protokollen oder Technologien.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem optischen Sensor 164, dem optischen Sensorcontroller 158, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, der Kontaktliste 137 und dem Telefonmodul 138 umfasst das Videokonferenzmodul 139 ausführbare Instruktionen zum Initiieren, Führen und Beenden einer Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Emailclientmodul 140 ausführbare Instruktionen zum Erzeugen, Senden, Empfangen und Verwalten von Email in Reaktion auf Benutzeranweisungen. In Verbindung mit dem Bildmanagementmodul 144 macht es das Emailclientmodul 140 sehr einfach, Emails mit Standbildern oder Videobildern, die mit dem Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 132 und dem Texteingabemodul 134 umfasst das Instant-Messaging-Modul 141 ausführbare Instruktionen zum Eingeben einer Sequenz von Zeichen, die einer Instant Message entsprechen, zum Verändern zuvor eingegebener Zeichen, zum Senden einer entsprechenden Instant Message (z. B. unter Verwendung eines Short Message Service-(SMS)- oder Multimedia Message Service-(MMS)-Protokolls für telefoniebasierte Instant Messages oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Instant Messages) zum Empfangen von Instant Messages und zum Betrachten empfangener Instant Messages. In einigen Ausführungsformen umfassen übertragene und/oder empfangene Instant Messages Grafiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie in einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden. Wie hier verwendet bezieht sich ”Instant Messaging” sowohl auf telefoniebasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS versendet wurden) als auch internetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS versendet wurden).
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musikplayermodul 146 umfasst das Trainingsunterstützungsmodul 142 ausführbare Instruktionen zum Erzeugen von Trainingsplänen (z. B. mit Zeit-, Entfernungs- und/oder Kalorienverbrennungszielen); Kommunizieren mit Trainingssensoren (Sportvorrichtungen); Empfangen von Trainingssensordaten; Kalibrieren von Sensoren, die verwendet werden zum Überwachen eines Trainings; Auswählen und Abspielen von Musik für ein Training; und Anzeigen, Speichern und Senden von Trainingsdaten.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem/den optischen Sensoren 164, dem optischen Sensorcontroller 158, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Bildmanagementmodul 144 umfasst das Kameramodul 143 ausführbare Instruktionen zum Aufnehmen von Standbildern oder Video (umfassend einen Videostream) und Speichern dieser in den Speicher 102, Verändern von Eigenschaften eines Standbildes oder eines Videos, oder Löschen eines Standbildes oder eines Videos aus dem Speicher 102.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 umfasst das Bildmanagementmodul 144 ausführbare Instruktionen zum Anordnen, Verändern (z. B. Bearbeiten) oder anderweitiges Manipulieren, Benennen, Löschen, Präsentieren (z. B. in einer digitalen Diashow oder einem Album) und Speichern von Stand- und/oder Videobildern.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Browsermodul 147 ausführbare Instruktionen zum Browsen des Internets in Übereinstimmung mit Benutzeranweisungen, einschließlich Suchen, Verweisen auf, Empfangen und Anzeigen von Webseiten oder Teilen davon, sowie von Anhängen und anderen Dateien, die mit Webseiten verknüpft sind.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem Emailclientmodul 140 und dem Browsermodul 147 umfasst das Kalendermodul 148 ausführbare Instruktionen zum Erzeugen, Anzeigen, Verändern und Speichern von Kalendern und Daten, die mit Kalendern verknüpft sind (z. B. Kalendereinträge, To-Do-Listen usw.) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 sind die Widget-Module 149 Mini-Anwendungen, die optional durch einen Benutzer heruntergeladen und verwendet werden (z. B. das Wetter-Widget 149-1, das Aktien-Widget 149-2, das Taschenrechner-Widget 149-3, das Wecker-Widget 149-4 und das Wörterbuch-Widget 149-5) oder die durch den Benutzer erzeugt werden können (z. B. das benutzererzeugte Widget 149-6). In einigen Ausführungsformen umfasst ein Widget eine HTML-(Hypertext Markup Language)-Datei, eine CSS-(Cascading Style Sheets)-Datei und eine JavaScript-Datei. In einigen Ausführungsformen umfasst ein Widget eine XML-(Extensible Markup Language)-Datei und eine JavaScript-Datei (z. B. Yahoo! Widgets).
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 wird das Widget-Erzeugungsmodul 150 optional durch einen Benutzer verwendet, um Widgets zu erzeugen (z. B. durch Umwandeln eines benutzerspezifischen Anteils einer Webseite in ein Widget).
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Suchmodul 151 ausführbare Instruktionen zum Suchen nach Text, Musik, Klängen, Bildern, Video und/oder anderen Dateien im Speicher 102, die einem oder mehreren Suchkriterien entsprechen (z. B. einem oder mehreren benutzerspezifizierten Suchbegriffen) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem Berührungsbildschirm 112 umfasst die Anzeigesystemsteuereinheit 156, das Kontaktmodul 130, das Grafikmodul 132, die Audioschaltung 110, der Lautsprecher 111, die HF-Schaltung 108 und das Browsermodul 147, das Video- und Musikplayermodul 152 ausführbare Instruktionen, welche dem Benutzer erlauben, aufgezeichnete Musik und andere Sounddateien herunterzuladen und wiederzugeben, welche in ein oder mehreren Dateiformaten gespeichert sind, wie beispielsweise MP3- oder AAC-Dateien, und ausführbare Instruktionen zum Anzeigen, Darstellen oder anderweitig Abspielen von Videos (z. B. auf einem Berührungsbildschirm 112 oder auf einer externen verbundenen Anzeige über den externen Port 124). In einigen Ausführungsformen umfasst die Vorrichtung 100 optional die Funktionalität eines MP3-Players, wie beispielsweise einem iPod (Markenzeichen von Apple Inc.).
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Notizmodul 153 ausführbare Instruktionen zum Erzeugen und Verwalten von Notizen, To-Do-Listen und Ähnlichem in Übereinstimmung mit Nutzeranweisungen.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browsermodul 147 wird das Kartenmodul 154 optional verwendet zum Empfangen, Anzeigen, Modifizieren und Speichern von Karten und Daten, die mit Karten assoziiert sind (z. B. Fahrtrichtungen; Daten bezüglich Einkaufsgeschäften und anderen Punkten von Interesse an oder nahe einer bestimmten Örtlichkeit; und anderen örtlichkeitsbasierten Daten) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem HF-Schaltkreis 108, dem Texteingabemodul 134, dem Emailclientmodul 140 und dem Browsermodul 147 umfasst das Online-Videomodul 155 Instruktionen, die dem Benutzer das Zugreifen, Browsen, Empfangen (z. B. durch Streaming und/oder Download), Abspielen (z. B. auf dem Berührungsbildschirm oder auf einer externen verbundenen Anzeige über den externen Port 124), das Senden einer Email mit einem Link auf ein bestimmtes Online-Video und anderweitiges Verwalten von Online-Videos in einem oder mehreren Dateiformaten, wie H.264, erlauben. In einigen Ausführungsformen wird statt des Emailclientmoduls 140 das Instant-Messaging-Modul 141 verwendet zum Senden eines Links auf ein bestimmtes Online-Video.
  • Jedes der oben identifizierten Module und Anwendungen entspricht einer Menge von ausführbaren Instruktionen zum Ausführen einer oder mehrerer Funktionen, wie sie oben beschrieben sind, und der Verfahren, wie sie in dieser Anmeldung beschrieben sind (z. B. die computerimplementierten Verfahren und andere Informationsverarbeitungsverfahren, wie sie hier beschrieben sind). Diese Module (d. h. Sätze von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein und somit werden verschiedene Untermengen dieser Module optional kombiniert und anderweitig zusammengefügt in verschiedenen Ausführungsformen. In einigen Ausführungsformen speichert der Speicher 102 optional eine Untermenge der Module und Datenstrukturen, wie sie oben beschrieben sind. Ferner speichert der Speicher 102 optional zusätzliche Module und Datenstrukturen, die oben nicht beschrieben sind.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei der die Bedienung einer vorbestimmten Menge von Funktionen auf der Vorrichtung ausschließlich durch ein Berührungsbildschirm und/oder ein Touchpad ausgeführt wird. Durch Verwenden eines Berührungsbildschirms und/oder eines Touchpads als primäre Eingabesteuervorrichtung für den Betrieb der Vorrichtung 100 wird die Anzahl physikalischer Eingabesteuervorrichtungen (wie Push Buttons, Dials und Ähnliches) auf der Vorrichtung 100 reduziert.
  • Der vordefinierte Satz von Funktionen, die ausschließlich durch einen Berührungsbildschirm und/oder ein Touchpad ausgeführt werden, umfassen optional eine Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad, wenn es durch einen Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Home- oder Wurzelmenü ausgehend von einer beliebigen Benutzerschnittstelle, die optional auf der Vorrichtung 100 angezeigt wird. In solchen Ausführungsformen wird eine ”Menütaste” unter Verwendung eines Touchpads implementiert. In einigen anderen Ausführungsformen ist die Menütaste ein physikalischer Push Button oder eine andere physikalische Eingabesteuervorrichtung anstelle des Touchpads.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung in Übereinstimmung mit einigen Ausführungsformen darstellt. In einigen Ausführungsformen umfasst der Speicher 102 (in 1A) oder 370 (3) einen Ereignissortierer 170 (z. B. in dem Betriebssystem 126) und eine entsprechende Anwendung 136-1 (z. B. irgendeine der zuvor erwähnten Anwendungen 137-13, 155, 380 bis 390).
  • Der Ereignissortierer 170 empfängt Ereignisinformation und bestimmt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1, zu der die Ereignisinformation geliefert werden soll. Der Ereignissortierer 170 umfasst einen Ereignismonitor 171 und ein Ereigniszuteilermodul 174. In einigen Ausführungsformen umfasst die Anwendung 136-1 einen anwendungsinternen Status 192, der die aktuell auf der berührungsempfindlichen Anzeige 112 angezeigte Anwendungsansicht(en) anzeigt, wenn die Anwendung aktiv ist oder ausgeführt wird. In einigen Ausführungsformen wird ein Vorrichtungs-/globaler interner Status 157 von dem Ereignissortierer 170 verwendet zum Bestimmen, welche Applikation(en) gegenwärtig aktiv ist bzw. sind und der anwendungsinterne Status 192 wird durch den Ereignissortierer 170 verwendet, um die Anwendungsansichten 191 zu bestimmen, an die die Ereignisinformation zu liefern ist.
  • In einigen Ausführungsformen umfasst der anwendungsinterne Status 192 zusätzliche Informationen sowie eines oder mehrere von: Wiederaufnahmeinformation, die verwendet wird, wenn die Anwendung 136-1 mit ihrer Ausführung fortfährt; Benutzerschnittstellenzustandsinformation, die Information anzeigt, die angezeigt wird oder die bereit ist, angezeigt zu werden durch die Anwendung 136-1, eine Zustandsqueue, um es dem Benutzer zu ermöglichen, zurückzugehen zu einem früheren Zustand oder einer früheren Ansicht der Anwendung 136-1 und eine Wiederholen/Rückgängigmachen-Queue vorhergehender Aktionen, die der Benutzer ausgeführt hat.
  • Der Ereignismonitor 171 empfängt Ereignisinformation von der Peripherieschnittstelle 118. Die Ereignisinformation umfasst Informationen über ein Subereignis (z. B. ein Berühren eines Benutzers auf der berührungsempfindlichen Anzeige 112 als Teil einer Multi-Touch-Geste). Die Peripherieschnittstelle 118 sendet Informationen, die sie von dem I/O-Subsystem 106 oder einem Sensor, wie dem Näherungssensor 166, dem/den Beschleunigungsmesser(n) 168 und/oder dem Mikrofon 113 (durch den Audioschaltkreis 110) empfängt. Informationen, die die Peripherieschnittstelle 118 von dem I/O-Subsystem 106 empfängt, umfasst Informationen von der berührungsempfindlichen Anzeige 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 Anfragen an die Peripherieschnittstelle 118 in vorbestimmten Intervallen. In Reaktion darauf sendet die Peripherieschnittstelle 118 Ereignisinformationen. In anderen Ausführungsformen sendet die Peripherieschnittstelle 118 Ereignisinformationen nur, wenn es ein signifikantes Ereignis gibt (z. B. ein Empfangen einer Eingabe oberhalb eines vorbestimmten Rauschschwellwertes und/oder für mehr als eine vorbestimmte Zeitdauer).
  • In einigen Ausführungsformen umfasst der Ereignissortierer 170 auch ein Trefferansichts-Bestimmungsmodul 172 und/oder ein aktives Ereigniserkenner-Bestimmungsmodul 173.
  • Das Trefferansichts-Bestimmungsmodul 172 stellt Softwareprozeduren zum Bestimmen bereit, wo ein Subereignis stattgefunden hat innerhalb einer oder mehrerer Ansichten, wenn die berührungsempfindliche Anzeige 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Steuerelementen und anderer Elementen, die ein Benutzer auf der Anzeige sehen kann.
  • Ein anderer Aspekt der Benutzerschnittstelle, die mit einer Anwendung verknüpft ist, ist eine Menge von Ansichten, hier manchmal als Anwendungsansichten oder Benutzerschnittstellenfenster bezeichnet, in denen Information angezeigt ist und berührungsbasierte Gesten auftreten. Die Anwendungsansichten (einer entsprechenden Anwendung), in denen eine Berührung erkannt wird, entsprechen optional programmatischen Ebenen innerhalb einer programmatischen oder Ansichtshierarchie der Anwendung. Zum Beispiel wird die Ansicht der niedrigsten Ebene, in der eine Berührung erkannt wird, optional als Trefferansicht bezeichnet und die Menge der Ereignisse, die erkannt wird als korrekte Eingaben, wird optional zumindest teilweise basierend auf der Trefferansicht der initialen Berührung, die eine berührungsbasierte Geste beginnt, bestimmt werden.
  • Das Trefferansichts-Bestimmungsmodul 172 empfängt Informationen bezüglich Subereignissen einer berührungsbasierten Geste. Wenn eine Anwendung mehrfache Ansichten aufweist, die in einer Hierarchie organisiert sind, identifiziert das Trefferansichts-Bestimmungsmodul 172 eine Trefferansicht als die niedrigste Ansicht in der Hierarchie, die das Subereignis behandeln sollte. In den meisten Fällen ist die Trefferansicht die Ansicht der niedrigsten Ebene, in der ein initiierendes Subereignis auftritt (d. h. das erste Subereignis in der Sequenz von Subereignissen, die ein Ereignis oder ein potenzielles Ereignis ausbilden). Sobald die Trefferansicht identifiziert ist durch das Trefferansichts-Bestimmungsmodul, empfängt die Trefferansicht typischerweise alle Subereignisse, die mit derselben Berührungs-/oder Eingabequelle verbunden sind, für die sie als Trefferansicht identifiziert wurde.
  • Das aktive Ereigniserkenner-Bestimmungsmodul 173 bestimmt, welche Ansicht oder Ansichten innerhalb einer Ansichtshierarchie eine bestimmte Sequenz von Subereignissen empfangen sollte. In einigen Ausführungsformen bestimmt das aktive Ereigniserkenner-Bestimmungsmodul 173, dass nur die Trefferansicht eine bestimmte Sequenz von Subereignissen empfangen sollte. In anderen Ausführungsformen bestimmt das aktive Ereigniserkenner-Bestimmungsmodul 173, dass alle Ansichten, die die physikalische Position eines Subereignisses beinhalten, aktiv involvierte Ansichten sind und bestimmt daher, dass alle aktiv involvierten Ansichten eine bestimmte Sequenz von Subereignissen empfangen sollten. In anderen Ausführungsformen würden Ansichten, die höher in der Hierarchie angeordnet sind, weiterhin als aktiv involvierte Ansichten verbleiben, selbst wenn Berührungssubereignisse vollständig auf den Bereich begrenzt wären, der mit einer bestimmten Ansicht verknüpft ist.
  • Das Ereigniszuteilermodul 174 teilt die Ereignisinformation einem Ereigniserkenner zu (z. B. dem Ereigniserkenner 180). In Ausführungsformen, die das aktive Ereigniserkenner-Bestimmungsmodul 173 umfassen, liefert das Ereigniszuteilermodul 174 die Ereignisinformation an einen Ereigniserkenner, der durch das aktive Ereigniserkenner-Bestimmungsmodul 173 bestimmt wird. In manchen Ausführungsformen speichert das Ereigniszuteilermodul 174 die Ereignisinformation in einer Ereignisqueue, die von einem entsprechenden Ereignisempfängermodul 182 abgefragt wird.
  • In einigen Ausführungsformen umfasst das Betriebssystem 126 einen Ereignissortierer 170. Alternativ umfasst die Anwendung 136-1 einen Ereignissortierer 170. In wieder anderen Ausführungsformen ist der Ereignissortierer 170 ein eigenständiges Modul oder ein Teil eines anderen Moduls, das im Speicher 102 gespeichert ist, wie das Kontakt-/Bewegungsmodul 130.
  • In einigen Ausführungsformen umfasst die Anwendung 136-1 eine Vielzahl von Ereignishandlern 190 und eine oder mehr Anwendungsansichten 191, von denen jede Instruktionen zum Behandeln von Berührungsereignissen umfasst, die innerhalb einer entsprechenden Ansicht der Anwendungsbenutzerschnittstelle auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 umfasst einen oder mehrere Ereigniserkenner 180. Typischerweise umfasst eine entsprechende Anwendungsansicht 191 eine Vielzahl von Ereigniserkennern 180. In anderen Ausführungsformen sind einer oder mehrere der Ereigniserkenner 180 Teil eines separaten Moduls, wie eines Benutzerschnittstellen-Kits (nicht gezeigt) oder eines Objekts einer höheren Ebene, von der die Anwendung 136-1 Methoden und andere Eigenschaften erbt. In einigen Ausführungsformen umfasst ein entsprechender Ereignishandler 190 eines oder mehrere der Folgenden: einen Datenaktualisierer 176, einen Objektaktualisierer 177, einen GUI-Aktualisierer 178 und/oder Ereignisdaten 179, die von einem Ereignissortierer 170 empfangen wurden. Der Ereignishander 190 verwendet optional den Datenaktualisierer 176, den Objektaktualisierer 177 oder den GUI-Aktualisierer 178 oder ruft diese auf zum Aktualisieren des anwendungsinternen Status 192. Alternativ umfassen eine oder mehrere der Anwendungsansichten 191 einen oder mehrere entsprechende Ereignishandler 190. Auch sind in einigen Ausführungsformen einer oder mehrere des Datenaktualisierers 176, des Objektaktualisierers 177 und des GUI-Aktualisierers 178 in einer entsprechenden Anwendungsansicht 191 enthalten.
  • Ein entsprechender Ereigniserkenner 180 empfängt Ereignisinformationen (z. B. Ereignisdaten 179) von dem Ereignissortierer 170 und identifiziert ein Ereignis aus der Ereignisinformation. Der Ereigniserkenner 180 beinhaltet Ereignisempfänger 182 und Ereignisvergleicher 184. In einigen Ausführungsformen beinhaltet der Ereigniserkenner 180 auch mindestens eine Untermenge von: Metadaten 183 und Ereignislieferinstruktionen 188 (welche optional Subereignislieferinstruktionen beinhalten).
  • Der Ereignisempfänger 182 empfängt Ereignisinformation von dem Ereignissortierer 170. Die Ereignisinformation beinhaltet Informationen über ein Subereignis, z. B. eine Berührung oder eine Berührungsbewegung. Abhängig von dem Subereignis beinhaltet die Ereignisinformation auch zusätzliche Information wie den Ort des Subereignisses. Wenn das Subereignis eine Bewegung einer Berührung betrifft, umfasst die Ereignisinformation optional auch Geschwindigkeit und Richtung des Subereignisses. In einigen Ausführungsformen beinhalten Ereignisse eine Rotation der Vorrichtung von einer Orientierung in eine andere (z. B. von einer aufrechten Orientierung in eine waagerechte Orientierung oder umgekehrt) und die Ereignisinformation beinhaltet entsprechende Information über die aktuelle Orientierung (auch bezeichnet als Vorrichtungslage) der Vorrichtung.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformation mit vorbestimmten Ereignis- oder Subereignisdefinitionen und, basierend auf dem Vergleich, bestimmt ein Ereignis oder ein Subereignis oder bestimmt oder aktualisiert den Zustand eines Ereignisses oder eines Subereignisses. In einigen Ausführungsformen beinhaltet der Ereignisvergleicher 184 Ereignisdefinitionen 186. Die Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. vorbestimmte Sequenzen von Subereignissen), z. B. Ereignis 1 (187-1), Ereignis 2 (187-2) und andere. In einigen Ausführungsformen umfassen Subereignisse in einem Ereignis 187 z. B. einen Berührungsbeginn, ein Berührungsende, eine Berührungsbewegung, einen Berührungsabbruch und mehrfache Berührung. In einem Beispiel ist die Definition für ein Ereignis 1 (187-1) ein Doppeltap auf einem angezeigten Objekt. Zum Beispiel umfasst der Doppeltap eine erste Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein erstes Abheben (Berührungsende) für eine vorbestimmte Phase, eine zweite Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine bestimmte Phase und ein zweites Abheben (Berührungsende) für eine vorbestimmte Phase. In einem anderen Beispiel ist die Definition für das Ereignis 2 (187-2) ein Ziehen eines angezeigten Objekts. Zum Beispiel umfasst das Ziehen ein Berühren (oder einen Kontakt) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein Bewegen der Berührung über die berührungsempfindliche Anzeige 112 und ein Abheben des Berührens (Berührungsende). In einigen Ausführungsformen umfasst das Ereignis auch Informationen für einen oder mehrere zugehörige Ereignishandler 190.
  • In einigen Ausführungsformen umfasst die Ereignisdefinition 187 eine Definition eines Ereignisses für ein entsprechendes Benutzerschnittstellenobjekt. In einigen Ausführungsformen führt der Ereignisvergleicher 184 einen Treffertest aus zum Bestimmen, welches Benutzerschnittstelleobjekt mit einem Subereignis verknüpft ist. In einer Anwendungsansicht z. B., in der drei Benutzerschnittstellenobjekte angezeigt werden auf der berührungsempfindlichen Anzeige 112, wenn eine Berührung auf der berührungsempfindlichen Anzeige 112 festgestellt wird, führt der Ereignisvergleicher 184 einen Treffertest aus, um zu bestimmen, welches der drei Benutzerschnittstellenobjekte mit der Berührung (Subereignis) verknüpft ist. Wenn jedes angezeigte Objekt mit einem entsprechenden Ereignishandler 190 verknüpft ist, verwendet der Ereignisvergleicher das Ergebnis des Treffertests, um zu bestimmen, welcher Ereignishandler 190 aktiviert werden sollte. Zum Beispiel wählt der Ereignisvergleicher 184 einen Ereignishandler aus, der mit dem Subereignis assoziiert ist und mit dem Objekt, das den Treffertest auslöst.
  • In einigen Ausführungsformen beinhaltet die Definition für ein entsprechendes Ereignis 187 auch verzögerte Aktionen, die das Liefern der Ereignisinformation verzögern, bis bestimmt wurde, ob die Sequenz von Subereignissen dem Ereignistyp des Ereigniserkenners entspricht oder nicht.
  • Wenn ein entsprechender Ereigniserkenner 180 bestimmt, dass die Serie von Subereignissen keinem der Ereignisse in den Ereignissen in den Ereignisdefinitionen 186 entspricht, geht der entsprechende Ereigniserkenner 180 in einen Zustand Ereignis nicht möglich, Ereignis gescheitert oder Ereignis beendet, nachdem er nachfolgende Subereignisse der berührungsbasierten Geste ignoriert. In dieser Situation fahren andere Ereigniserkenner, sofern es solche gibt, die aktiv für die Trefferansicht verbleiben, mit dem Verfolgen und Verarbeiten von Subereignissen einer andauernden berührungsbasierten Geste fort.
  • In einigen Ausführungsformen beinhaltet ein entsprechender Ereigniserkenner 180 Metadaten 183 mit konfigurierbaren Eigenschaften, Flags und/oder Listen, die anzeigen, wie das Ereignisliefersystem Subereignislieferungen ausführen sollte an aktiv involvierte Ereigniserkenner. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die anzeigen, wie Ereigniserkenner miteinander interagieren oder aktiviert werden miteinander zu interagieren. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die anzeigen, ob Subereignisse an variierende Ebenen in der Ansicht oder der programmatischen Hierarchie geliefert werden.
  • In einigen Ausführungsformen aktiviert ein entsprechender Ereigniserkenner 180 den Ereignishandler 190, der mit einem Ereignis assoziiert ist, wenn eines oder mehrere bestimmte Subereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert ein entsprechender Ereigniserkenner 180 Ereignisinformationen, die mit dem Ereignis assoziiert sind, an den Ereignishandler 190. Das Aktivieren eines Ereignishandlers 190 ist verschieden vom Senden (und vom verzögerten Senden) von Subereignissen an eine entsprechende Trefferansicht. In einigen Ausführungsformen wirft der Ereigniserkenner 180 ein Flag aus, das mit dem erkannten Ereignis assoziiert ist, und der Ereignishandler 190, der mit dem Flag assoziiert ist, erfasst das Flag und führt einen vordefinierten Prozess aus.
  • In einigen Ausführungsformen umfassen die Ereignislieferinstruktionen 188 Subereignislieferinstruktionen, die Ereignisinformationen liefern über ein Subereignis ohne ein Aktivieren eines Ereignishandlers. Stattdessen liefern die Subereignislieferinstruktionen Ereignisinformationen an Ereignishandler, die mit der Serie von Subereignissen assoziiert sind oder an aktiv involvierte Ansichten. Ereignishandler, die mit der Serie von Subereignissen assoziiert sind oder mit aktiv involvierten Ansichten, empfangen die Ereignisinformationen und führen einen vorbestimmten Prozess aus.
  • In einigen Ausführungsformen erzeugt und aktualisiert der Datenaktualisierer 176 Daten, die in der Anwendung 136-1 verwendet werden. Zum Beispiel aktualisiert der Datenaktualisierer 176 die Telefonnummer, die in dem Kontaktmodul 137 verwendet wird, oder speichert eine Videodatei, die in dem Videoplayermodul 145 verwendet wird. In einigen Ausführungsformen erzeugt und aktualisiert der Objektaktualisierer 177 Objekte, die in der Anwendung 136-1 verwendet werden. Zum Beispiel erzeugt der Objektaktualisierer 176 ein neues Benutzerschnittstellenobjekt oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Aktualisierer 178 aktualisiert die GUI. Zum Beispiel bereitet der GUI-Aktualisierer 178 Anzeigeinformationen vor und sendet sie an das Grafikmodul 132 zum Anzeigen auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen beinhaltet der/die Ereignishandler 190 oder haben der/die Ereignishandler 190 Zugriff auf den Datenaktualisierer 176, den Objektaktualisierer 177 und den GUI-Aktualisierer 178. In einigen Ausführungsformen sind der Datenaktualisierer 176, der Objektaktualisierer 177 und der GUI-Aktualisierer 178 in einem einzigen Modul einer entsprechenden Anwendung 136-1 oder einer Anwendungsansicht 191 enthalten. In anderen Ausführungsformen sind sie in zwei oder mehr Softwaremodulen enthalten.
  • Es ist festzuhalten, dass die vorstehende Diskussion bezüglich Ereignisbehandlung von Benutzerberührungen auf der berührungsempfindlichen Anzeige auch auf andere Formen von Benutzereingaben zum Betreiben der Multifunktionsvorrichtungen 100 mit Eingabevorrichtungen anzuwenden sind, von denen nicht alle auf Berührungsbildschirms initiiert werden. Zum Beispiel werden Mausbewegungen und das Maustastendrücke, welche mit einzelnen oder mehrfachen Tastaturdrücken oder -Halten koordiniert werden; Kontaktbewegungen wie beispielsweise Tippen, Ziehen, Scrollen usw. auf Touchpads; Stiftstyluseingaben; Bewegen der Vorrichtung; mündliche Anweisungen; detektierte Augenbewegungen; biometrische Eingaben; und/oder jede Kombination davon als Eingaben verwendet entsprechend Subereignissen, die ein Ereignis definieren, das erkannt werden soll.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Berührungsbildschirm 112 aufweist in Übereinstimmung mit einigen Ausführungsformen. Der Berührungsbildschirm stellt optional eine oder mehrere Grafiken innerhalb einer Benutzerschnittstelle (UI) 200 dar. In dieser Ausführungsform, wie auch in anderen, die unten beschrieben sind, wird einem Benutzer ermöglicht eine oder mehrere der Grafiken auswählen durch Durchführen einer Geste auf den Grafiken, z. B. mit einem oder mehreren Fingern 202 (nicht maßstabsgetreu gezeichnet in der Figur) oder einem oder mehreren Stylus 203 (nicht maßstabsgetreu gezeichnet in der Figur). In einigen Ausführungsformen tritt das Wählen einer oder mehrerer Grafiken auf, wenn der Benutzer den Kontakt mit einer oder mehreren Grafiken unterbricht. In einigen Ausführungsformen umfasst die Geste optional ein oder mehrere Tipp-Bewegungen (taps), eine oder mehrere Wischbewegungen (von links nach rechts, von rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, von links nach rechts, aufwärts und/oder abwärts), der mit der Vorrichtung 100 in Kontakt steht. In einigen Implementierungen oder Umständen wählt unbeabsichtigter Kontakt mit einer Grafik die Grafik nicht aus. Zum Beispiel wählt eine Wischgeste, die über ein Anwendungssymbol wischt, optional die entsprechende Anwendung nicht aus, wenn die Geste zum Auswählen ein Tippen ist.
  • Die Vorrichtung 100 umfasst optional auch einen oder mehrere physikalische Knöpfe, wie einen ”Home” oder Menü-Button 204. Wie zuvor beschrieben wird der Menü-Button 204 optional verwendet zum Navigieren jeder Anwendung 136 in einem Satz von Anwendungen, die optional auf der Vorrichtung 100 ausgeführt werden. Alternativ ist in einigen Ausführungsformen der Menü-Button als Soft Key in einer GUI, die auf dem Berührungsbildschirm 112 angezeigt wird, implementiert.
  • In einer Ausführungsform umfasst die Vorrichtung 100 einen Berührungsbildschirm 112, einen Menü-Button 204, einen Push-Button 206 zum Ein- oder Ausschalten der Vorrichtung und zum Sperren der Vorrichtung, Lautstärkeregel-Knopf/Knöpfe 208, einen Subscriber-Identity-Module-(SIM)-Kartenschacht 210, eine Kopfhörerbuchse 212 und einen Docking-/Lade-externen Port 124. Der Push-Button 206 wird optional verwendet zum Ein- und Ausschalten der Vorrichtung durch Hinunterdrücken des Buttons und Festhalten des Buttons in dem gedrückten Zustand für eine vorbestimmte Zeitdauer; zum Sperren der Vorrichtung durch Hinunterdrücken des Buttons und Loslassen des Buttons vor Ablauf der vorbestimmten Zeitdauer und/oder zum Entsperren der Vorrichtung oder zum Initiieren eines Entsperrvorgangs. In einer alternativen Ausführungsform akzeptiert die Vorrichtung 100 auch verbale Eingaben zur Aktivierung oder Deaktivierung einiger Funktionen durch das Mikrofon 113. Die Vorrichtung 100 umfasst optional auch ein oder mehrere Kontaktintensitätssensoren 165 zum Detektieren von Intensität der Kontakte auf dem Berührungsbildschirm 112 und/oder einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 100.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen. Die Vorrichtung 300 muss nicht tragbar sein. In einigen Ausführungsformen ist die Vorrichtung 300 ein Laptop Computer, ein Desktop Computer, ein Tablet Computer, eine Multimediaspielervorrichtung, eine Navigationsvorrichtung, eine Lernvorrichtung (wie ein Lernspielzeug eines Kindes), ein Spielesystem oder eine Steuervorrichtung (z. B. ein Haus- oder industrieller Controller). Die Vorrichtung 300 umfasst typischerweise eine oder mehrere Verarbeitungseinheiten (CPUs) 310, eine oder mehrere Netzwerk- oder andere Kommunikationsschnittstellen 360, Speicher 370 und einen oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten. Die Kommunikationsbusse 320 umfassen optional einen Schaltkreis (manchmal als Chipset bezeichnet), der Kommunikationen zwischen Systemkomponenten verbindet und steuert. Die Vorrichtung 300 umfasst eine Eingabe-/Ausgabe-(I/O)-Schnittstelle 330 umfassend die Anzeige 340, die typischerweise eine Berührungsbildschirm-Anzeige ist. Die I/O-Schnittstelle 330 umfasst optional auch eine Tastatur und/oder eine Maus (oder eine andere Zeigevorrichtung) 350 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 300 (z. B. ähnlich dem/den taktilen Ausgabegenerator(en) 167 wie oben beschrieben mit Verweis auf 1A), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche, und/oder Kontaktintensitätssensoren ähnlich dem/den Kontaktintensitätssensor(en) 165 wie oben beschrieben mit Verweis auf 1A). Der Speicher 370 umfasst Hochgeschwindigkeits-Random-Access-Speicher wie DRAM, SRAM, DDR RAM oder andere Random-Access-Solid-State-Speichervorrichtungen; und umfasst optional nichtflüchtigen Speicher, wie eine oder mehrere magnetische Diskspeichervorrichtungen, optische Diskspeichervorrichtungen, Flash-Speichervorrichtungen, oder andere nichtflüchtige Solid-State-Speichervorrichtungen. Der Speicher 370 umfasst optional eine oder mehrere Speichervorrichtungen, die entfernt von der/den CPU(s) 310 angeordnet sind. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Daten-strukturen, die in dem Speicher 102 der tragbaren Multifunktionsvor-richtung 100 gespeichert sind (1) oder eine Teilmenge davon. Ferner speichert der Speicher 370 optional zusätzliche Programme, Module und Datenstrukturen, die nicht in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 vorliegen. Zum Bespiel speichert der Speicher 370 der Vorrichtung 300 optional ein Zeichenmodul 380, ein Präsentationsmodul 382, ein Textverarbeitungsmodul 384, ein Webseiten-Erstellungsmodul 386, ein Disk-Authoring-Modul 388 und/oder Tabellenkalkulationsmodul 390, während der Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) diese Module optional nicht speichert.
  • Jedes der oben identifizierten Elemente in 3 wird optional in einer oder in mehreren der zuvor beschriebenen Speichervorrichtungen gespeichert. Jedes der oben identifizierten Module entspricht einer Menge von Instruktionen zum Ausführen einer Funktion wie oben beschrieben. Die oben identifizierten Module oder Programme (d. h. Mengen von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein, und somit werden verschiedene Untermengen dieser Module optional kombiniert oder anderweitig in verschiedenen Ausführungsformen zusammengefügt. In einigen Ausführungsformen speichert der Speicher 370 optional eine Teilmenge der Module und Datenstrukturen speichern, die oben identifiziert sind. Ferner kann der Speicher 370 zusätzliche Module und Datenstrukturen speichern, die oben nicht beschrieben sind.
  • Die Aufmerksamkeit wird nun gerichtet auf Ausführungsformen der Benutzerschnittstellen (”UI”), die optional auf einer tragbaren Multifunktionsvorrichtung 100 implementiert ist.
  • 4A zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung 100 in Übereinstimmung mit einigen Ausführungsformen. Ähnliche Benutzerschnittstellen sind auf der Vorrichtung 300 optional implementiert. In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 400 (oder 475) die folgenden Elemente oder eine Teilmenge oder eine Obermenge davon:
    • • Signalstärkenindikator(en) 402 für drahtlose Kommunikation(en), wie Mobilfunk- und Wi-Fi-Signale;
    • • Zeit 404;
    • • Bluetooth-Indikator 405;
    • • Batteriestatusindikator 406;
    • • Tray 408 mit Symbolen für häufig verwendete Anwendungen, wie: – Symbol 416 für das Telefonmodul 138, bezeichnet „Telefon”, welches optional einen Hinweis 414 der Zahl von verpassten Anrufen oder Voicemail-Nachrichten umfasst; – Symbol 418 für das Email-Client-Modul 140, bezeichnet „Mail”, welches optional einen Hinweis 410 der Anzahl von ungelesenen Emails umfasst; – Symbol 420 für das Browsermodul 147, bezeichnet „Browser”; und – Symbol 422 für das Video- und Musikplayermodul 152, auch bezeichnet als iPod (Markenzeichen von Apple Inc.)-Modul 152, bezeichnet „iPod”; und
    • • Symbole anderer Anwendungen, wie beispielsweise: – Symbol 424 für IM-Modul 141, bezeichnet „Text”; – Symbol 426 für das Kalendermodul 148, bezeichnet „Kalender”; – Symbol 428 für das Bildverwaltungsmodul 144, bezeichnet „Fotos”; – Symbol 430 für das Kameramodul 143, bezeichnet „Kamera”; – Symbol 432 für das Online-Videomodul 155, bezeichnet „Online Video”; – Symbol 434 für das Aktien-Widget 149-2, bezeichnet „Aktien”; – Symbol 436 für das Kartenmodul 154, bezeichnet „Karte”; – Symbol 438 für das Wetter-Widget 149-1, bezeichnet „Wetter”; – Symbol 440 für das Wecker-Widget 149-4, bezeichnet „Uhr”; – Symbol 442 für das Trainingsunterstützungsmodul 142, bezeichnet „Trainingsunterstützung”; – Symbol 444 für das Notizenmodul 153, bezeichnet „Notizen”; und – Symbol 446 für eine Einstellungsanwendung oder -modul, welches Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellt.
  • Es ist klar, dass die Symbolbezeichnungen, welche in 4A gezeigt sind, lediglich beispielhaft sind. Zum Beispiel ist das Symbol 422 für das Video- und Musikplayermodul 152 bezeichnet „Musik” oder „Musikplayer”. Andere Bezeichnungen werden optional verwendet für verschiedene Anwendungssymbole. In einigen Ausführungsformen umfasst eine Bezeichnung für ein jeweiliges Anwendungssymbol einen Namen einer Anwendung, welche dem jeweiligen Anwendungssymbol entspricht. In einigen Ausführungsformen ist eine Bezeichnung für ein spezielles Anwendungssymbol verschieden von einem Namen einer Anwendung, welches dem speziellen Anwendungssymbol entspricht.
  • 4B zeigt eine beispielhafte Benutzerschnittstelle auf einer Vorrichtung (z. B. Vorrichtung 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), welches getrennt ist von der Anzeige 450 (z. B. Berührungsbildschirmanzeige 112). Die Vorrichtung 300 umfasst auch optional ein oder mehrere Kontaktintensitätssensoren (z. B. ein oder mehrere der Sensoren 357) zum Detektieren von Intensität von Kontakten auf der berührungsempfindlichen Oberfläche 451, und/oder ein oder mehrere taktile Ausgabegeneratoren 359 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 300.
  • Wenngleich einige der Beispiele, die folgen werden, unter Verweis auf Eingaben auf einer Berührungsbildschirm Anzeige 112 gegeben sein werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche, die separat ist von der Anzeige, wie in 4B gezeigt. In einigen Ausführungsformen hat die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 452 in 4B), die einer primären Achse entspricht (z. B. 453 in 4B) auf der Anzeige (z. B. 450). In Übereinstimmung mit diesen Ausführungsformen erkennt die Vorrichtung Kontakte (z. B. 460 und 462 in 4B) mit der berührungsempfindlichen Oberfläche 451 an Positionen, die entsprechenden Positionen auf der Anzeige entsprechen (z. B. entspricht in 4B 460 der 468 und 462 entspricht der 470). Auf diese Weise werden Benutzereingaben (z. B. Kontakte 460 und 462 und Bewegungen davon), die durch die Vorrichtung auf der berührungsempfindlichen Oberfläche erkannt werden (z. B. 451 in 4B), von der Vorrichtung verwendet, um die Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) der Multifunktionsvorrichtung zu manipulieren, wenn die berührungsempfindliche Oberfläche separat von der Anzeige ist. Es ist anzumerken, dass ähnliche Verfahren für andere Benutzerschnittstellen, die hier beschrieben sind, optional verwendet werden.
  • Während die folgenden Beispiele primär unter Verweis auf Fingereingaben gegeben sind (z. B. Fingerkontakte, Fingertapgesten, Fingerwischgesten), ist zusätzlich festzuhalten, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch eine Eingabe von einer anderen Eingabevorrichtung ersetzt werden (z. B. durch eine mausbasierte Eingabe oder eine Stylus-Eingabe). Zum Beispiel wird optional eine Wischgeste durch einen Mausklick ersetzt (z. B. anstelle eines Kontakts), gefolgt durch eine Bewegung des Cursors entlang des Pfades des Wischens (z. B. anstelle der Bewegung des Kontakts). Als ein weiteres Beispiel wird eine Tippgeste optional durch einen Mausklick ersetzt, während der Cursor sich über der Position der Tippgeste befindet (z. B. anstelle des Erkennens des Kontakts, gefolgt durch das Beenden des Erkennens des Kontakts). Ähnlich ist anzumerken, dass, wenn mehrere Benutzereingaben simultan erkannt werden, mehrere Computermäuse optional simultan verwendet werden, oder eine Maus und Fingerkontakte optional simultan verwendet werden.
  • BENUTZERSCHNITTSTELLEN UND VERKNÜPFTE VERFAHREN
  • Die Aufmerksamkeit wird nun gerichtet auf die Ausführungsformen der Benutzerschnittstellen („user interfaces”, UI) und die verknüpften Verfahren, die auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einer Kamera implementiert werden können, wie z. B. Vorrichtung 300 oder die tragbare Multifunktionsvorrichtung 100.
  • 5A5N veranschaulichen beispielhafte Benutzerschnittstellen zum Schalten zwischen Kameraschnittstellen in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden verwendet, um die nachfolgend beschriebenen Verfahren zu veranschaulichen, einschließlich der Verfahren in den 6A6G.
  • 5A veranschaulicht eine Kameraschnittstelle 502-1, die auf dem Touchscreen 112 angezeigt wird. Die Kameraschnittstelle 502-1 ist eine von mehreren Schnittstellen 502 für eine Kameraanwendung (z. B. Kameramodul 143). Jede der Schnittstellen entspricht einer virtuellen Kamera oder einem Kameramodus. Zum Beispiel entspricht Kameraschnittstelle 502-1 einem Standardkameramodus oder einer virtuellen Standardkamera.
  • Kameraschnittstelle 502-1 beinhaltet ein Kamerafilmsymbol 504, ein Blendenverschlusssymbol 506-1, eine Kameravorschau 508-1 und eine oder mehrere Steuerungen. Die Steuerungen beinhalten z. B. eine Blitzsteuerung 510, eine Hochkontrast-(„high dynamic range”, HDR)-Steuerung 512, eine Gittersteuerung 514, eine Filtersteuerung 516 und eine Vorder-/Rückkamerasteuerung 518. Vorrichtung 100 zeigt einen Kamerafilm (z. B. einen Satz von Bildern und Videos, die von der Kamera der Vorrichtung 100 aufgezeichnet worden sind) in Antwort auf die Aktivierung des Kamerafilmsymbols 504 an. Das Aktivieren der Blitzsteuerung 510 aktiviert eine Anzeige eines Satzes von Blitzoptionen (z. B. an, aus, automatisch) für eine Benutzerauswahl auf dem Touchscreen 112. Das Aktivieren der HDR-Steuerung 512 schaltet um zur Hochkontrastfunktionalität für die Kameraschnittstelle 502-1. Das Aktivieren der Gittersteuerung 514 schaltet um zur Anzeige von Gitterlinien auf der Kameravorschau 508-1. Das Aktivieren der Filtersteuerung 516 aktiviert eine Anzeige eines Satzes von Filteroptionen 556 (5L) für die Benutzerauswahl auf Touchscreen 112). Das Aktivieren der Vorder-/Rückkamerasteuerung 518 schaltet zwischen dem Aktivieren der nach hinten gerichteten Kamera der Vorrichtung 100 und dem Aktivieren einer nach vorne gerichteten Kamera der Vorrichtung 100 um.
  • Die Kameravorschau 508 zeigt optische Daten an, die von der Kamera der Vorrichtung 100 abgetastet worden sind. Die Kameravorschau 508 gibt dem Benutzer eine Vorschau dessen, was in Medien beinhaltet wäre, die von der Kamera der Vorrichtung 100 aufgezeichnet werden.
  • 5A zeigt die Vorrichtung 100, die eine Geste (z. B. eine Tippen-und-Halten-Geste) mit dem Kontakt 520 an einem Ort 520-a auf der Kameravorschau 508-1 erkennt. In Antwort auf das Erkennen der Geste mit Kontakt 520 zeigt die Vorrichtung 100 einen vergrößerten Bereich (der ebenso als eine „Autofokus-Lupe” bezeichnet werden kann) 522 an dem Ort 522-a in der Nähe zu dem Kontakt 520 bei Ort 520-a an, wie in 5B gezeigt. Innerhalb der Autofokus-Lupe 522 wird eine vergrößerte Ansicht der Umgebung des Kontakts 520 angezeigt. Punkt 524-1 in der vergrößerten Ansicht in der Autofokus-Lupe 522 (z. B. ein Punkt, der dem Zentrum des vergrößerten Bereichs 522 entspricht) wird als ein Autofokus-Referenzpunkt ausgewählt.
  • 5B5C zeigen den Kontakt 520, der sich in Richtung 526 zu dem Ort 520-b bewegt, während der Kontakt mit dem Touchscreen 112 weiterhin aufrechterhalten wird. In Antwort auf das Erkennen der Bewegung des Kontakts 520 bewegt die Vorrichtung 100 die Autofokus-Lupe 522 zu dem Ort 522-b in der Nähe des Kontakts 520 an dem Ort 520-b, wie in 5C gezeigt. Punkt 524-2 in der vergrößerten Ansicht in der Autofokus-Lupe 522 (z. B. ein Punkt, der dem Zentrum der Autofokus-Lupe 522 entspricht) wird als der neue Autofokusreferenzpunkt ausgewählt.
  • In einigen Ausführungsformen aktiviert, wenn ein Kontakt auf dem Touchscreen 112 erkannt wird, die Eingabe, die mit dem Kontakt gemacht wird, entweder die Anzeige der Autofokus-Lupe 522 und die Auswahl eines Autofokusreferenzpunktes oder ein Schalten von der aktuell angezeigten Kameraschnittstelle 502 zu einer anderen Kameraschnittstelle 502. In einigen Ausführungsformen besteht ein Kriterium zum Bestimmen, welche der zwei Handlungen zu aktivieren ist, darin, ob der Kontakt sich um mehr als eine vorbestimmte Menge auf dem Touchscreen 112 innerhalb einer vorbestimmten Zeitspanne bewegt. Falls der Kontakt stationär oder im Wesentlichen stationär während der vorbestimmten Zeitspanne ab dem Kontakt mit dem Touchscreen 112 ist (z. B. Kontakt 520 in 5A), wird dann die Autofokus-Lupe 522 angezeigt und ein Autofokusreferenzpunkt wird ausgewählt.
  • Auf der anderen Seite, wenn sich der Kontakt innerhalb der vorbestimmten Zeitspanne von dem Kontakt mit dem Touchscreen 112 bewegt, schaltet dann die Vorrichtung 100 die aktuell angezeigte Kameraschnittstelle 502 zu einer anderen Kameraschnittstelle 502. Zum Beispiel zeigt 5D eine Geste (z. B. eine Wischgeste) mit dem Kontakt 528, der an dem Ort 528-a auf dem Touchscreen 112 erkannt worden ist. Die Geste beinhaltet den Kontakt 528, der sich in Richtung 530 zu dem Ort 528-b (5E) und weiter bewegt. Kontakt 528 bewegt sich innerhalb der vorbestimmten Zeitspanne von dem Kontakt mit dem Touchscreen 112. Die Geste interagiert nicht mit irgendeiner Kamera-Schnittstellen-Schalt-Affordanz. Weiterhin bewegt sich der Kontakt 528 in seiner Bewegung über die Kameravorschau 508-1 und bewegt sich nicht über irgendeine angezeigte Affordanz zum Steuern der Handlung der Kamera (z. B. Kamerafilmsymbol 504; Blendenverschlussknopf 506-1; Steuerungen 510, 512, 514, 516 und 518). In Antwort auf das Erkennen der Bewegung des Kontakts 528 schaltet Vorrichtung 100 von der Kameraschnittstelle 502-1 zu der Kameraschnittstelle 502-2, wie in den 5E5H gezeigt.
  • In einigen Ausführungsformen beinhaltet das Schalten der Kameraschnittstellen eine Animation, die den Übergang von einer Schnittstelle zu der anderen zeigt. In einigen Ausführungsformen veranschaulicht die Animation einen Linsenschalteffekt. Die Animation beinhaltet z. B. das Anzeigen jeweiliger verschwommener Bilder, welche visuellen Daten entsprechen, die kürzlich von der Kamera erkannt wurden (z. B. visuelle Daten, die zuletzt in der Kameravorschau 508 vor der Animation gezeigt wurden), die mit der Schnittstelle verknüpft sind, die weggeschaltet wird und der Schnittstelle, die hineingeschaltet wird. Die Animation beinhaltet ebenso z. B. ein Verschieben des verschwommenen Bildes, das mit der weggeschalteten Kameraschnittstelle verknüpft ist, weg von der Anzeige und ein Verschieben des verschwommenen Bildes, das mit der hineingeschalteten Kameraschnittstelle verknüpft ist, auf die Anzeige.
  • Demzufolge zeigt z. B. 5E das verschwommene Bild 532-1, welches mit der Kameraschnittstelle 502-1 verknüpft ist, die auf dem Touchscreen 112 angezeigt wird. Während Kontakt 528 fortfährt, sich in Richtung 530 zu bewegen, verschiebt sich das verschwommene Bild 532-1 weg von dem Touchscreen in Richtung 530 und das verschwommene Bild 532-2, das mit der Kameraschnittstelle 502-2 verknüpft ist, verschiebt sich auf den Touchscreen 112 in Richtung 530. Die 5F5G zeigen, wie das verschwommene Bild 532-1 fortfährt, sich weg von dem Touchscreen 112 zu verschieben und wie sich das verschwommene Bild 532-2 fortfährt, auf den Touchscreen 112 zu verschieben, während der Kontakt die Bewegung in Richtung 520 zu den Orten 528-c und 528-d fortsetzt.
  • 5H zeigt den Abschluss der Animation, bei dem die Kameraschnittstelle 502-2 auf dem Touchscreen 112 angezeigt wird, die die Kameraschnittstelle 502-1 ersetzt. Die Kameraschnittstelle 502-2 entspricht einem Videokameramodus oder einer virtuellen Videokamera. Die Kameraschnittstelle 502-2 beinhaltet das Kamerafilmsymbol 504, den Blendenverschluss-(z. B. Videoaufzeichnen an/aus)-Knopf 506-2, die Kameravorschau 508-2 und die Dauerblitzsteuerung 534. Das Aktivieren der Dauerblitzsteuerung 534 schaltet zwischen dem Ausschalten des Blitzlichtes und dem dauerhaften Schalten des Blitzlichtes hin und her.
  • Die Kameraschnittstelle 502-1 und die Kameraschnittstelle 502-2 zeichnen Medien mit unterschiedlichen Ausgabedimensionen und unterschiedlichen Abbildungsverhältnissen auf. In einigen Ausführungsformen zeichnet die Kameraschnittstelle 502-1 Standbilder auf mit Dimensionen, die den Sensordimensionen der physikalischen Kamerasensoren der Vorrichtung 100 entsprechen (z. B. 3264×2448 Pixel) und einem entsprechenden Abbildungsverhältnis (z. B. 4:3), und die Kameraschnittstelle 502-2 zeichnet Video auf mit Dimensionen, die kleiner sind als die Sensordimensionen des physikalischen Kamerasensors (z. B. kleiner als 3264×2448 Pixel) und bei einem unterschiedlichen Abbildungsverhältnis (z. B. 16:9).
  • Die Kameravorschauen 508-1 und 508-2, die jeweils den Kameraschnittstellen 502-1 und 502-2 entsprechen, beinhalten jeweilige optische Hinweise auf die Ausgabedimensionen, die mit den jeweiligen Kameraschnittstellen verknüpft sind. Zum Beispiel wird die Kameravorschau 508-1 (5A) ohne Letterbox angezeigt, was angibt, dass die Ausgabedimensionen der Kameraschnittstelle 502-1 den Sensordimensionen entsprechen. Die Kameravorschau 508-2 (5H) wird mit Letterbox angezeigt, was angibt, dass die Ausgabedimensionen der Kameraschnittstelle 502-2 kleiner sind als die Sensordimensionen.
  • In einigen Ausführungsformen beinhaltet die Kameraschnittstelle 502-1 eine oder mehrere Steuerungen, die nicht in Kameraschnittstelle 502-2 beinhaltet sind. In einigen Ausführungsformen beinhaltet Kameraschnittstelle 502-2 eine oder mehrere Steuerungen, die nicht in der Kameraschnittstelle 502-1 beinhaltet sind. Zum Beispiel beinhaltet die Kameraschnittstelle 502-1 die HDR-Steuerung 512, die nicht in Kameraschnittstelle 502-2 beinhaltet ist und die Kameraschnittstelle 502-2 beinhaltet die Dauerblitzsteuerung 534, die nicht in Kameraschnittstelle 502-1 beinhaltet ist.
  • 5H zeigt eine Geste (z. B. eine Wischgeste) mit Kontakt 536, der von der Vorrichtung auf dem Touchscreen 112 über der Kameravorschau 508-2 erkannt wird. Die Geste beinhaltet den Kontakt 536, der sich über die Kameravorschau 508-2 und nicht über irgendeine andere angezeigte Affordanz zum Steuern der Handlungen der Kamera in Richtung 540 bewegt, welche entgegengesetzt ist zu der Richtung 530. In Antwort auf das Erkennen der Geste mit Kontakt 536 schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-2 zurück zur Kameraschnittstelle 502-1. In einigen Ausführungsformen wird eine Animation ähnlich zu der Animation, die in den 5E5G dargestellt wird, für das Schalten von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-1 angezeigt, aber in umgekehrter Richtung, als die, die in den 5E5G gezeigt wird.
  • 5H zeigt ebenso alternativ eine Geste (z. B. eine Wischgeste) mit dem Kontakt 538, der von der Vorrichtung 100 auf dem Touchscreen 112 über der Kameravorschau 508-2 erkannt wird. Die Geste beinhaltet den Kontakt 538, die sich über die Kameravorschau 508-2 in Richtung 530 und nicht über irgendeine angezeigte Affordanz zum Steuern der Handlung der Kamera bewegt. In Antwort auf das Erkennen der Geste mit Kontakt 538 schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-3 (5I). In einigen Ausführungsformen wird eine Animation ähnlich zu der Animation, die in den 5E5G dargestellt wird, für das Schalten von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-3 angezeigt.
  • 5I zeigt die Kameraschnittstelle 502-3, die auf dem Touchscreen 112 angezeigt wird. Die Kameraschnittstelle 502-3 entspricht einem quadratischen Kameramodus oder einer virtuellen quadratischen Kamera. Die Kameraschnittstelle 502-3 beinhaltet das Kamerafilmsymbol 504, den Blendenverschlussknopf 506-3, die Kameravorschau 508-3, die Blitzsteuerung 542 und die Schwarz-und-Weiß-Steuerung 544. Die Blitzsteuerung 542 ist dieselbe wie die Blitzsteuerung 510 (5A). Das Aktivieren der Schwarz-und-Weiß-Steuerung 544 schaltet zwischen dem Schwarz-und-Weiß-Bildmodus und dem Farbbildmodus hin und her. Die Schwarz-und-Weiß-Steuerung 544 ist nicht in Kameraschnittstelle 502-1 oder Kameraschnittstelle 502-2 beinhaltet.
  • Die Kameraschnittstellen 502-1, 502-2 und 502-3 haben eine oder mehrere Steuerungen gemeinsam. Zum Beispiel ist das Kamerafilmsymbol 504 in den Kameraschnittstellen 502-1, 502-2 und 502-3 vorhanden und wird an demselben Ort auf Touchscreen 112 in den Kameraschnittstellen 502-1, 502-2 und 502-3 angezeigt. Ebenso beinhaltet jede der Kameraschnittstellen 502-1, 502-2 und 502-3 einen Blendenverschlussknopf 506 an demselben Ort auf dem Touchscreen 112, wobei die optische Erscheinung des Blendenverschlussknopfes 506 variiert abhängig von der jeweiligen Schnittstelle (z. B. unterscheidet sich die optische Erscheinung des Blendenverschlussknopfes 506-2 von dem des Blendenverschlussknopfes 506-1 oder 506-3).
  • Die Kameraschnittstelle 502-3 zeichnet Medien mit unterschiedlichen Ausgabedimensionen und einem Abbildungsverhältnis auf als die Kameraschnittstellen 502-1 oder 502-2. Zum Beispiel ist die Kameraschnittstelle 502-3 mit kleineren Ausgabedimensionen verknüpft als die Sensordimensionen der Vorrichtung 100 und ist mit einem Abbildungsverhältnis von 1:1 verknüpft. Die Windowbox (d. h., sowohl eine Letterbox als auch eine Pillarbox aufweisend), die eine quadratische Kameravorschau 508-3 abgrenzt, wie in 5I gezeigt, stellt einen optischen Hinweis auf das Abbildungsverhältnis von 1:1 und auf die kleineren Ausgabedimensionen bereit.
  • 5I zeigt eine Geste (z. B. eine Wischgeste) mit Kontakt 546, der von der Vorrichtung 100 auf dem Touchscreen 112 über der Kameravorschau 508-3 erkannt wird. Die Geste beinhaltet den Kontakt 546, der sich entlang der Kameravorschau 508-3 in Richtung 540 bewegt, welche entgegengesetzt ist zu der Richtung 530, und nicht über irgendeine angezeigte Affordanz zum Steuern der Handlung der Kamera. In Antwort auf das Erkennen der Geste mit Kontakt 546 schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-3 zurück zu der Kameraschnittstelle 502-2. In einigen Ausführungsformen wird eine Animation ähnlich zu der Animation, die in den 5E5G dargestellt wird, für das Schalten von der Kameraschnittstelle 502-3 zu der Kameraschnittstelle 502-2 gezeigt, aber in umgekehrter Reihenfolge als die, die in den 5E5G gezeigt wird.
  • 5I zeigt ebenso alternativ eine Geste (z. B. eine Wischgeste) mit dem Kontakt 548, der von der Vorrichtung 100 auf dem Touchscreen 112 über der Kameravorschau 508-3 erkannt wird. Die Geste beinhaltet den Kontakt 548, der sich über die Kameravorschau 508-3 in Richtung 530 bewegt und nicht über irgendeine angezeigte Affordanz zum Steuern der Handlung der Kamera. In Antwort auf das Erkennen der Geste mit Kontakt 548 schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-3 zu der Kameraschnittstelle 502-4 (5I). In einigen Ausführungsformen wird eine Animation ähnlich zu der Animation, die in den 5E5G dargestellt wird, für das Schalten von der Kameraschnittstelle 502-3 zu der Kameraschnittstelle 502-4 angezeigt.
  • 5I zeigt die Kameraschnittstelle 502-4, die auf dem Touchscreen 112 angezeigt wird. Die Kameraschnittstelle 502-4 entspricht einem Panoramakameramodus oder einer virtuellen Panoramakamera. Die Kameraschnittstelle 502-4 beinhaltet das Kamerafilmsymbol 504, den Blendenverschlussknopf 506-4, die Kameravorschau 508-4 und den Panoramafortschrittsindikator 550. Der Panoramafortschrittsindikator 550 zeigt die Ausrichtung der aufeinander folgenden Bilder für ein Panorama an. Die Kameraschnittstellen 502-1, 502-2 und 502-3 beinhalten keinen Panoramafortschrittsindikator 550. Demzufolge ist in einigen Ausführungsformen die Ausgabe der Panoramakamera ein Bild von variabler Größe, das davon abhängt, wie viele Bilder zusammen in dem Panorama aneinandergehängt wurden und wie viel diese Bilder überlappten und um wie viel das finale Panoramabild beschnitten wurde.
  • Die Kameraschnittstellen 502-1, 502-2, 502-3 und 502-4 haben eine oder mehrere Steuerungen gemeinsam. Zum Beispiel ist das Kamerafilmsymbol 504 in den Kameraschnittstellen 502-1, 502-2, 502-3 und 502-4 vorhanden und wird an demselben Ort auf Touchscreen 112 in den Kameraschnittstellen 502-1, 502-2, 502-3 und 502-4 angezeigt. Ebenso beinhaltet jede der Kameraschnittstellen 502-1, 502-2, 502-3 und 502-4 einen Blendenverschlussknopf 506 an demselben Ort auf dem Touchscreen 112, wobei die optische Erscheinung des Blendenverschlussknopfes 506 variiert abhängig von der jeweiligen Schnittstelle (z. B. ist die optische Erscheinung des Blendenverschlussknopfes 506-2 unterschiedlich von der der Blendenverschlussknöpfe 506-1, 506-3 oder 506-4).
  • Kameraschnittstelle 502-4 zeichnet Medien mit unterschiedlichen Ausgabedimensionen und Abbildungsverhältnis auf als die Kameraschnittstellen 502-1, 502-2 oder 502-3. Zum Beispiel ist die Kameraschnittstelle 502-4 mit größeren Ausgabedimensionen als die Sensordimensionen der Vorrichtung 100 verknüpft und ist mit einem unterschiedlichen Abbildungsverhältnis verknüpft als die Abbildungsverhältnisse, die mit den Kameraschnittstellen 502-1, 502-2 und 502-3 verknüpft sind. Der Panoramafortschrittsindikator 550 stellt einen optischen Hinweis auf das unterschiedliche Abbildungsverhältnis und die größeren Ausgabedimensionen bereit.
  • 5I zeigt eine Geste (z. B. eine Wischgeste) mit Kontakt 552, der von der Vorrichtung 100 auf Touchscreen 112 über der Kameravorschau 508-4 erkannt wird. Die Geste beinhaltet den Kontakt 552, der sich über die Kameravorschau 508-4 und nicht über irgendeine angezeigte Affordanz zum Steuern der Handlung der Kamera in Richtung 540 bewegt, die entgegengesetzt ist zu der Richtung 530. In Antwort auf das Erkennen der Geste mit Kontakt 552 schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-4 zurück zu der Kameraschnittstelle 502-3. In einigen Ausführungsformen wird eine Animation ähnlich zu der Animation, die in den 5E5G dargestellt wird, zum Schalten von der Kameraschnittstelle 502-4 zu der Kameraschnittstelle 502-3 angezeigt, aber in umgekehrter Reihenfolge als die, die in den 5E5G gezeigt wird.
  • Demzufolge veranschaulichen die 5D5J die Vorrichtung 100, die zwischen den vier Kameraschnittstellen 502 in Reihenfolge schaltet in Antwort auf das Erkennen von jeweiligen Gesten, die Bewegungen von Kontakten über dem Touchscreen 112 (z. B. über der Kameravorschau 508) beinhalten. Es sollte verstanden werden, dass die Vorrichtung 100 zwischen mehr als vier (z. B. fünf oder mehr) oder weniger als vier (z. B. drei) Kameraschnittstellen 502 schalten kann. Ebenso ist die Reihenfolge der Schnittstellen 502, die in den 5D5J gezeigt wird, nur beispielhaft und die Schnittstellen 502 können in jeder passenden Reihenfolge angeordnet werden.
  • In einigen Ausführungsformen schaltet die Vorrichtung 100 zwischen drei Kameraschnittstellen 502 in Antwort auf das Erkennen der jeweiligen Gesten. Die drei Schnittstellen beinhalten z. B. eine Videokameraschnittstelle (z. B. Schnittstelle 502-2) und zwei unterschiedliche Standbildkameraschnittstellen (z. B. Schnittstelle 502-1 und entweder Schnittstelle 502-3 oder 502-4). In einigen Ausführungsformen beinhalten die drei Schnittstellen irgendwelche drei der Folgenden: eine rechteckige Standbildkameraschnittstelle (z. B. Schnittstelle 502-1), eine Videokameraschnittstelle (z. B. Schnittstelle 502-2), eine Panoramastandbildkameraschnittstelle (z. B. Schnittstelle 502-4), eine Schwarz-und-Weiß-Standbildkameraschnittstelle, und eine quadratische Standbildkameraschnittstelle (z. B. Schnittstelle 502-3).
  • In einigen Ausführungsformen ist die Reihenfolge von Kameraschnittstellen eingerichtet, um standardmäßig drei Schnittstellen zu beinhalten und zusätzliche Schnittstellen jenseits der drei sind beinhaltet in Übereinstimmung mit Benutzereingabe. Zum Beispiel beinhaltet die Standardabfolge die Schnittstellen 502-1, 502-2 und 502-3 und der Benutzer kann die Schnittstelle 502-4 zum Hinzufügen zu der Abfolge auswählen. Alternativ kann die Standardabfolge die Schnittstellen 502-1, 502-2 und 502-4 beinhalten und der Benutzer kann die Schnittstelle 502-3 zum Hinzufügen zu der Sequenz auswählen.
  • 5K zeigt die Kameraschnittstelle 502-1 mit der Kameravorschau 508-1, die auf dem Touchscreen 112 angezeigt wird, wie in 5A. Die Vorrichtung 100 erkennt den Kontakt 554 auf der Filtersteuerung 516. In Antwort auf das Erkennen des Kontakts 554 auf der Filtersteuerung 516 zeigt die Vorrichtung 100 die Filteroptionen 556 auf dem Touchscreen 112 an, wie in 5L gezeigt. Die Filteroptionen 556-1 bis 556-3 entsprechen den unterschiedlichen Filtern, die auf die Medien angewendet werden, die von der Vorrichtung 100 aufgezeichnet worden sind.
  • Die Vorrichtung 100 erkennt den Kontakt 558 auf der Filteroption 556-3. In Antwort auf das Erkennen des Kontakts 558 auf Filteroption 556-3 wird der Filter, der der Filteroption 556-3 entspricht, auf die optischen Daten angewandt, die von der Kamera der Vorrichtung 100 aufgezeichnet worden sind. Die Kameravorschau 508-1 wird angezeigt mit dem angewendeten Filter, wie in 5M gezeigt, was dem Benutzer eine Livevorschau der optischen Erscheinung der Medien mit dem angewendeten Filter gibt. Optional ist die Filtersteuerung 516 hervorgehoben (z. B. mit einer dicken Umrandung), um weiterhin anzugeben, dass ein Filter angewendet wird.
  • In einigen Ausführungsformen werden Kameraschnittstellenschaltsteuerungen auf dem Touchscreen 112 in den jeweiligen Schnittstellen angezeigt. Zum Beispiel zeigt 5N die Kameraschnittstellenschaltsteuerungen 560, die auf dem Touchscreen 112 in Kameraschnittstelle 502-2 angezeigt werden. Die Steuerung 560-1 entspricht der Schnittstelle 502-1 und beinhaltet ein Standardkamerasymbol, das die Entsprechung angibt. Die Steuerung 560-2 entspricht der Schnittstelle 502-2 und beinhaltet ein Videokamerasymbol, das die Entsprechung angibt. Die Steuerung 560-3 entspricht der Schnittstelle 502-3 und beinhaltet ein Quadratsymbol (für eine quadratische Kamera), das die Entsprechung angibt. Die Steuerung 560-2 ist hervorgehoben (z. B. mit einer dickeren Umrandung), um anzugeben, dass die Schnittstelle 502-3 aktuell auf dem Touchscreen 112 angezeigt wird. In Antwort auf das Erkennen eines jeweiligen Kontakts auf einer entsprechenden Steuerung 560 schaltet die Vorrichtung 100 von der aktuell angezeigten Kameraschnittstelle zur der Kameraschnittstelle, die der Steuerung 560, über der der Kontakt erkannt wird, entspricht. Zum Beispiel erkennt die Vorrichtung 100 den Kontakt 562 über der Steuerung 560-1. In Antwort auf das Erkennen des Kontakts 562 über der Steuerung 560-1 schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-1. Ähnlich schaltet die Vorrichtung 100 in Antwort auf das Erkennen eines Kontakts über der Steuerung 560-3 von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-3.
  • Die 6A6G sind Flussdiagramme, die ein Verfahren 600 zum Schalten zwischen Kameraschnittstellen in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Das Verfahren 600 wird bei einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt (z. B. Vorrichtung 300, 3 oder tragbare Multifunktionsvorrichtung 100, 1A). In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige und die berührungsempfindliche Oberfläche ist auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Handlungen im Verfahren 600 sind optional kombiniert und/oder die Reihenfolge einiger Handlungen ist optional geändert.
  • Wie nachfolgend beschrieben, stellt Verfahren 600 eine intuitive Weise zum Schalten zwischen Kameraschnittstellen bereit. Das Verfahren reduziert die kognitive Belastung eines Benutzers, wenn er zwischen Kameraschnittstellen schaltet, was dadurch eine effizientere Mensch-Maschinen-Schnittstelle erzeugt. Für batteriebetriebene elektronische Vorrichtungen spart das Ermöglichen eines Benutzers zwischen Kameraschnittstellen schneller und effizienter zu schalten, Leistung und erhöht die Zeit zwischen Ladevorgängen.
  • Die Vorrichtung zeigt (602) eine erste Kameraschnittstelle auf der Anzeige für eine erste virtuelle Kamera an, die Medien mit ersten Ausgabedimensionen produziert (z. B. Dimensionen der Medien in Pixeln, wie z. B. 3264×2448 Pixel). Zum Beispiel zeigen die 5A und 5D die Kameraschnittstelle 502-1, die auf dem Touchscreen 112 angezeigt wird. Die Kameraschnittstelle 502-1 entspricht einer virtuellen Standardkamera, die Standbilder mit bestimmten Ausgabedimensionen aufzeichnet.
  • Während des Anzeigens der ersten Kameraschnittstelle auf der Anzeige erkennt (604) die Vorrichtung eine erste Geste, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert. In einigen Ausführungsformen beinhaltet die erste Kameraschnittstelle nicht eine vorbestimmte Kamera-Schalt-Affordanz. In einigen Ausführungsformen beinhaltet die erste Kameraschnittstelle eine vorbestimmte Kamera-Schalt-Affordanz, aber die erste Geste entspricht einem Ort der ersten Kameraschnittstelle, der nicht die vorbestimmte Kamera-Schalt-Affordanz beinhaltet (z. B. ist er entfernt davon). Vorrichtung 100 erkennt eine Geste mit Kontakt 528, der sich in Richtung 530 bewegt, wie z. B. in 5D gezeigt. Die Geste interagiert nicht mit irgendeiner Kamera-Schalt-Affordanz (z. B. den Kameraschnittstellenschaltsteuerungen 530 (5N)).
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige und die erste Geste beinhaltet eine Bewegung eines Kontakts über einer Kameravorschau, die auf der Touchscreen-Anzeige (606) angezeigt wird. Zum Beispiel bewegt sich die Geste mit Kontakt 528 über den Touchscreen 112 über der Kameravorschau 508-1 (5D).
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige und die erste Geste beinhaltet eine Bewegung eines Kontakts über einen Teil der Touchscreen-Anzeige, der nicht irgendeine angezeigte Affordanz zum Steuern der Handlungen der Kamera (608) beinhaltet. Zum Beispiel bewegt sich die Geste mit Kontakt 528 über den Touchscreen 112 über die Kameravorschau 508-1 (5D) und bewegt sich nicht über irgendeine angezeigte Affordanz zum Steuern der Handlungen der Kamera (z. B. Kamerafilmsymbol 504; Blendenverschlussknopf 506-1; Steuerungen 510, 512, 514, 516 und 518).
  • In Antwort auf das Erkennen der ersten Geste schaltet (610) die Vorrichtung vom Anzeigen der ersten Kameraschnittstelle zum Anzeigen einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen, wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle. In einigen Ausführungsformen beinhaltet die erste Kameraschnittstelle mindestens eine jeweilige Steuerung, die nicht in der zweiten Kameraschnittstelle angezeigt wird, die zweite Kameraschnittstelle beinhaltet mindestens eine jeweilige Steuerung, die nicht in der ersten Kameraschnittstelle angezeigt wird und/oder eine Medienvorschau weist eine unterschiedliche Erscheinung in der ersten Kameraschnittstelle auf als in der zweiten Kameraschnittstelle. In einigen Ausführungsformen beinhaltet die eine jeweilige Steuerung, die zwischen der ersten Kameraschnittstelle und der zweiten Kameraschnittstelle unterschiedlich ist, einen Hardware-Kamera-Auswahlknopf (z. B. vordere Kamera gegenüber hinterer Kamera), einen Bildaufzeichnungsoptionenknopf, einen Filterauswahlknopf oder einen Blitz-Schaltknopf. In Antwort auf das Erkennen der Geste mit Kontakt 528 schaltet die Vorrichtung 100 von einer Kameraschnittstelle 502-1 (5D) zu einer Kameraschnittstelle 502-2 (5H). Die Kameraschnittstelle 502-2 entspricht einer virtuellen Videokamera und ist mit unterschiedlichen Ausgabedimensionen als die Kameraschnittstelle 502-1 verknüpft.
  • In einigen Ausführungsformen stellt (612) die erste Kameraschnittstelle einen optischen Hinweis auf die ersten Ausgabedimensionen bereit (z. B. eine Vollbild-Anzeige einer Kameravorschau für eine Standardstandbildkamera) und die zweite Kameraschnittstelle stellt einen optischen Hinweis auf die zweiten Ausgabedimensionen bereit (z. B. eine Kameravorschau mit einer Letterbox für eine Quadratkamera oder eine Videokamera). Zum Beispiel ist. die Kameravorschau 508-1 in Kameraschnittstelle 502-1 eine Vollbildvorschau und die Kameravorschau 508-2 in Kameraschnittstelle 502-2 ist eine Kameravorschau mit einer Letterbox.
  • In einigen Ausführungsformen weisen (614) die ersten Ausgabedimensionen ein unterschiedliches Abbildungsverhältnis auf als die zweiten Ausgabedimensionen. Zum Beispiel ist das Abbildungsverhältnis, das mit der Kameraschnittstelle 502-1 verknüpft ist, 4:3 und das Abbildungsverhältnis, das mit der Kameraschnittstelle 502-2 verknüpft ist, ist 16:9.
  • In einigen Ausführungsformen beinhaltet (616) die erste Kameraschnittstelle eine oder mehrere Steuerungen, die nicht in der zweiten Kameraschnittstelle beinhaltet sind (und optional einer dritten Kamerabenutzerschnittstelle) (z. B. Standbildkameraanzeigeoptionen oder Standbildaufzeichnungsoptionen, wie z. B. Hochkontrast-(„high dynamic range”, HDR)-Bilder, die nicht für eine Videokamera oder eine Panoramakamera usw. verfügbar sind). Zum Beispiel beinhaltet die Kameraschnittstelle 502-1 die HDR-Steuerung 512, die nicht in den Kameraschnittstellen 502-2, 502-3 oder 502-4 beinhaltet ist.
  • In einigen Ausführungsformen beinhaltet (618) die zweite Kameraschnittstelle eine oder mehrere Steuerungen, die nicht in der ersten Kameraschnittstelle beinhaltet sind (und optional der dritten Kamerabenutzerschnittstelle) (z. B. eine Steuerung zum dauerhaften Anschalten des Blitzes). Zum Beispiel beinhaltet die Kameraschnittstelle 502-2 eine Dauer-Blitz-Steuerung 534, die nicht in der Kameraschnittstelle 502-1, 502-3 oder 502-4 beinhaltet ist.
  • In einigen Ausführungsformen beinhaltet das Schalten zwischen dem Anzeigen der ersten Kameraschnittstelle und dem Anzeigen einer zweiten Kameraschnittstelle ein Anzeigen (620) eines animierten Übergangs von der ersten Kameraschnittstelle zu der zweiten Kameraschnittstelle. Der animierte Übergang beinhaltet ein Anzeigen eines ersten verschwommenen Bildes, das optischen Daten entspricht, die kürzlich von der Kamera erkannt wurden, Verschieben des ersten verschwommenen Bildes weg von der Anzeige in eine jeweilige Richtung, Anzeigen einer Bewegung einer Grenze entlang der Anzeige in die jeweilige Richtung und Verschieben eines zweiten verschwommenen Bildes auf die Anzeige in die jeweilige Richtung, wobei das zweite verschwommene Bild optischen Daten entspricht, die kürzlich von der Kamera erkannt wurden. In einigen Ausführungsformen entspricht die jeweilige Richtung einer Richtung von Bewegungen des Kontakts auf der berührungsempfindlichen Oberfläche während der ersten Geste. In einigen Ausführungsformen ist die Grenze gekrümmt, um so die Bewegung einer austauschbaren Linse über den Kamerasensor zu simulieren. In einigen Ausführungsformen entsprechen das erste und das zweite verschwommene Bild denselben optischen Daten (z. B. Daten, die mit der Kamera erfasst worden sind vor dem Schalten der Kamerabenutzerschnittstellen), weil die Kamera zwischen unterschiedlichen „Modi” schaltet und demzufolge nicht verfügbar ist, um optische Daten zu erfassen, die dem Betriebsmodus entsprechen, der mit der zweiten Kameraschnittstelle verknüpft ist. In einigen Ausführungsformen wird eine ähnliche Animation angezeigt, wenn von der zweiten Kameraschnittstelle zu einer dritten, unterschiedlichen Kameraschnittstelle geschaltet wird (z. B. eine Kameraschnittstelle für eine Panoramakamera). In einigen Ausführungsformen beinhaltet der animierte Übergang ein Anzeigen eines Blendenverschlussknopfes für die erste Kameraschnittstelle, der zu einem Blendenverschlussknopf für die zweite Kameraschnittstelle übergeht (z. B. ein roter Blendenverschlussknopf für eine Videokameraschnittstelle, der hineingleitet, um einen grauen oder silbrigen Blendenverschlussknopf für eine Standbildkameraschnittstelle zu ersetzen).
  • Zum Beispiel beinhalten 5D5H ein Schalten von der Kameraschnittstelle 502-1 zu der Kameraschnittstelle 502-1, das eine Animation beinhaltet. Die Animation beinhaltet das verschwommene Bild 532-1, das der Kameraschnittstelle 502-1 entspricht, das sich weg von dem Touchscreen 112 in Richtung 530 verschiebt, und das verschwommene Bild 532-2, das der Kameraschnittstelle 502-2 entspricht, das sich auf den Touchscreen 112 in Richtung 530 verschiebt.
  • In einigen Ausführungsformen beinhaltet die erste Kameraschnittstelle eine erste Kameravorschau zum Anzeigen von aktuellen visuellen Daten, die von der Kamera (622) erkannt werden. Die Vorrichtung empfängt (624) eine Anfrage, um einen benutzerausgewählten Filter auf die Medien anzuwenden, die von der Vorrichtung erfasst werden, und wendet (626) den benutzerausgewählten Filter auf die optischen Daten an, die von der Kamera erfasst werden, sodass die erste Kameravorschau die aktuellen visuellen Daten beinhaltet, die von dem benutzerausgewählten Filter verändert worden sind. In einigen Ausführungsformen wird der benutzerausgewählte Filter auf ein Bild oder ein Video in Antwort auf das Empfangen einer Anfrage, Medien aufzuzeichnen, angewandt (z. B. ein Video oder ein Standbild, während der benutzerausgewählte Filter ausgewählt ist und auf die Kameravorschau angewandt wird). In einigen Ausführungsformen wird der benutzerausgewählte Filter ausgewählt, während ein vorheriger Filter (oder kein Filter) ausgewählt ist und die Vorrichtung hört auf, die aktuellen visuellen Daten, die von dem vorherigen Filter verändert worden sind, anzuzeigen und beginnt, die aktuellen visuellen Daten, die von dem benutzerausgewählten Filter verändert worden sind, anzuzeigen (z. B. ist der Filter ein „Live”-Filter, der „live” auf eine Vorschau der Kameraausgabe angewandt wird). In einigen Ausführungsformen ist der Filter ein nicht zerstörender Filter, der später von dem Bild entfernt werden kann (z. B. sind die Bilddaten, die von der Kamera erfasst worden sind, getrennt von einem jeweiligen Stapel von Bildverarbeitungshandlungen, die auf den Bilddaten ausgeführt worden sind, gespeichert und der jeweilige Stapel von Bildverarbeitungshandlungen kann entfernt und ersetzt werden mit einem unterschiedlichen Stapel von Bildverarbeitungshandlungen, um den Filter zu entfernen und/oder einen unterschiedlichen Filter anzuwenden in Antwort auf eine Benutzeranfrage, den Filter zu entfernen und/oder einen unterschiedlichen Filter anzuwenden).
  • Zum Beispiel zeigen die 5K5L die Vorrichtung 100, die eine Anfrage empfängt (in der Form des Kontakts 558 auf der Filteroption 556-3), einen Filter anzuwenden, der der Filteroption 556-3 entspricht. In Antwort auf das Empfangen der Anfrage wendet die Vorrichtung 100 den Filter auf die optischen Daten, die von der Kamera erfasst worden sind, an; die Kameravorschau 508-1 wird mit dem angewendeten Filter angezeigt, wie in 5M gezeigt.
  • In einigen Ausführungsformen beinhaltet die berührungsempfindliche Oberfläche eine Touchscreen-Anzeige und eine jeweilige Kameraschnittstelle beinhaltet eine jeweilige Kameravorschau zum Anzeigen der aktuellen visuellen Daten, die von der Kamera (628) erkannt worden sind. Während des Anzeigens der jeweiligen Kameraschnittstelle erkennt (630) die Vorrichtung eine jeweilige Eingabe, die einen jeweiligen Kontakt beinhaltet, der an einem Ort erkannt worden ist, der der jeweiligen Kameravorschau entspricht (z. B. eine Berühren-und-Halten-Eingabe, die einem jeweiligen Kontakt entspricht, der auf der Touchscreen-Anzeige erkannt worden ist). In Antwort auf das Erkennen der jeweiligen Eingabe, Anzeigen (632) eines ersten vergrößerten Bereichs der jeweiligen Kameravorschau und Auswählen eines Punktes innerhalb des ersten vergrößerten Bereichs als einen Autofokus-Referenzpunkt. Das Anzeigen des ersten vergrößerten Bereichs (z. B. eine „Autofokus-Lupe”) ermöglicht es einem Benutzer, genauer einen Autofokus-Referenzpunkt in der Kameravorschau auszuwählen. Zum Beispiel zeigt 5A eine Tippen-und-Halten-Geste mit Kontakt 520, der auf dem Touchscreen 112 über der Kameravorschau 508-1 erkannt worden ist. In Antwort auf das Erkennen der Geste wird ein vergrößerter Bereich der Kameravorschau 508-1 in der Autofokus-Lupe 522 auf Touchscreen 112 angezeigt und der Punkt 524-1 in dem vergrößerten Bereich wird als der Autofokus-Referenzpunkt ausgewählt.
  • In einigen Ausführungsformen erkennt (634) die Vorrichtung während des Anzeigens des ersten vergrößerten Bereichs eine Bewegung des jeweiligen Kontakts innerhalb der Kameravorschau. In Antwort auf das Erkennen der Bewegung des jeweiligen Kontakts zeigt (636) die Vorrichtung einen zweiten vergrößerten Bereich der jeweiligen Kameravorschau an, der unterschiedlich ist von dem ersten vergrößerten Bereich, und Auswählen eines Punktes innerhalb des zweiten vergrößerten Bereichs als den Autofokus-Referenzpunkt. Zum Beispiel zeigt die Vorrichtung 100 in Antwort auf das Erkennen der Bewegung des Kontakts 520 von dem Ort 520-a zu dem Ort 520-b, während die Autofokus-Lupe 522 angezeigt wird, die Autofokus-Lupe 522 bei Ort 522-b, und den vergrößerten Bereich, der innerhalb der Autofokus-Lupe 522 angezeigt wird, den vergrößerten Bereich der Kameravorschau 508-1 in der Umgebung des Kontakts 520, bei Ort 520-b an. Punkt 524-2 in dem vergrößerten Bereich wird als der neue Autofokus-Referenzpunkt ausgewählt.
  • In einigen Ausführungsformen beinhaltet die berührungsempfindliche Oberfläche eine Touchscreen-Anzeige und die erste Kameraschnittstelle beinhaltet eine jeweilige Kameravorschau zum Anzeigen aktueller visueller Daten, die von der Kamera (638) erkannt werden. Während des Anzeigens der ersten Kameraschnittstelle erkennt (640) die Vorrichtung eine jeweilige Eingabe, die einen jeweiligen Kontakt beinhaltet, der in der jeweiligen Kameravorschau erkannt wird. In Antwort auf das Erkennen der jeweiligen Eingabe (642) bestimmt (644) die Vorrichtung, ob die Eingabe eine Bewegung des jeweiligen Kontakts um mehr als eine vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb einer vorbestimmten Zeitspanne beinhaltet. In Übereinstimmung mit einer Bestimmung, dass die jeweilige Eingabe eine Bewegung des jeweiligen Kontakts um mehr als eine vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb der vorbestimmten Zeitspanne beinhaltet (z. B. bewegt sich der Kontakt innerhalb von 0,1, 0,2, 0,5 Sekunden oder innerhalb einer anderen angemessenen Zeitspanne), schaltet (646) die Vorrichtung von der ersten Kameraschnittstelle zu einer unterschiedlichen Kameraschnittstelle (z. B. Anzeigen der unterschiedlichen Kameraschnittstelle in Antwort auf das Erkennen einer Wischgeste). In Übereinstimmung mit einer Bestimmung, dass der jeweilige Kontakt sich nicht um mehr als die vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb einer vorbestimmten Zeitspanne bewegt (z. B. ist der Kontakt stationär oder im Wesentlichen stationär für 0,1, 0,2, 0,5 Sekunden oder eine andere angemessene Zeitspanne), zeigt die Vorrichtung einen vergrößerten Bereich der jeweiligen Kameravorschau an, und Auswählen eines Punktes innerhalb des vergrößerten Bereichs als einen Autofokus-Referenzpunkt (z. B. Anzeigen einer Autofokus-Lupe in Antwort auf das Erkennen einer Berühren-und-Halten-Geste). Zum Beispiel zeigen 5A und 5O jeweils die Kontakte 520 und 528, die auf dem Touchscreen 112 über der Kameravorschau 508-1 erkannt worden sind. Der Kontakt 520 ist im Wesentlichen stationär für eine vorbestimmte Zeitspanne von dem Kontakt mit dem Touchscreen 112. Der Kontakt 528 bewegt sich innerhalb der vorbestimmten Zeitspanne vom Kontakt mit dem Touchscreen 112. In Antwort auf das Erkennen des Kontakts 520 wird die Autofokus-Lupe 522 angezeigt und der Punkt 524-1 wird als ein Autofokus-Referenzpunkt ausgewählt (5B). In Antwort auf das Erkennen des Kontakts 528 und seiner Bewegung schaltet Vorrichtung 100 von der Kameraschnittstelle 502-1 zu der Kameraschnittstelle 502-2.
  • In einigen Ausführungsformen erkennt (650) die Vorrichtung während des Anzeigens der zweiten Kameraschnittstelle auf der Anzeige eine zweite Geste auf der berührungsempfindlichen Oberfläche. In Antwort auf das Erkennen der zweiten Geste (652) schaltet (654) die Vorrichtung in Übereinstimmung mit einer Bestimmung, dass die zweite Geste eine Bewegung des Kontakts in der ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen einer dritten Kameraschnittstelle für eine dritte virtuelle Kamera, die Medien mit dritten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen und den zweiten Ausgabedimensionen (z. B. Ersetzen einer Anzeige der zweiten Kameraschnittstelle mit der dritten Kameraschnittstelle), wobei die dritte Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle (z. B. beinhaltet die dritte Kameraschnittstelle mindestens eine jeweilige Steuerung, die nicht in der ersten Kameraschnittstelle angezeigt wird, die dritte Kameraschnittstelle beinhaltet mindestens eine jeweilige Steuerung, die nicht in der ersten Kameraschnittstelle angezeigt wird und/oder eine Medienvorschau weist eine unterschiedliche Erscheinung in der ersten Kameraschnittstelle als in der dritten Kameraschnittstelle auf) und die dritte Kameraschnittstelle ist unterschiedlich von der zweiten Kameraschnittstelle (z. B. beinhaltet die dritte Kameraschnittstelle mindestens eine jeweilige Steuerung, die nicht in der zweiten Kameraschnittstelle angezeigt wird, die dritte Kameraschnittstelle beinhaltet mindestens eine jeweilige Steuerung, die nicht in der zweiten Kameraschnittstelle angezeigt wird und/oder eine Medienvorschau weist eine unterschiedliche Erscheinung der zweiten Kameraschnittstelle als in der dritten Kameraschnittstelle auf). 5H zeigt eine Geste, die auf dem Touchscreen 112 erkannt worden ist, während die Kameraschnittstelle 502-2 angezeigt wird. Die Geste beinhaltet den Kontakt 538, der sich auf Touchscreen 112 in Richtung 530 über der Kameravorschau 508-2 bewegt. In Antwort auf das Erkennen der Geste schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-3 (5I). Die Kameraschnittstelle 502-3 ist unterschiedlich von der Kameraschnittstelle 502-1 und der Kameraschnittstelle 502-2.
  • In einigen Ausführungsformen schaltet (656) die Vorrichtung in Antwort auf das Erkennen der zweiten Geste (652) in Übereinstimmung mit einer Bestimmung, dass die zweite Geste eine Bewegung des Kontakts in eine zweite Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, die unterschiedlich ist von der ersten Richtung (z. B. entgegengesetzt zu der ersten Richtung), vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen der ersten Kameraschnittstelle (z. B. Ersetzen der Anzeige der zweiten Kameraschnittstelle mit der ersten Kameraschnittstelle). 5H zeigt eine Geste, die auf dem Touchscreen 112 erkannt wird, während die Kameraschnittstelle 502-2 angezeigt wird. Die Geste beinhaltet den Kontakt 536, der sich auf dem Touchscreen 112 in der Richtung 540 über der Kameravorschau 508-2 bewegt. In Antwort auf das Erkennen der Geste schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-2 zu der Kameraschnittstelle 502-1 (5D).
  • In einigen Ausführungsformen beinhaltet die zweite Kameraschnittstelle eine Steuerung zum Schalten zwischen Kameraschnittstellen, die eine Vielzahl von grafischen Objekten beinhaltet, einschließlich: ein erstes grafisches Objekt, das beschreibend ist für die erste Kameraschnittstelle, ein zweites grafisches Objekt, das beschreibend ist für die zweite Kameraschnittstelle und ein drittes grafisches Objekt, das beschreibend ist für die dritte Kameraschnittstelle (658).
  • In Antwort auf das Erkennen der Aktivierung eines jeweiligen grafischen Objekts der Vielzahl von grafischen Objekten (660), in Übereinstimmung mit einer Bestimmung, dass das erste grafische Objekt aktiviert worden ist, schaltet (662) die Vorrichtung vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen der ersten Kameraschnittstelle; und in Übereinstimmung mit einer Bestimmung, dass das dritte grafische Objekt aktiviert worden ist, schaltet (664) sie vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen der dritten Kameraschnittstelle. In einigen Ausführungsformen wird eine ähnliche Steuerung zum Schalten zwischen den Kameraschnittstellen in der ersten Kameraschnittstelle und der dritten Kameraschnittstelle angezeigt. In einigen Ausführungsformen ändern die grafischen Objekte ihre Position in Übereinstimmung mit einer aktuell angezeigten Kameraschnittstelle (z. B. das grafische Objekt, das der aktuell angezeigten Kameraschnittstelle entspricht, wird in einer Mitte der Steuerung angezeigt; ein grafisches Objekt, das einer Kameraschnittstelle entspricht, die angezeigt werden würde in Antwort auf eine Wischgeste von rechts nach links, wird auf einer rechten Seite der Steuerung angezeigt; und ein grafisches Objekt, das einer Kameraschnittstelle entspricht, die angezeigt werden würde in Antwort auf eine Wischgeste von links nach rechts, wird auf einer linken Seite der Steuerung angezeigt. Zum Beispiel beinhaltet die Kameraschnittstelle 502-2 in 5N optional angezeigte Kameraschnittstellenschaltsteuerungen 560. Steuerung 560-1 entspricht der Kameraschnittstelle 502-1. Die Steuerung 560-2 entspricht der Kameraschnittstelle 502-2. Die Steuerung 560-3 entspricht der Kameraschnittstelle 502-3. Die Vorrichtung 100 schaltet zu der Kameraschnittstelle 502-1 in Antwort auf das Erkennen des Kontakts 562 auf Steuerung 560-1. Die Vorrichtung 100 schaltet zu der Kameraschnittstelle 502-3 in Antwort auf das Erkennen eines Kontakts auf der Steuerung 560-3.
  • In einigen Ausführungsformen erkennt (666) die Vorrichtung, während sie die dritte Kameraschnittstelle auf der Anzeige anzeigt, eine dritte Geste auf der berührungsempfindlichen Oberfläche. In Antwort auf das Erkennen der dritten Geste, in Übereinstimmung mit einer Bestimmung, dass die dritte Geste eine Bewegung des Kontakts in der ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, schaltet (668) die Vorrichtung zum Anzeigen der dritten Kameraschnittstelle zum Anzeigen einer vierten Kameraschnittstelle für eine vierte virtuelle Kamera, die zuvor ausgewählt worden ist, auf der Grundlage von vorherigen Eingaben des Benutzers, um angezeigt zu werden in Antwort auf die Bewegung eines Kontakts in der ersten Richtung, während die dritte Kameraschnittstelle angezeigt wird (z. B. ersetzt die Vorrichtung die Anzeige der dritten Kameraschnittstelle mit der vierten Kameraschnittstelle für eine benutzerausgewählte virtuelle Kamera, die zuvor aus einer Vielzahl von virtuellen Kandidatenkameras ausgewählt worden ist, die nicht in einem Satz von virtuellen Schnellzugriff-Kameras sind, die zugänglich sind durch Wischen auf der berührungsempfindlichen Oberfläche). In einigen Ausführungsformen ist die vierte Kameraschnittstelle eine Schnittstelle für eine vierte virtuelle Kamera, die Medien mit vierten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten, zweiten und dritten Ausgabedimensionen (z. B. eine quadratische virtuelle Kamera), wobei: die vierte Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle (z. B. beinhaltet die vierte Kameraschnittstelle mindestens eine jeweilige Steuerung, die nicht in der ersten Kameraschnittstelle angezeigt wird, die vierte Kameraschnittstelle beinhaltet mindestens eine jeweilige Steuerung, die nicht in der ersten Kameraschnittstelle angezeigt wird, und/oder eine Medienvorschau weist eine unterschiedliche Erscheinung in der ersten Kameraschnittstelle als in der vierten Kameraschnittstelle auf), die vierte Kameraschnittstelle ist unterschiedlich von der zweiten Kameraschnittstelle (z. B. beinhaltet die vierte Kameraschnittstelle mindestens eine jeweilige Steuerung, die nicht in der zweiten Kameraschnittstelle angezeigt wird, die vierte Kameraschnittstelle beinhaltet mindestens eine jeweilige Steuerung, die nicht in der zweiten Kameraschnittstelle angezeigt wird, und/oder eine Medienvorschau weist eine unterschiedliche Erscheinung in der zweiten Kameraschnittstelle als in der vierten Kameraschnittstelle auf), und die vierte Kameraschnittstelle ist unterschiedlich von der dritten Kameraschnittstelle (z. B. beinhaltet die vierte Kameraschnittstelle mindestens eine jeweilige Steuerung, die nicht in der dritten Kameraschnittstelle angezeigt wird, die vierte Kameraschnittstelle beinhaltet mindestens eine jeweilige Steuerung, die nicht in der dritten Kameraschnittstelle angezeigt wird, und/oder eine Medienvorschau weist eine unterschiedliche Erscheinung in der dritten Kameraschnittstelle als in der vierten Kameraschnittstelle auf).
  • 5I zeigt eine Geste, die auf dem Touchscreen 112 erkannt wird, während die Kameraschnittstelle 502-3 angezeigt wird. Die Geste beinhaltet den Kontakt 548, der sich auf dem Touchscreen 112 in Richtung 530 über die Kameravorschau 508-3 bewegt. In Antwort auf das Erkennen der Geste schaltet die Vorrichtung 100 von der Kameraschnittstelle 502-3 zu der Kameraschnittstelle 502-4 (5J). Die Kameraschnittstelle 502-4 ist unterschiedlich von den Kameraschnittstellen 502-1, 502-2 und 502-3. Die Kameraschnittstelle 502-4 wurde zu der Abfolge von Kameraschnittstellen von dem Benutzer hinzugefügt.
  • In einigen Ausführungsformen stellt die Vorrichtung einen Schnellzugriff auf einen Satz von virtuellen Schnellzugriffkameras bereit, wobei es dem Benutzer ermöglicht wird, durch die Schnellzugriffkameras zu schalten durch Ausführen einer oder mehrerer Wiederholungen einer einfachen Geste auf der berührungsempfindlichen Oberfläche (z. B. eine Wischgeste). In einigen Ausführungsformen beinhaltet die Vorrichtung eine oder mehrere virtuelle Standard- oder Default-Kameras in dem Satz virtueller Schnellzugriffkameras. Zum Beispiel beinhaltet die Vorrichtung standardmäßig eine „gewöhnliche” längliche rechteckige Standbildkamera, eine Videokamera und eine Panoramakamera in dem Satz virtueller Schnellzugriffkameras. In einigen Ausführungsformen wird es einem Benutzer ermöglicht, eine oder mehrere zusätzliche benutzerausgewählte virtuelle Kameras als Schnellzugriffkameras aus einem Satz von virtuellen Kandidatenkameras auszuwählen, die nicht in den virtuellen Standard- oder Default-Schnellzugriffkameras beinhaltet sind. In einigen Ausführungsformen werden eine oder mehrere benutzerausgewählte virtuelle Kameras zu dem Satz von virtuellen Schnellzugriffkameras zusätzlich zu den Standard- oder Default-Kameras in dem Satz von virtuellen Schnellzugriffkameras hinzugefügt (z. B. eine quadratische Kamera und eine Schwarz-und-Weiß-Kamera werden zu dem Satz von virtuellen Schnellzugriffkameras hinzugefügt). In einigen Ausführungsformen ersetzt eine oder mehrere der benutzerausgewählten virtuellen Kameras eine oder mehrere der Standard- oder Default-Kameras in dem Satz von virtuellen Schnellzugriffkameras (z. B. wählt ein Benutzer eine quadratische Kamera aus, um die Panoramakamera in dem Satz von virtuellen Schnellzugriffkameras zu ersetzen). In einigen Ausführungsformen sind die nicht ausgewählten virtuellen Kandidatenkameras immer noch dem Benutzer zugänglich, aber ein Multischriftsatz unterschiedlicher Eingaben wird verwendet, um auf die nicht ausgewählten virtuellen Kandidatenkameras zuzugreifen (z. B. ein Navigieren durch eine Reihe von Menüs, um eine jeweilige nicht ausgewählte virtuelle Kandidatenkamera zu identifizieren und auszuwählen). In einigen Ausführungsformen weist der Satz von virtuellen Schnellzugriffkameras eine Maximalgröße auf (z. B. 3, 4, 5 oder 6 virtuelle Kameras) und der Satz von virtuellen Kandidatenkameras beinhaltet mehr virtuelle Kandidatenkameras (z. B. 10, 15 oder 20 virtuelle Kameras) als die Maximalgröße des Satzes von virtuellen Schnellzugriffkameras und demzufolge sind einige virtuelle Kandidatenkameras nicht in dem Satz von virtuellen Schnellzugriffkameras beinhaltet. Demzufolge ist in einigen Ausführungsformen der Benutzer in der Lage, zu wischen, um zwischen einer oder mehreren virtuellen Standard- oder Default-Kameras sowie einer oder mehreren benutzerausgewählten virtuellen Kameras auszuwählen, anstatt gezwungen zu sein, durch einen komplizierten Satz von Menüs zu navigieren, um die virtuellen Kameras zu identifizieren und auszuwählen, die nicht virtuelle Standard- oder Default-Kameras sind.
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige und die zweite Geste beinhaltet eine Bewegung eines Kontakts über einer Kameravorschau, die auf der Touchscreen-Anzeige (670) angezeigt wird. Zum Beispiel bewegt sich die Geste mit Kontakt 538 über den Touchscreen 112 über die Kameravorschau 508-2 (5H).
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige und die zweite Geste beinhaltet eine Bewegung eines Kontakts über einen Teil der Touchscreen-Anzeige, die nicht irgendeine der angezeigten Affordanzen zum Steuern der Handlungen der Kamera (672) beinhaltet. Zum Beispiel bewegt sich die Geste mit Kontakt 538 über den Touchscreen 112 über die Kameravorschau 508-2 (5H) und bewegt sich nicht über irgendeine der angezeigten Affordanzen zum Steuern der Handlungen der Kamera (z. B. Kamerafilmsymbol 504; Blendenverschlussknopf 506-2; Steuerung 534).
  • In einigen Ausführungsformen stellt (674) die dritte Kameraschnittstelle einen visuellen Hinweis auf die dritten Ausgabedimensionen bereit (z. B. einen Panoramafortschrittsindikator zum Ausrichten aufeinander folgender Bilder in einem Panorama und der den Fortschritt hinsichtlich des Erfassens von Bildern zeigt, die verwendet werden können, um ein panoramisches Bild zu erzeugen). Zum Beispiel zeigt 5I eine Windowbox auf der Kameravorschau 508-3. 5I zeigt den Panoramafortschrittsindikator 550, der mit der Kameraschnittstelle 502-4 angezeigt wird.
  • In einigen Ausführungsformen weisen (676) die dritten Ausgabedimensionen ein unterschiedliches Abbildungsverhältnis als die ersten Ausgabedimensionen und die zweiten Ausgabedimensionen auf. Zum Beispiel ist die Kameraschnittstelle 502-3 mit einem Abbildungsverhältnis von 1:1 verknüpft und die Kameraschnittstellen 502-1, 502-2 und 502-4 sind mit unterschiedlichen Abbildungsverhältnissen verknüpft.
  • In einigen Ausführungsformen beinhaltet (678) die dritte Kameraschnittstelle eine oder mehrere Steuerungen, die nicht in der ersten Kameraschnittstelle und der zweiten Kamerabenutzerschnittstelle beinhaltet sind (z. B. einen Panoramafortschrittsindikator zum Ausrichten aufeinander folgender Bilder in einem Panorama). Zum Beispiel beinhaltet die Kameraschnittstelle 502-3 die Schwarz-und-Weiß-Steuerung 544, die nicht in den Kameraschnittstellen 502-1, 502-2 oder 502-4 beinhaltet ist. Die Kameraschnittstelle 502-4 beinhaltet den Panoramafortschrittsindikator 550, der nicht in den Kameraschnittstellen 502-1, 502-2 oder 502-3 beinhaltet ist.
  • In einigen Ausführungsformen verwenden (680) die erste virtuelle Kamera, die zweite virtuelle Kamera und die dritte virtuelle Kamera einen selben physischen Kamerasensor mit jeweiligen Sensordimensionen, um Medien zu erzeugen, wobei die Medien, die von den virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die kleiner sind als die jeweiligen Sensordimensionen des physischen Kamerasensors (z. B. eine quadratische Kamera oder eine Videokamera) und wobei die Medien, die von einer unterschiedlichen der virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die größer sind als die jeweiligen Sensordimensionen des physischen Kamerasensors (z. B. eine Panoramakamera, die mehrere Bilder, die von dem physischen Kamerasensor erfasst worden sind, zusammenfügt, um ein Panoramabild zu erzeugen). Die Kameraschnittstellen 502 verwenden dieselben physischen Kamerasensoren der Vorrichtung 100. Die Kameraschnittstelle 502-2 ist mit Ausgabedimensionen verknüpft, die kleiner sind als die Sensordimensionen. Die Kameraschnittstelle 502-4 ist mit Ausgabedimensionen verknüpft, die größer sind als die Sensordimensionen.
  • In einigen Ausführungsformen weisen (682) die Medien, die von einer unterschiedlichen der virtuellen Kameras erzeugt worden sind, Dimensionen auf, die dieselben sind wie (oder im Wesentlichen dieselben sind wie) die Sensordimensionen des physischen Kamerasensors (z. B. eine Standardstandbildkamera). Die Kameraschnittstelle 502-1 ist mit Ausgabedimensionen verknüpft, die dieselben sind wie die Sensordimensionen.
  • In einigen Ausführungsformen weisen (684) die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle einen Satz von einer oder mehreren gemeinsamen Steuerungen auf, einschließlich einer jeweiligen gemeinsamen Steuerung; und die jeweilige gemeinsame Steuerung wird an einem selben Ort auf der Anzeige in der ersten Kameraschnittstelle, der zweiten Kameraschnittstelle und der dritten Kameraschnittstelle angezeigt. In einigen Ausführungsformen weist die jeweilige gemeinsame Steuerung (z. B. der Blendenverschlussknopf) eine selbe Größe und/oder Form in jeder der Kameraschnittstellen auf. In einigen Ausführungsformen weist die jeweilige gemeinsame Steuerung eine unterschiedliche Farbe oder Erscheinung in zwei oder mehreren unterschiedlichen Kameraschnittstellen auf (z. B. ist der Blendenverschlussknopf grau oder silbrig in einer Standbildkamerabenutzerschnittstelle und rot in einer Videokamerabenutzerschnittstelle). Die Kameraschnittstellen 502-1 bis 502-4 haben das Kamerafilmsymbol 504 und den Blendenverschlussknopf 506 gemeinsam. Kamerasymbol 504 und Blendenverschlussknopf 506 werden jeweils an denselben jeweiligen Orten entlang der Kameraschnittstellen 502-1 bis 502-4 angezeigt.
  • In einigen Ausführungsformen beinhalten (686) die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle eine Videokameraschnittstelle und zwei unterschiedliche Standbildkameraschnittstellen (z. B. ist eine dieser drei Kameraschnittstellen eine Videokameraschnittstelle und die zwei anderen Kameraschnittstellen sind unterschiedliche Standbildkameraschnittstellen, wie z. B. eine längliche rechtwinklige Einzelbildkamera und eine Panoramakamera). Zum Beispiel sind die Kameraschnittstellen 502-1 und die Kameraschnittstelle 502-3 (oder 502-4) Standbildkameraschnittstellen und die Kameraschnittstelle 502-2 ist eine Videokameraschnittstelle.
  • In einigen Ausführungsformen werden die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle ausgewählt (688), aus dem Satz bestehend aus: einer rechteckigen Standbildkameraschnittstelle (z. B. eine längliche rechteckige Standbildkameraschnittstelle, die nicht quadratisch ist), einer Videokameraschnittstelle, einer Panoramastandbildkameraschnittstelle, einer Schwarz-und-Weiß-Standbildkameraschnittstelle, und einer quadratischen Standbildkameraschnittstelle. Zum Beispiel sind die Kameraschnittstellen 502-1, 502-2, 502-3 und 502-4 jeweils eine Standardkameraschnittstelle (d. h. eine längliche rechteckige Standbildkameraschnittstelle), eine Videokameraschnittstelle, eine quadratische Standbildkameraschnittstelle und eine Panoramastandbildkameraschnittstelle.
  • Es sollte verstanden werden, dass die bestimmte Reihenfolge, in der die Handlungen in den 6A6G beschrieben worden sind, nur beispielhaft ist und nicht beabsichtigt ist, anzugeben, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Handlungen ausgeführt werden könnten. Der Fachmann würde verschiedene Wege erkennen, um die Handlungen, die hierin beschrieben worden sind, neu zu ordnen.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 7 ein funktionales Blockdiagramm einer elektronischen Vorrichtung 700, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen eingerichtet ist. Die funktionalen Blöcke der Vorrichtungen sind optional durch Hardware, Software oder eine Kombination von Hardware und Software implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen auszuführen. Es wird vom Fachmann verstanden werden, dass die funktionalen Blöcke, die in 7 beschrieben werden, optional kombiniert oder in Unterblöcke aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Demzufolge unterstützt die Beschreibung hierin optional jede mögliche Kombination oder Aufteilung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 7 gezeigt, beinhaltet eine elektronische Vorrichtung 700 eine Anzeigeeinheit 702, die eingerichtet ist, um eine erste Kameraschnittstelle für eine erste virtuelle Kamera anzuzeigen, die Medien mit ersten Ausgabedimensionen erzeugt, eine berührungsempfindliche Oberflächeneinheit 704, die eingerichtet ist, um Kontakte und Gesten zu empfangen, eine Kameraeinheit 705 und eine Verarbeitungseinheit 706, die mit der Anzeigeeinheit 702, der berührungsempfindlichen Oberflächeneinheit 704 und der Kameraeinheit 705 gekoppelt ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 706 eine Erkennungseinheit 708, eine Schalteinheit 710, eine Empfangseinheit 712, eine Anwendungseinheit 714, eine Anzeige-Ermöglichungseinheit 716, eine Auswahleinheit 718 und eine Bestimmungseinheit 720.
  • Die Verarbeitungseinheit 706 ist eingerichtet, um: während des Ermöglichens einer Anzeige der ersten Kameraschnittstelle auf der Anzeigeeinheit 702, eine erste Geste zu erkennen, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberflächeneinheit 704 beinhaltet (z. B. mit der Erkennungseinheit 708), wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert; und in Antwort auf das Erkennen der ersten Geste, vom Ermöglichen einer Anzeige der ersten Kameraschnittstelle zum Ermöglichen der Anzeige einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera zu schalten, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen (z. B. mit der Schalteinheit 710), wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle.
  • In einigen Ausführungsformen stellt die erste Kameraschnittstelle einen visuellen Hinweis auf die ersten Ausgabedimensionen bereit und die zweite Kameraschnittstelle stellt einen visuellen Hinweis auf die zweiten Ausgabedimensionen bereit.
  • In einigen Ausführungsformen weisen die ersten Ausgabedimensionen ein unterschiedliches Abbildungsverhältnis als die zweiten Ausgabedimensionen auf.
  • In einigen Ausführungsformen beinhaltet die erste Kameraschnittstelle eine oder mehrere Steuerungen, die nicht in der zweiten Kameraschnittstelle beinhaltet sind.
  • In einigen Ausführungsformen beinhaltet die zweite Kameraschnittstelle eine oder mehrere Steuerungen, die nicht in der ersten Kameraschnittstelle beinhaltet sind.
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberflächeneinheit 704 Teil einer Touchscreen-Anzeige und die erste Geste beinhaltet eine Bewegung eines Kontakts über einer Kameravorschau, die auf der Touchscreen-Anzeige angezeigt wird.
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberflächeneinheit 704 Teil einer Touchscreen-Anzeige und die erste Geste beinhaltet eine Bewegung eines Kontakts über einen Teil der Touchscreen-Anzeige, der nicht irgendeine der angezeigten Affordanzen zum Steuern der Handlungen der Kameraeinheit 705 beinhaltet.
  • In einigen Ausführungsformen beinhaltet die erste Kameraschnittstelle eine erste Kameravorschau zum Anzeigen aktueller visueller Daten, die von der Kameraeinheit 705 erkannt werden; und die Verarbeitungseinheit 706 ist eingerichtet, um: eine Anfrage zu empfangen, einen benutzerausgewählten Filter auf Medien anzuwenden, die von der Vorrichtung aufgezeichnet worden sind (z. B. mit der Empfangseinheit 712); und den benutzerausgewählten Filter auf visuelle Daten anzuwenden, die von der Kameraeinheit 705 erfasst worden sind (z. B. mit der Anwendungseinheit 714), sodass die erste Kameravorschau die aktuellen visuellen Daten beinhaltet, die von dem benutzerausgewählten Filter verändert worden sind.
  • In einigen Ausführungsformen beinhaltet das Schalten vom Ermöglichen der Anzeige der ersten Kameraschnittstelle zum Ermöglichen der Anzeige einer zweiten Kameraschnittstelle ein Ermöglichen einer Anzeige eines animierten Übergangs zwischen der ersten Kameraschnittstelle und der zweiten Kameraschnittstelle; und der animierte Übergang beinhaltet: ein Ermöglichen einer Anzeige eines ersten verschwommenen Bildes, das visuellen Daten entspricht, die kürzlich von der Kameraeinheit 705 erkannt worden sind, Verschieben des ersten verschwommenen Bildes weg von der Anzeigeeinheit 702 in eine jeweilige Richtung, Ermöglichen einer Anzeige einer Bewegung einer Grenze über die Anzeigeeinheit 702 in die jeweilige Richtung und Verschieben eines zweiten verschwommenen Bildes auf die Anzeigeeinheit 702 in die jeweilige Richtung, wobei das zweite verschwommene Bild visuellen Daten entspricht, die kürzlich von der Kameraeinheit 705 erkannt worden sind.
  • In einigen Ausführungsformen beinhaltet die berührungsempfindliche Oberflächeneinheit 704 eine Touchscreen-Anzeige; eine jeweilige Kameraschnittstelle beinhaltet eine jeweilige Kameravorschau zum Anzeigen aktueller visueller Daten, die von der Kameraeinheit 705 erkannt worden sind; und die Verarbeitungseinheit 706 ist eingerichtet, um: während des Ermöglichens der Anzeige der jeweiligen Kameraschnittstelle, eine jeweilige Eingabe zu erkennen, die einen jeweiligen Kontakt beinhaltet, der an einem Ort erkannt worden ist, der der jeweiligen Kameravorschau entspricht (z. B. mit der Erkennungseinheit 708); und in Antwort auf das Erkennen der jeweiligen Eingabe, die Anzeige eines ersten vergrößerten Bereichs auf der jeweiligen Kameravorschau zu ermöglichen (z. B. mit der Anzeigeermöglichungseinheit 716) und einen Punkt innerhalb des ersten vergrößerten Bereichs als einen Autofokus-Referenzpunkt auszuwählen (z. B. mit der Auswahleinheit 718).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 706 eingerichtet, um: während des Ermöglichens der Anzeige des ersten vergrößerten Bereichs, eine Bewegung des jeweiligen Kontakts innerhalb der Kameravorschau zu erkennen (z. B. mit der Erkennungseinheit 708); und in Antwort auf das Erkennen der Bewegung des jeweiligen Kontakts, eine Anzeige eines zweiten vergrößerten Bereichs der jeweiligen Kameravorschau zu ermöglichen (z. B. mit der Anzeigeermöglichungseinheit 716), der unterschiedlich ist von dem ersten vergrößerten Bereich, und einen Punkt innerhalb des zweiten vergrößerten Bereichs als den Autofokus-Referenzpunkt auszuwählen (z. B. mit der Auswahleinheit 718).
  • In einigen Ausführungsformen beinhaltet die berührungsempfindliche Oberflächeneinheit 704 eine Touchscreen-Anzeige; die erste Kameraschnittstelle beinhaltet eine jeweilige Kameravorschau zum Anzeigen aktueller visueller Daten, die von der Kameraeinheit 705 erkannt worden sind; und die Verarbeitungseinheit 706 ist eingerichtet, um: während des Ermöglichens der Anzeige der ersten Kameraschnittstelle, eine jeweilige Eingabe zu erkennen, die einen jeweiligen Kontakt beinhaltet, der in der jeweiligen Kameravorschau erkannt wird (z. B. mit der Erkennungseinheit 708); in Antwort auf das Erkennen der jeweiligen Eingabe: zu bestimmen, ob die Eingabe eine Bewegung des jeweiligen Kontakts um mehr als eine vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb einer vorbestimmten Zeitspanne beinhaltet (z. B. mit der Bestimmungseinheit 720); in Übereinstimmung mit einer Bestimmung, dass die jeweilige Eingabe eine Bewegung des jeweiligen Kontakts um mehr als die vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb der vorbestimmten Zeitspanne beinhaltet, von der ersten Kameraschnittstelle zu einer unterschiedlichen Kameraschnittstelle zu schalten (z. B. mit der Schalteinheit 710); und in Übereinstimmung mit einer Bestimmung, dass der jeweilige Kontakt sich nicht um mehr als die vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb einer vorbestimmten Zeitspanne bewegt, eine Anzeige eines vergrößerten Bereichs der jeweiligen Kameravorschau zu ermöglichen (z. B. mit der Anzeigeermöglichungseinheit 716) und einen Punkt innerhalb des vergrößerten Bereichs als einen Autofokus-Referenzpunkt auszuwählen (z. B. mit der Auswahleinheit 718).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 706 eingerichtet, um: während des Ermöglichens der Anzeige der zweiten Kameraschnittstelle auf der Anzeigeeinheit 702, eine zweite Geste auf der berührungsempfindlichen Oberflächeneinheit 704 zu erkennen (z. B. mit der Erkennungseinheit 708); und in Antwort auf das Erkennen der zweiten Geste, in Übereinstimmung mit einer Bestimmung, dass die zweite Geste eine Bewegung des Kontakts in der ersten Richtung auf der berührungsempfindlichen Oberflächeneinheit 704 beinhaltet, von dem Ermöglichen der Anzeige der zweiten Kameraschnittstelle zum Ermöglichen der Anzeige einer dritten Kameraschnittstelle für eine dritte virtuelle Kamera zu schalten, die Medien mit dritten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen und den zweiten Ausgabedimensionen (z. B. mit der Schalteinheit 710), wobei: die dritte Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle; und die dritte Kameraschnittstelle unterschiedlich ist von der zweiten Kameraschnittstelle.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 706 eingerichtet, um in Antwort auf das Erkennen der zweiten Geste, in Übereinstimmung mit einer Bestimmung, dass die zweite Geste eine Bewegung des Kontakts in eine zweite Richtung auf der berührungsempfindlichen Oberflächeneinheit 704 beinhaltet, die unterschiedlich ist von der ersten Richtung, vom Ermöglichen der Anzeige der zweiten Kameraschnittstelle zum Ermöglichen der Anzeige der ersten Kameraschnittstelle zu schalten (z. B. mit der Schalteinheit 710).
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberflächeneinheit 704 Teil einer Touchscreen-Anzeige und die zweite Geste beinhaltet eine Bewegung eines Kontakts über eine Kameravorschau, die auf der Touchscreen-Anzeige angezeigt wird.
  • In einigen Ausführungsformen ist die berührungsempfindliche Oberflächeneinheit 704 Teil einer Touchscreen-Anzeige und die zweite Geste beinhaltet eine Bewegung eines Kontakts über einen Bereich der Touchscreen-Anzeige, der nicht irgendeine der angezeigten Affordanzen zum Steuern der Handlungen der Kameraeinheit 705 beinhaltet.
  • In einigen Ausführungsformen stellt die dritte Kameraschnittstelle einen visuellen Hinweis auf die dritten Ausgabedimensionen bereit.
  • In einigen Ausführungsformen weisen die dritten Ausgabedimensionen ein unterschiedliches Abbildungsverhältnis als die ersten Ausgabedimensionen und die zweite Ausgabedimension auf.
  • In einigen Ausführungsformen beinhaltet die dritte Kameraschnittstelle eine oder mehrere Steuerungen, die nicht in der ersten Kameraschnittstelle und der zweiten Kameraschnittstelle beinhaltet sind.
  • In einigen Ausführungsformen verwenden die erste virtuelle Kamera, die zweite virtuelle Kamera und die dritte virtuelle Kamera einen selben physischen Kamerasensor mit jeweiligen Sensordimensionen zum Erzeugen von Medien, wobei die Medien, die von einer der virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die kleiner sind als die jeweiligen Sensordimensionen des physischen Kamerasensors und wobei die Medien, die von einer unterschiedlichen der virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die größer sind als die jeweiligen Sensordimensionen des physischen Kamerasensors.
  • In einigen Ausführungsformen weisen Medien, die von einer unterschiedlichen der virtuellen Kameras erzeugt worden sind, Dimensionen auf, die dieselben sind wie die Sensordimensionen des physischen Kamerasensors.
  • In einigen Ausführungsformen weisen die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle einen Satz von einer oder mehreren gemeinsamen Steuerungen auf, der eine jeweilige gemeinsame Steuerung beinhaltet, und die jeweilige gemeinsame Steuerung wird an einem selben Ort auf der Anzeigeeinheit 702 in der ersten Kameraschnittstelle, der zweiten Kameraschnittstelle und der dritten Kameraschnittstelle angezeigt.
  • In einigen Ausführungsformen beinhalten die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle eine Videokameraschnittstelle und zwei unterschiedliche Standbildkameraschnittstellen.
  • In einigen Ausführungsformen werden die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle ausgewählt aus dem Satz bestehend aus: einer rechteckigen Standbildkameraschnittstelle, einer Videokameraschnittstelle, einer Panoramastandbildkameraschnittstelle, einer Schwarz-und-Weiß-Standbildkameraschnittstelle und einer quadratischen Standbildkameraschnittstelle.
  • In einigen Ausführungsformen beinhaltet die zweite Kameraschnittstelle eine Steuerung zum Schalten zwischen Kameraschnittstellen, die eine Vielzahl von grafischen Objekten beinhaltet, einschließlich: ein erstes grafisches Objekt, das für die erste Kameraschnittstelle beschreibend ist, ein zweites grafisches Objekt, das für die zweite Kameraschnittstelle beschreibend ist, und ein drittes grafisches Objekt, das für die dritte Kameraschnittstelle beschreibend ist. Die Verarbeitungseinheit 706 ist eingerichtet, um in Antwort auf das Erkennen der Aktivierung eines jeweiligen grafischen Objekts der Vielzahl von grafischen Objekten: in Übereinstimmung mit einer Bestimmung, dass das erste grafische Objekt aktiviert worden ist, vom Ermöglichen der Anzeige der zweiten Kameraschnittstelle zum Ermöglichen der Anzeige der ersten Kameraschnittstelle zu schalten (z. B. mit der Schalteinheit 710); und in Übereinstimmung mit einer Bestimmung, dass das dritte grafische Objekt aktiviert wurde, vom Ermöglichen der Anzeige der zweiten Kameraschnittstelle zum Ermöglichen der Anzeige der dritten Kameraschnittstelle zu schalten (z. B. mit der Schalteinheit 710).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 706 eingerichtet, um: während des Ermöglichens der Anzeige der dritten Kameraschnittstelle auf der Anzeigeeinheit 702 eine dritte Geste auf der berührungsempfindlichen Oberflächeneinheit 704 zu erkennen (z. B. mit der Erkennungseinheit 708); und in Antwort auf das Erkennen der dritten Geste, in Übereinstimmung mit einer Bestimmung, dass die dritte Geste eine Bewegung des Kontakts in der ersten Richtung auf der berührungsempfindlichen Oberflächeneinheit 704 beinhaltet, vom Ermöglichen der Anzeige der dritten Kameraschnittstelle zum Ermöglichen der Anzeige einer vierten Kameraschnittstelle für eine vierte virtuelle Kamera zu schalten, die zuvor ausgewählt wurde (z. B. mit der Schalteinheit 710) auf der Grundlage von vorherigen Eingaben von dem Benutzer, um angezeigt zu werden in Antwort auf eine Bewegung eines Kontakts in der ersten Richtung, während die dritte Kameraschnittstelle angezeigt wird, wobei: die vierte Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle, die vierte Kameraschnittstelle unterschiedlich ist von der zweiten Kameraschnittstelle und die vierte Kameraschnittstelle unterschiedlich ist von der dritten Kameraschnittstelle.
  • Die Handlungen der Informationsverarbeitungsverfahren, die zuvor beschrieben worden sind, werden optional implementiert durch Betreiben eines oder mehrerer funktionaler Module in einer Informationsverarbeitungsvorrichtung, wie z. B. Allgemeinzweckprozessoren (wie z. B. zuvor beschrieben mit Bezug zu den 1A und 3) oder anwendungsspezifische Chips.
  • Die Handlungen, die zuvor mit Bezug zu den 6A6G beschrieben worden sind, sind optional durch Komponenten implementiert, die in den 1A1B oder der 7 gezeigt werden. Zum Beispiel sind die Erkennungshandlung 604 und die Schalthandlung 610 optional durch den Ereignissortierer 170, den Ereigniserkenner 180 und den Ereignis-Handler 190 implementiert. Der Ereignisüberwacher 171 im Ereignissortierer 170 erkennt einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignissendemodul 174 liefert die Ereignisinformationen an die Anwendung 136-1. Ein jeweiliger Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit den jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einem ersten Ort auf der berührungsempfindlichen Oberfläche (oder ob eine Rotation der Vorrichtung) einem vorbestimmten Ereignis oder Unterereignis entspricht, wie z. B. einer Auswahl eines Objekts auf einer Benutzerschnittstelle oder einer Rotation der Vorrichtung von einer Ausrichtung zu einer anderen. Wenn ein jeweiliges vorbestimmtes Ereignis oder Unterereignis erkannt wird, aktiviert der Ereigniserkenner 180 einen Ereignis-Handler 190, der mit der Erkennung des Ereignisses oder Unterereignisses verknüpft ist. Der Ereignis-Handler 190 verwendet optional oder ruft einen Datenaktualisierer 176 oder einen Objektaktualisierer 177 auf, um den internen Anwendungsstatus 192 zu aktualisieren. In einigen Ausführungsformen greift der Ereignis-Handler 190 auf einen jeweiligen GUI-Aktualisierer 178 zu, um zu aktualisieren, was von der Anwendung angezeigt wird. Ähnlich wäre es dem Fachmann klar, wie andere Verfahren implementiert werden können auf der Grundlage der Komponenten, die in den 1A1B gezeigt werden.
  • Die vorangegangene Beschreibung wurde für Erklärungszwecke mit Bezug zu bestimmten Ausführungsformen beschrieben. Jedoch sind die vorangegangenen veranschaulichenden Diskussionen nicht beabsichtigt, erschöpfend zu sein oder die Erfindung auf die bestimmten offenbarten Formen zu beschränken. Viele Veränderungen und Variationen sind hinsichtlich der vorangegangenen Lehren möglich. Die Ausführungsformen wurden gewählt und beschrieben, um am besten die Prinzipien der Erfindung und ihre praktischen Anwendungen zu erklären, um es dadurch dem Fachmann zu ermöglichen, die Erfindung und die verschiedenen beschriebenen Ausführungsformen am besten zu verwenden mit verschiedenen Veränderungen, wie sie der bestimmten angedachten Verwendung angemessen sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11a [0039]
    • IEEE 802.11b [0039]
    • IEEE 802.11g [0039]
    • IEEE 802.11n [0039]

Claims (27)

  1. Nichtflüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfassen, welche, wenn sie von einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einer Kamera ausgeführt werden, die Vorrichtung veranlassen auszuführen: Anzeigen einer ersten Kameraschnittstelle auf der Anzeige für eine erste virtuelle Kamera, die Medien mit ersten Ausgabedimensionen erzeugt; während des Anzeigens der ersten Kameraschnittstelle auf der Anzeige, Erkennen einer ersten Geste, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert; und in Antwort auf das Erkennen der ersten Geste, Schalten vom Anzeigen der ersten Kameraschnittstelle zum Anzeigen einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen, wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle.
  2. Medium nach Anspruch 1, wobei: die erste Kameraschnittstelle einen visuellen Hinweis auf die ersten Ausgabedimensionen bereitstellt; und die zweite Kameraschnittstelle einen visuellen Hinweis auf die zweiten Ausgabedimensionen bereitstellt.
  3. Medium nach Anspruch 1, wobei die ersten Ausgabedimensionen ein unterschiedliches Abbildungsverhältnis als die zweiten Ausgabedimensionen aufweisen.
  4. Medium nach Anspruch 1, wobei die erste Kameraschnittstelle eine oder mehrere Steuerungen beinhaltet, die nicht in der zweiten Kameraschnittstelle beinhaltet sind.
  5. Medium nach Anspruch 1, wobei die zweite Kameraschnittstelle eine oder mehrere Steuerungen beinhaltet, die nicht in der ersten Kameraschnittstelle beinhaltet sind.
  6. Medium nach Anspruch 1, wobei: die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige ist; und die erste Geste eine Bewegung eines Kontakts über einer Kameravorschau beinhaltet, die auf der Touchscreen-Anzeige angezeigt wird.
  7. Medium nach Anspruch 1, wobei: die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige ist; und die erste Geste eine Bewegung eines Kontakts über einen Bereich der Touchscreen-Anzeige beinhaltet, der nicht irgendeine der angezeigten Affordanzen zum Steuern der Handlungen der Kamera beinhaltet.
  8. Medium nach Anspruch 1, wobei: die erste Kameraschnittstelle eine erste Kameravorschau zum Anzeigen aktueller visueller Daten beinhaltet, die von der Kamera erkannt werden; und das Verfahren beinhaltet: Empfangen einer Anfrage, einen benutzerausgewählten Filter auf Medien anzuwenden, die von der Vorrichtung erfasst werden; und Anwenden des benutzerausgewählten Filters auf visuelle Daten, die von der Kamera erfasst werden, sodass die erste Kameravorschau die aktuellen visuellen Daten beinhaltet, die von dem benutzerausgewählten Filter verändert werden.
  9. Medium nach Anspruch 1, wobei: das Schalten vom Anzeigen der ersten Kameraschnittstelle zum Anzeigen einer zweiten Kameraschnittstelle ein Anzeigen eines animierten Übergangs zwischen der ersten Kameraschnittstelle und der zweiten Kameraschnittstelle beinhaltet; und der animierte übergang beinhaltet: Anzeigen eines ersten verschwommenen Bildes, das visuellen Daten entspricht, die kürzlich von der Kamera erkannt wurden; Verschieben des ersten verschwommenen Bildes weg von der Anzeige in eine jeweilige Richtung; Anzeigen einer Bewegung einer Grenze entlang der Anzeige in der jeweiligen Richtung; und Verschieben eines zweiten verschwommenen Bildes auf die Anzeige in die jeweilige Richtung, wobei das zweite verschwommene Bild den visuellen Daten entspricht, die kürzlich von der Kamera erkannt wurden.
  10. Medium nach Anspruch 1, wobei: die berührungsempfindliche Oberfläche eine Touchscreen-Anzeige beinhaltet; eine jeweilige Kameraschnittstelle eine jeweilige Kameravorschau zum Anzeigen aktueller visueller Daten beinhaltet, die von der Kamera erkannt worden sind; und das Verfahren beinhaltet: während des Anzeigens der jeweiligen Kameraschnittstelle, Erkennen einer jeweiligen Eingabe, die einen jeweiligen Kontakt beinhaltet, der an einem Ort erkannt worden ist, der der jeweiligen Kameravorschau entspricht; und in Antwort auf das Erkennen der jeweiligen Eingabe, Anzeigen eines ersten vergrößerten Bereichs der jeweiligen Kameravorschau und Auswählen eines Punktes innerhalb des ersten vergrößerten Bereichs als einen Autofokus-Referenzpunkt.
  11. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: während des Anzeigen des ersten vergrößerten Bereichs, Erkennen einer Bewegung des jeweiligen Kontakts innerhalb der Kameravorschau; und in Antwort auf das Erkennen der Bewegung des jeweiligen Kontakts, Anzeigen eines zweiten vergrößerten Bereichs der jeweiligen Kameravorschau, der unterschiedlich ist von dem ersten vergrößerten Bereich, und Auswählen eines Punktes innerhalb des zweiten vergrößerten Bereichs als den Autofokus-Referenzpunkt.
  12. Medium nach Anspruch 1, wobei: die berührungsempfindliche Oberfläche eine Touchscreen-Anzeige beinhaltet; die erste Kameraschnittstelle eine jeweilige Kameravorschau zum Anzeigen aktueller visueller Daten beinhaltet, die von der Kamera erkannt werden; und wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: während des Anzeigens der ersten Kameraschnittstelle, Erkennen einer jeweiligen Eingabe, die einen jeweiligen Kontakt beinhaltet, der in der jeweiligen Kameravorschau erkannt worden ist; in Antwort auf das Erkennen der jeweiligen Eingabe: Bestimmen, ob die Eingabe eine Bewegung des jeweiligen Kontakts um mehr als eine vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb einer vorbestimmten Zeitspanne beinhaltet; in Übereinstimmung mit einer Bestimmung, dass die jeweilige Eingabe eine Bewegung des jeweiligen Kontakts um mehr als die vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb der vorbestimmten Zeitspanne beinhaltet, Schalten von der ersten Kameraschnittstelle zu einer unterschiedlichen Kameraschnittstelle; und in Übereinstimmung mit einer Bestimmung, dass der jeweilige Kontakt sich nicht um mehr als die vorbestimmte Menge auf der Touchscreen-Anzeige innerhalb einer vorbestimmten Zeitspanne bewegt, Anzeigen eines vergrößerten Bereichs der jeweiligen Kameravorschau und Auswählen eines Punktes innerhalb des vergrößerten Bereichs als einen Autofokus-Referenzpunkt.
  13. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: während des Anzeigens der zweiten Kameraschnittstelle auf der Anzeige, Erkennen einer zweiten Geste auf der berührungsempfindlichen Oberfläche; und in Antwort auf das Erkennen der zweiten Geste, in Übereinstimmung mit einer Bestimmung, dass die zweite Geste eine Bewegung des ersten Kontakts in der ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, Schalten vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen einer dritten Kameraschnittstelle für eine dritte virtuelle Kamera, die Medien mit dritten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen und den zweiten Ausgabedimensionen, wobei: die dritte Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle; und die dritte Kameraschnittstelle unterschiedlich ist von der zweiten Kameraschnittstelle.
  14. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: in Antwort auf das Erkennen der zweiten Geste, in Übereinstimmung mit einer Bestimmung, dass die zweite Geste eine Bewegung des Kontakts in einer zweiten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, die unterschiedlich ist von der ersten Richtung, Schalten von der Anzeige der zweiten Kameraschnittstelle zum Anzeigen der ersten Kameraschnittstelle.
  15. Medium nach Anspruch 13, wobei: die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige ist; und die zweite Geste eine Bewegung eines Kontakts über einer Kameravorschau beinhaltet, die auf der Touchscreen-Anzeige angezeigt wird.
  16. Medium nach Anspruch 13, wobei: die berührungsempfindliche Oberfläche Teil einer Touchscreen-Anzeige ist; und die zweite Geste eine Bewegung eines Kontakts über einen Bereich der Touchscreen-Anzeige beinhaltet, der nicht irgendeine der angezeigten Affordanzen zum Steuern der Handlungen der Kamera beinhaltet.
  17. Medium nach Anspruch 13, wobei die dritte Kameraschnittstelle einen visuellen Hinweis auf die dritten Ausgabedimensionen bereitstellt.
  18. Medium nach Anspruch 13, wobei die dritten Ausgabedimensionen ein unterschiedliches Abbildungsverhältnis als die ersten Ausgabedimensionen und die zweite Ausgabedimension aufweisen.
  19. Medium nach Anspruch 13, wobei die dritte Kameraschnittstelle eine oder mehrere Steuerungen beinhaltet, die nicht in der ersten Kameraschnittstelle und der zweiten Kameraschnittstelle beinhaltet sind.
  20. Medium nach Anspruch 13, wobei: die erste virtuelle Kamera, die zweite virtuelle Kamera und die dritte virtuelle Kamera denselben physischen Kamerasensor mit jeweiligen Sensordimensionen verwenden, um Medien zu erzeugen; die Medien, die von einer der virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die kleiner sind als die jeweiligen Sensordimensionen des physischen Kamerasensors; und die Medien, die von einer unterschiedlichen der virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die größer sind als die jeweiligen Sensordimensionen des physischen Kamerasensors.
  21. Medium nach Anspruch 20, wobei die Medien, die von einer unterschiedlichen der virtuellen Kameras erzeugt werden, Dimensionen aufweisen, die dieselben sind wie die Sensordimensionen des physischen Kamerasensors.
  22. Medium nach Anspruch 13, wobei: die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle einen Satz von einer oder mehreren gemeinsamen Steuerungen aufweisen, der eine jeweilige gemeinsame Steuerung beinhaltet; und die jeweilige gemeinsame Steuerung an einem selben Ort auf der Anzeige in der ersten Kameraschnittstelle, der zweiten Kameraschnittstelle und der dritten Kameraschnittstelle angezeigt wird.
  23. Medium nach Anspruch 13, wobei die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle eine Videokameraschnittstelle und zwei unterschiedliche Standbildkameraschnittstellen beinhalten.
  24. Medium nach Anspruch 13, wobei die erste Kameraschnittstelle, die zweite Kameraschnittstelle und die dritte Kameraschnittstelle ausgewählt sind aus dem Satz bestehend aus: einer rechteckigen Standbildkameraschnittstelle, einer Videokameraschnittstelle, einer Panoramastandbildkameraschnittstelle, einer Schwarz-und-Weiß-Standbildkameraschnittstelle und einer quadratischen Standbildkameraschnittstelle.
  25. Medium nach Anspruch 13, wobei: die zweite Kameraschnittstelle eine Steuerung zum Schalten zwischen Kameraschnittstellen beinhaltet, die eine Vielzahl von grafischen Objekten beinhaltet, einschließlich: ein erstes grafisches Objekt, das beschreibend ist für die erste Kameraschnittstelle; ein zweites grafisches Objekt, das beschreibend ist für die zweite Kameraschnittstelle; und ein drittes grafisches Objekt, das beschreibend ist für die dritte Kameraschnittstelle; und wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: in Antwort auf ein Erkennen einer Aktivierung eines jeweiligen grafischen Objekts aus der Vielzahl von grafischen Objekten: in Übereinstimmung mit einer Bestimmung, dass das erste grafische Objekt aktiviert worden ist, Schalten vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen der ersten Kameraschnittstelle; und in Übereinstimmung mit einer Bestimmung, dass das dritte grafische Objekt aktiviert worden ist, Schalten vom Anzeigen der zweiten Kameraschnittstelle zum Anzeigen der dritten Kameraschnittstelle.
  26. Medium nach Anspruch 13, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: während des Anzeigens der dritten Kameraschnittstelle auf der Anzeige, Erkennen einer dritten Geste auf der berührungsempfindlichen Oberfläche; und in Antwort auf das Erkennen der dritten Geste, in Übereinstimmung mit einer Bestimmung, dass die dritte Geste eine Bewegung des Kontakts in die erste Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, Schalten vom Anzeigen der dritten Kameraschnittstelle zum Anzeigen einer vierten Kameraschnittstelle für eine vierte virtuelle Kamera, die zuvor ausgewählt wurde auf der Grundlage von vorherigen Eingaben des Benutzers, um angezeigt zu werden in Antwort auf die Bewegung eines Kontakts in der ersten Richtung, während die dritte Kameraschnittstelle angezeigt wird, wobei: die vierte Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle; die vierte Kameraschnittstelle unterschiedlich ist von der zweiten Kameraschnittstelle; und die vierte Kameraschnittstelle unterschiedlich ist von der dritten Kameraschnittstelle.
  27. Elektronische Vorrichtung umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; eine Kamera; einen oder mehrere Prozessoren; Speicher; und eines oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, um von dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Befehle beinhalten zum: Anzeigen einer ersten Kameraschnittstelle auf der Anzeige für eine erste virtuelle Kamera, die Medien mit ersten Ausgabedimensionen erzeugt; während des Anzeigens der ersten Kameraschnittstelle auf der Anzeige, Erkennen einer ersten Geste, die eine Bewegung eines Kontakts in einer ersten Richtung auf der berührungsempfindlichen Oberfläche beinhaltet, wobei die erste Geste nicht mit einer vorbestimmten Kamera-Schalt-Affordanz interagiert; und in Antwort auf das Erkennen der ersten Geste, Schalten vom Anzeigen der ersten Kameraschnittstelle zum Anzeigen einer zweiten Kameraschnittstelle für eine zweite virtuelle Kamera, die Medien mit zweiten Ausgabedimensionen erzeugt, die unterschiedlich sind von den ersten Ausgabedimensionen, wobei die zweite Kameraschnittstelle unterschiedlich ist von der ersten Kameraschnittstelle.
DE202014004572.0U 2013-06-09 2014-05-30 Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen Active DE202014004572U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361832958P 2013-06-09 2013-06-09
US61/832,958 2013-06-09
US14/290,922 US10168882B2 (en) 2013-06-09 2014-05-29 Device, method, and graphical user interface for switching between camera interfaces
US14/290,922 2014-05-29

Publications (1)

Publication Number Publication Date
DE202014004572U1 true DE202014004572U1 (de) 2014-09-18

Family

ID=51023172

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014004572.0U Active DE202014004572U1 (de) 2013-06-09 2014-05-30 Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen

Country Status (8)

Country Link
US (3) US10168882B2 (de)
EP (2) EP4016275A1 (de)
JP (1) JP6341996B2 (de)
KR (1) KR101751360B1 (de)
CN (2) CN105264480B (de)
DE (1) DE202014004572U1 (de)
HK (2) HK1219147A1 (de)
WO (1) WO2014200734A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017114408A1 (de) * 2017-06-28 2019-01-03 Vorwerk & Co. Interholding Gmbh Küchengerät mit einem berührungs- und druckempfindlichen Bedienfeld

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
USD660860S1 (en) 2010-05-27 2012-05-29 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD736831S1 (en) * 2012-08-27 2015-08-18 Samsung Electronics Co., Ltd. TV receiver display with animated GUI
USD736258S1 (en) * 2012-08-27 2015-08-11 Samsung Electronics Co., Ltd. TV receiver display with animated GUI
USD737854S1 (en) * 2012-08-27 2015-09-01 Samsung Electronics Co., Ltd. TV receiver display with animated graphical user interface
USD745565S1 (en) * 2012-08-27 2015-12-15 Samsung Electronics Company, Ltd. TV receiver display with an animated graphical user interface
USD737325S1 (en) * 2012-08-27 2015-08-25 Samsung Electronics Co., Ltd. TV receiver display with animated GUI
USD736259S1 (en) * 2012-08-27 2015-08-11 Samsung Electronics Co., Ltd. TV receiver display with animated GUI
CN103197889B (zh) * 2013-04-03 2017-02-08 锤子科技(北京)有限公司 一种亮度调整方法、装置及一种电子设备
CN108989647B (zh) 2013-06-13 2020-10-20 核心光电有限公司 双孔径变焦数字摄影机
US9857568B2 (en) 2013-07-04 2018-01-02 Corephotonics Ltd. Miniature telephoto lens assembly
CN108388005A (zh) 2013-07-04 2018-08-10 核心光电有限公司 小型长焦透镜套件
US20170163866A1 (en) * 2013-07-24 2017-06-08 Google Inc. Input System
US9507429B1 (en) * 2013-09-26 2016-11-29 Amazon Technologies, Inc. Obscure cameras as input
US20150130799A1 (en) 2013-11-12 2015-05-14 Fyusion, Inc. Analysis and manipulation of images and video for generation of surround views
KR20150096956A (ko) * 2014-02-17 2015-08-26 삼성전자주식회사 전자 장치에서 정보를 표시하는 방법 및 장치
US9250796B2 (en) * 2014-04-01 2016-02-02 Ideo Llc Video editor
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
USD735754S1 (en) * 2014-09-02 2015-08-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD791143S1 (en) * 2014-09-03 2017-07-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD762693S1 (en) 2014-09-03 2016-08-02 Apple Inc. Display screen or portion thereof with graphical user interface
KR20160049632A (ko) * 2014-10-28 2016-05-10 삼성전자주식회사 렌즈를 인식하는 전자 장치 및 동작 방법
CN112327463B (zh) 2015-01-03 2022-10-14 核心光电有限公司 微型长焦镜头模块和使用该镜头模块的相机
US20160241777A1 (en) * 2015-02-16 2016-08-18 Magisto Ltd. Method and system for implementing a user interface for capturing videos and photos on cameras with a touch screen
USD765098S1 (en) 2015-03-06 2016-08-30 Apple Inc. Display screen or portion thereof with graphical user interface
CN104717367A (zh) * 2015-04-07 2015-06-17 联想(北京)有限公司 电子设备及图像显示方法
DE102015105433A1 (de) * 2015-04-09 2016-10-13 Atlas Elektronik Gmbh Gestensensitiver Bildschirm und Rechner
EP3286915B1 (de) 2015-04-23 2021-12-08 Apple Inc. Benutzerschnittstelle für digitalen sucher für mehrere kameras
CN105072336A (zh) * 2015-07-31 2015-11-18 小米科技有限责任公司 调节拍摄功能的控制方法、装置和设备
USD768201S1 (en) * 2015-08-11 2016-10-04 Microsoft Corporation Display screen with icon group and display screen with icon set
USD768202S1 (en) * 2015-08-11 2016-10-04 Microsoft Corporation Display screen with icon group and display screen with icon set
US11099650B1 (en) 2015-09-07 2021-08-24 Oliver Markus Haynold Camera with improved shutter button
CN107615327A (zh) 2015-10-16 2018-01-19 韩美爱提株式会社 内容生成方法及装置
WO2017128232A1 (zh) * 2016-01-28 2017-08-03 段春燕 一种应用程序图标的排列方法及移动终端
KR102467869B1 (ko) * 2016-02-19 2022-11-16 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP6724454B2 (ja) * 2016-03-22 2020-07-15 富士ゼロックス株式会社 表示制御装置、電子機器及びプログラム
CN105933597A (zh) * 2016-04-19 2016-09-07 乐视控股(北京)有限公司 一种终端的提示方法和终端
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
DK201670609A1 (en) * 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US10289297B2 (en) * 2016-08-26 2019-05-14 Google Llc Animating an image to indicate that the image is pannable
US10547776B2 (en) 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
US20180234660A1 (en) * 2017-02-10 2018-08-16 Nxtgen Technology, Inc. Limited and temporary queuing of video data captured by a portable camera prior to user initiation of video recording commands
EP3553580A1 (de) 2017-02-23 2019-10-16 Corephotonics Ltd. Design gefalteter kameralinsen
CN107295218B (zh) * 2017-05-27 2019-04-12 维沃移动通信有限公司 一种图片处理方法及移动终端
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
JP2020509420A (ja) 2017-07-07 2020-03-26 コアフォトニクス リミテッド 迷光を防止するための屈曲式カメラプリズム設計
EP3465313B1 (de) 2017-07-23 2023-08-30 Corephotonics Ltd. Kompakte gefaltete linsen mit grossen öffnungen
DK180470B1 (en) * 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
CN108234869A (zh) * 2017-12-27 2018-06-29 努比亚技术有限公司 一种拍摄预览控制方法、设备及计算机可读存储介质
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
EP3759538A4 (de) 2018-03-02 2021-05-05 Corephotonics Ltd. Abstandshalterentwurf zur abschwächung von streulicht
CN108513062B (zh) * 2018-03-06 2021-03-23 Oppo广东移动通信有限公司 终端的控制方法及装置、可读存储介质和计算机设备
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
JP7073238B2 (ja) * 2018-05-07 2022-05-23 アップル インコーポレイテッド クリエイティブカメラ
KR102637122B1 (ko) * 2018-05-07 2024-02-16 애플 인크. 크리에이티브 카메라
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
KR102357342B1 (ko) * 2018-05-07 2022-02-08 애플 인크. 크리에이티브 카메라
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
DK180316B1 (en) * 2018-06-03 2020-11-06 Apple Inc Devices and methods for interacting with an application switching user interface
CN109005576A (zh) * 2018-06-11 2018-12-14 珠海格力电器股份有限公司 一种终端相机的切换方法及终端设备
USD868094S1 (en) 2018-08-30 2019-11-26 Apple Inc. Electronic device with graphical user interface
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
USD898755S1 (en) 2018-09-11 2020-10-13 Apple Inc. Electronic device with graphical user interface
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US10942633B2 (en) * 2018-12-20 2021-03-09 Microsoft Technology Licensing, Llc Interactive viewing and editing system
JP7252247B2 (ja) 2019-01-03 2023-04-04 コアフォトニクス リミテッド 2つのズーム状態を有する少なくとも1つのカメラを備えるマルチアパーチャカメラ
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
KR102606345B1 (ko) 2019-02-25 2023-11-23 코어포토닉스 리미티드 적어도 하나의 2 상태 줌 카메라를 갖는 멀티-애퍼처 카메라
CN110083282B (zh) * 2019-04-26 2023-12-15 腾讯科技(深圳)有限公司 基于信息展示页面的人机交互方法、装置、终端及介质
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
US11138798B2 (en) * 2019-05-06 2021-10-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN113841087A (zh) * 2019-05-27 2021-12-24 索尼集团公司 构图控制设备、构图控制方法和程序
CN110636353B (zh) * 2019-06-10 2022-09-02 海信视像科技股份有限公司 一种显示设备
CN112689783B (zh) 2019-08-21 2022-04-12 核心光电有限公司 用于大传感器格式的低镜头总长
CN112449101A (zh) * 2019-09-05 2021-03-05 华为技术有限公司 一种拍摄方法及电子设备
CN110688018B (zh) * 2019-11-05 2023-12-19 广东虚拟现实科技有限公司 虚拟画面的控制方法、装置、终端设备及存储介质
US11656538B2 (en) 2019-11-25 2023-05-23 Corephotonics Ltd. Folded zoom camera module with adaptive aperture
KR20230019225A (ko) 2020-01-08 2023-02-07 코어포토닉스 리미티드 멀티-애퍼처 줌 디지털 카메라 및 그 사용 방법
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
KR102617779B1 (ko) 2020-05-30 2023-12-22 코어포토닉스 리미티드 슈퍼 매크로 이미지를 얻기 위한 시스템 및 방법
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
WO2022023855A1 (en) 2020-07-31 2022-02-03 Corephotonics Ltd. Folded macro-tele camera lens designs
WO2022060465A1 (en) * 2020-09-18 2022-03-24 Google Llc Interface for communicating a threshold in a camera
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
EP4066036A4 (de) 2020-12-01 2023-01-25 Corephotonics Ltd. Gefaltete kamera mit kontinuierlich adaptivem zoom-faktor
CN117376689A (zh) 2021-01-25 2024-01-09 核心光电有限公司 用于紧凑型数码相机的镜头系统
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
CN113473005B (zh) * 2021-06-16 2022-08-09 荣耀终端有限公司 拍摄中转场动效插入方法、设备、存储介质
CN115379126B (zh) * 2022-10-27 2023-03-31 荣耀终端有限公司 一种摄像头切换方法及相关电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3977684B2 (ja) * 2002-05-21 2007-09-19 株式会社東芝 デジタルスチルカメラ
CN101064773A (zh) * 2006-04-26 2007-10-31 杭州草莓资讯有限公司 多镜头实景合成数码照像机系统与方法
US8106856B2 (en) * 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
CN101529367B (zh) * 2006-09-06 2016-02-17 苹果公司 用于便携式多功能设备的语音邮件管理器
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
JP4957750B2 (ja) 2008-07-31 2012-06-20 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9383916B2 (en) 2009-09-30 2016-07-05 Microsoft Technology Licensing, Llc Dynamic image presentation
KR101595029B1 (ko) * 2009-11-18 2016-02-17 엘지전자 주식회사 이동단말기 및 그 제어방법
EP2341738B1 (de) * 2009-12-29 2017-03-29 Lg Electronics Inc. Mobiles Endgerät mit Wi-Fi-Modul das in Energiesparmodus betrieben wird und eine AP-Funktion bereitstellt und Verfahren zum Steuern des Endgeräts
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8744420B2 (en) * 2010-04-07 2014-06-03 Apple Inc. Establishing a video conference during a phone call
US9052926B2 (en) * 2010-04-07 2015-06-09 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
JP2011249887A (ja) * 2010-05-24 2011-12-08 Canon Inc 撮像装置
KR101694154B1 (ko) * 2010-06-29 2017-01-09 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8811948B2 (en) * 2010-07-09 2014-08-19 Microsoft Corporation Above-lock camera access
US10140301B2 (en) * 2010-09-01 2018-11-27 Apple Inc. Device, method, and graphical user interface for selecting and using sets of media player controls
JP5658580B2 (ja) 2011-01-28 2015-01-28 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記録媒体
JP5766019B2 (ja) * 2011-05-11 2015-08-19 シャープ株式会社 2眼撮像装置、その制御方法、および、制御プログラムおよびコンピュータ読み取り可能な記録媒体
WO2013051259A1 (ja) * 2011-10-07 2013-04-11 パナソニック株式会社 撮影装置及び撮影方法
US9325889B2 (en) * 2012-06-08 2016-04-26 Samsung Electronics Co., Ltd. Continuous video capture during switch between video capture devices
US20150172238A1 (en) * 2013-12-18 2015-06-18 Lutebox Ltd. Sharing content on devices with reduced user actions

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11a
IEEE 802.11b
IEEE 802.11g
IEEE 802.11n

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017114408A1 (de) * 2017-06-28 2019-01-03 Vorwerk & Co. Interholding Gmbh Küchengerät mit einem berührungs- und druckempfindlichen Bedienfeld

Also Published As

Publication number Publication date
CN105264480A (zh) 2016-01-20
EP3008573B1 (de) 2022-03-09
US20220057926A1 (en) 2022-02-24
WO2014200734A1 (en) 2014-12-18
KR20160016910A (ko) 2016-02-15
US20190121530A1 (en) 2019-04-25
HK1223171A1 (zh) 2017-07-21
CN105264480B (zh) 2019-11-01
CN110795018A (zh) 2020-02-14
EP3008573A1 (de) 2016-04-20
US10168882B2 (en) 2019-01-01
US11112956B2 (en) 2021-09-07
JP2016521886A (ja) 2016-07-25
EP4016275A1 (de) 2022-06-22
HK1219147A1 (zh) 2017-03-24
US20140362274A1 (en) 2014-12-11
CN110795018B (zh) 2023-09-29
JP6341996B2 (ja) 2018-06-13
KR101751360B1 (ko) 2017-06-27

Similar Documents

Publication Publication Date Title
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE202014004554U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
CN110096206B (zh) 用于调节控件的外观的设备、方法和图形用户界面
DE202016001489U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zum Anzeigen und Verwenden von Menüs
DE202014004549U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
DE202013012233U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
DE202016002906U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202016006323U1 (de) Vorrichtung zum Navigieren zwischen Benutzerschnittstellen
DE202016001819U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016001845U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016001513U1 (de) Vorrichtung und Benutzerschnittstelle zur Verarbeitung einer Intensität von Berührungskontakten
DE202015006141U1 (de) Elektronische Touch-Kommunikation
DE112015004021T5 (de) Elektronische touch-kommunikation
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE202014004555U1 (de) Vorrichtung zur Erzeugung von Benutzerschnittstellen aus einer Vorlage
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202015005999U1 (de) Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
DE202014004560U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Synchronisieren zweier oder mehrerer Anzeigen
DE102016214955A1 (de) Latenzfreier digitaler Assistent
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE112016001105T5 (de) Reagieren von konkurrierenden Vorrichtungen auf Sprachauslöser

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20141030

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years