JP6545155B2 - Device, method and graphical user interface for synchronizing two or more displays - Google Patents

Device, method and graphical user interface for synchronizing two or more displays Download PDF

Info

Publication number
JP6545155B2
JP6545155B2 JP2016518365A JP2016518365A JP6545155B2 JP 6545155 B2 JP6545155 B2 JP 6545155B2 JP 2016518365 A JP2016518365 A JP 2016518365A JP 2016518365 A JP2016518365 A JP 2016518365A JP 6545155 B2 JP6545155 B2 JP 6545155B2
Authority
JP
Japan
Prior art keywords
display
input
destination
user interface
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016518365A
Other languages
Japanese (ja)
Other versions
JP2016529580A (en
Inventor
ジャスティン サンタマリア,
ジャスティン サンタマリア,
イムラン チャウドリ,
イムラン チャウドリ,
ドナルド, ダブリュー. ピッチェル,
ドナルド, ダブリュー. ピッチェル,
ジョージ フィノ,
ジョージ フィノ,
エミリー, クラーク シューベルト,
エミリー, クラーク シューベルト,
ヨシュア, エイチ. シャファー,
ヨシュア, エイチ. シャファー,
ボブ ブラッドリー,
ボブ ブラッドリー,
エリック リー,
エリック リー,
スコット ヘルツ,
スコット ヘルツ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority claimed from US14/291,970 external-priority patent/US9965035B2/en
Publication of JP2016529580A publication Critical patent/JP2016529580A/en
Application granted granted Critical
Publication of JP6545155B2 publication Critical patent/JP6545155B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724098Interfacing with an on-board device of a vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/38Universal adapter
    • G06F2213/3806Mobile device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Digital Computer Display Output (AREA)
  • Traffic Control Systems (AREA)

Description

関連出願の相互参照Cross-reference to related applications

本出願は、以下の出願に関連する。2013年3月15日出願の「Voice and Touch User Interface」と題された米国仮出願第61/793,924号、2011年2月11日出願の「Pushing a Graphical User Interface to a Remote Device with Display Rules Provided by the Remote Device」と題された米国出願第13/032,614号、2010年1月6日出願の「Pushing a User Interface to a Remote Device」と題された米国出願第12/683,218号、2008年5月13日出願の「Pushing a User Interface to a Remote Device」と題された米国出願第12/119,960号、2011年7月1日出願の「Pushing a User Interface to a Remote Device」と題された米国出願第13/175,581号、2011年6月15日出願の「Pushing a Graphical User Interface to a Remote Device with Display Rules Provided by the Remote Device」と題された米国出願第13/161,339号、2011年9月30日出願の「Automatically Adapting User Interfaces for Hands−Free Interaction」と題された米国出願第13/250,947号、2011年1月10日出願の「Intelligent Automated Assistant」と題された米国出願第12/987,982号、2010年1月18日出願の「Intelligent Automated Assistant」と題された米国仮出願第61/295,774号、2011年6月3日出願の「Generating and Processing Data Items that Represent Tasks to Perform」と題された米国仮出願第61/493,201号、2012年6月9日出願の「Automatically Adapting User Interface for Hands−Free Interaction」と題された米国仮出願第61/657,744号、2008年9月9日出願の「Radio with Personal DJ」と題された米国出願第12/207,316号、2012年11月16日出願の「System and Method for Negotiating Control of a Shared Audio or Visual Resource」と題された米国仮出願第61/727,554号、2013年6月8日出願の「Mapping Application with Several User Interfaces」と題された米国出願第61/832,818号、2013年6月8日出願の「Device and Method for Generating User Interfaces from a Template」と題された米国仮出願第61/832,841号、2013年6月8日出願の「Application Gateway for Providing Different User Interfaces for Limited Distraction and Non−Limited Distraction Contexts」と題された米国出願第13/913,428号。これらの出願は、その全体が参照により本明細書に組み込まれる。   This application is related to the following applications: US Provisional Application No. 61 / 793,924 entitled "Voice and Touch User Interface", filed March 15, 2013, "Pushing a Graphical User Interface to a Remote Device with Display", filed February 11, 2011 No. 13 / 032,614, entitled "Rules Provided by the Remote Device", and U.S. Application No. 12/683, entitled "Pushing a User Interface to a Remote Device", filed Jan. 6, 2010. "Pushing a User Interface to a Remote Device" filed on May 13, 2008, No. 218 No. 12 / 119,960 entitled "Pushing a User Interface to a Remote Device" filed Jul. 1, 2011 No. 13 / 175,581 entitled "Pushing a User Interface to a Remote Device", June 15, 2011 No. 13/16 1,339 entitled “Pushing a Graphical User Interface to a Remote Device with Display Rules Provided by the Remote Device”, filed on Sep. 30, 2011, “Automatically Adapting User Interfaces for September 30, 2011 No. 13 / 250,947 entitled "Hands-Free Interaction", 2 US application Ser. No. 12 / 987,982 entitled “Intelligent Automated Assistant” filed on Jan. 10, 2011, and US Provisional Application Ser. No. 61/2006 entitled “Intelligent Automated Assistant” filed on Jan. 18, 2010 No. 295,774, filed on Jun. 3, 2011, entitled "Generating and Processing Data Items that Representative Tasks to Perform", and provisionally filed US Provisional Application No. 61 / 493,201, filed on Jun. 9, 2012, "Automatically US Provisional Application No. 61 / 657,744 entitled "Adapting User Interface for Hands-Free Interaction" No. 12 / 207,316, entitled "Radio with Personal DJ", filed Sep. 9, 2008, "System and Method for Negotiation Control of a Shared Audio or Visual Application" filed Nov. 16, 2012. US Provisional Application No. 61 / 727,554 entitled “Resource”, US Application Ser. No. 61 / 832,818 entitled “Mapping Application with Several User Interfaces”, filed Jun. 8, 2013, 2013 6 Titled “Device and Method for Generating User Interfaces from a Template” U.S. Provisional Application No. 61 / 832,841, filed on June 8, 2013, entitled "Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts", U.S. Application No. 13 / 913,428 . These applications are incorporated herein by reference in their entirety.

本出願は概して、限定するものではないが、2つ以上のディスプレイを同期させる、タッチ感知面を備える電子デバイスを含む、タッチ感知面を備える電子デバイスに関する。   The present application relates generally to an electronic device with a touch sensitive surface, including but not limited to an electronic device with a touch sensitive surface that synchronizes two or more displays.

発明の背景Background of the invention

コンピュータ及び他の電子コンピューティングデバイス用の入力デバイスとしての、タッチ感知面の使用は、近年では、著しく増大している。例示的なタッチ感知面としては、タッチパッド及びタッチスクリーンディスプレイが挙げられる。このような面は、第1の電子デバイスに関連付けられた第1のディスプレイ上のユーザインタフェースオブジェクトを操作するために、広く使用されている。   The use of touch sensitive surfaces as input devices for computers and other electronic computing devices has increased significantly in recent years. Exemplary touch sensitive surfaces include touch pads and touch screen displays. Such surfaces are widely used to manipulate user interface objects on a first display associated with a first electronic device.

例示的な操作としては、1つ以上のユーザインタフェースオブジェクトの位置及び/若しくはサイズを調節すること、ボタンをアクティブにすること、ユーザインタフェースオブジェクトによって表されるファイル/アプリケーションを開くこと、又は他の方式でユーザインタフェースを操作することが挙げられる。例示的なユーザインタフェースオブジェクトとしては、デジタル画像、ビデオ、テキスト、アイコン、ボタンなどの制御要素、及び他のグラフィックが挙げられる。   Exemplary operations include adjusting the position and / or size of one or more user interface objects, activating a button, opening a file / application represented by a user interface object, or other method Operating the user interface. Exemplary user interface objects include digital images, video, text, icons, control elements such as buttons, and other graphics.

ユーザは、異なるコンテンツを表示することができる複数の異なるディスプレイへのアクセスを有する場合がある。例えば、自動車又は他の車両内の同乗者は、スマートフォン及びそのディスプレイ、と同時に自動車情報/エンターテイメントシステム及びそのディスプレイ(単数又は複数)へのアクセスを有してもよい。ただし、複数の異なるディスプレイが使用可能であるとき、これらの異なるディスプレイ上にコンテンツを表示するための方法は、煩雑かつ非効率的である。例えば、同じ情報を異なるディスプレイ上に表示することは、概して役立つ追加情報をユーザに提供せず、かつ無関係な情報を異なるディスプレイ上に表示することは、ユーザにとって紛らわしく非効率的であり、場合によっては、ユーザが関連コンテンツを両方のデバイスに表示し続けるために、余分な時間を費やすことになる。加えて、これらの方法は必要以上に時間がかかり、それによってエネルギーを浪費する。この後者の考慮事項は、電池駆動式デバイスにおいては特に重要である。   A user may have access to multiple different displays that can display different content. For example, a passenger in a car or other vehicle may have access to a smartphone and its display, as well as a car information / entertainment system and its display (s). However, when multiple different displays are available, the method for displaying content on these different displays is cumbersome and inefficient. For example, displaying the same information on different displays does not generally provide the user with useful additional information, and displaying irrelevant information on different displays is confusingly and inefficient for the user, and in some cases Will spend extra time for the user to keep displaying related content on both devices. In addition, these methods take longer than necessary, thereby wasting energy. This latter consideration is particularly important in battery powered devices.

したがって、2つ以上のディスプレイを同期させるための、より効率的な方法及びインタフェースを備える、電子デバイスが必要とされている。このような方法及びインタフェースは、任意選択的に、2つ以上のディスプレイ上に情報を表示するための従来の方法を補完するか、又は置き換える。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマン−マシンインタフェースを作り出す。電池駆動式デバイスの場合、このような方法及びインタフェースにより、電力が節約され、電池充電の時間間隔が延びる。   Thus, there is a need for an electronic device that provides more efficient methods and interfaces for synchronizing two or more displays. Such methods and interfaces optionally complement or replace conventional methods for displaying information on more than one display. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery powered devices, such methods and interfaces conserve power and extend the time between battery charges.

更に、多くの状況では、ディスプレイ上に表示されたこのようなユーザインタフェースとの対話において使用するためのコントロールは、しばしば単一のディスプレイに厳格に関連付けられる。これはコントロールの柔軟性を制限し、その結果、ユーザインタフェースの効率が低下し得る。したがって、コントロール及び他の入力ソースを、異なるディスプレイ上に柔軟な様式で表示されたユーザインタフェースに連続的にマップするシステムが必要とされている。ただし、異なるコントロールを異なるディスプレイにマップするときに、コントロールが誤って不適切なディスプレイに関連付けられやすくなる。更に、特定のコントロールに関連付けられるディスプレイを判定するのに長い時間がかかると、ユーザインタフェースとのユーザの対話において遅延が発生し、それによりユーザエクスペリエンスの質が低下し得る。すなわち、コントロール及び他の入力ソースを、2つ以上のディスプレイのうちの異なるディスプレイにマップするための、高速で正確、かつ効率的なシステム及び方法が必要とされている。   Furthermore, in many situations, controls for use in interacting with such user interfaces displayed on the display are often tightly associated with a single display. This limits the flexibility of the control, which may reduce the efficiency of the user interface. Thus, there is a need for a system that continuously maps controls and other input sources to user interfaces displayed in a flexible manner on different displays. However, when you map different controls to different displays, the controls may be mistakenly associated with the wrong display. Furthermore, taking a long time to determine the display associated with a particular control may cause delays in the user's interaction with the user interface, thereby degrading the quality of the user experience. That is, there is a need for a fast, accurate, and efficient system and method for mapping controls and other input sources to different ones of two or more displays.

タッチ感知面を備える電子デバイス用のユーザインタフェースに関連付けられた、上記の欠陥及び他の問題点は、開示されるデバイスによって低減されるか、又は取り除かれる。いくつかの実施形態では、このデバイスは、デスクトップコンピュータである。いくつかの実施形態では、このデバイスは、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態では、このデバイスは、タッチパッドを有する。いくつかの実施形態では、このデバイスは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。一部の実施形態では、このデバイスは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためにメモリ内に記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。一部の実施形態では、ユーザは、主にタッチ感知面上での指の接触及びジェスチャを介して、GUIと対話する。いくつかの実施形態では、それらの機能としては、任意選択的に、画像編集、描画、プレゼンティング、ワードプロセッシング、ウェブサイトの作成、ディスクオーサリング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、及び/又はデジタルビデオの再生が挙げられる。これらの機能を実行するための実行可能命令は、1つ以上のプロセッサによる実行のために構成された、非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に、任意選択的に含まれる。   The above-described deficiencies and other issues associated with user interfaces for electronic devices with touch sensitive surfaces are reduced or eliminated by the disclosed devices. In some embodiments, the device is a desktop computer. In some embodiments, the device is portable (eg, a notebook computer, a tablet computer, or a handheld device). In some embodiments, the device comprises a touch pad. In some embodiments, the device has a touch sensitive display (also known as a "touch screen" or "touch screen display"). In some embodiments, the device includes a graphical user interface (GUI), one or more processors, a memory, and one or more modules, programs, or programs stored in the memory to perform multiple functions. Have an instruction set. In some embodiments, the user interacts with the GUI primarily through finger contact and gestures on the touch sensitive surface. In some embodiments, those functions optionally include image editing, drawing, presenting, word processing, website creation, disc authoring, spreadsheet creation, game play, making phone calls, Video conferencing, emailing, instant messaging, training support, digital photography, digital video photography, web browsing, digital music playback, and / or digital video playback. Executable instructions for performing these functions are optionally included in a non-transitory computer readable storage medium or other computer program product configured for execution by one or more processors.

いくつかの実施形態によれば、第1のディスプレイを備える第1の電子デバイスにおいて、方法が実行される。方法は、第1のユーザインタフェースを第1のディスプレイ上に表示することを含み、第1のユーザインタフェースは複数の選択可能なオブジェクト間の選択を可能にし、第1のユーザインタフェースは第1のディスプレイと異なる第2のディスプレイ上に表示された第2のユーザインタフェースに対応し、複数の選択可能なオブジェクトのうちの第1のオブジェクトは、選択されたオブジェクトとして第2のユーザインタフェース内に表示される。方法は、第1のオブジェクトが選択されたオブジェクトとして第2のユーザインタフェース内に表示される間、複数の選択可能なオブジェクトのうちの第2のオブジェクトに関する情報を第1のユーザインタフェース内に表示するための要求に対応する、ユーザからの第1の入力を検出することと、第1の入力を検出したことに応じて、第2のユーザインタフェース内への選択されたオブジェクトとしての第1のオブジェクトの表示を維持しながら、第1の入力に従って、第2のオブジェクトに関する対応する情報を表示するように第1のディスプレイ上の第1のユーザインタフェースを更新することと、第1の入力に従って第1のユーザインタフェースを更新した後、第2のオブジェクトを選択されたオブジェクトとして選択するための要求に対応する、ユーザからの第2の入力を検出することと、を含む。方法は、第2の入力を検出したことに応じて、第2の入力に従って、第2のオブジェクトを選択されたオブジェクトとして表示するように、第1のディスプレイ上の第1のユーザインタフェースを更新することと、第1のオブジェクトに代わる選択されたオブジェクトとして第2のオブジェクトを表示するように第2のディスプレイ上の第2のユーザインタフェースを更新することを可能にする情報を第2のディスプレイに提供することと、を更に含む。   According to some embodiments, a method is performed on a first electronic device comprising a first display. The method includes displaying a first user interface on a first display, the first user interface enabling selection between a plurality of selectable objects, the first user interface being a first display Corresponding to a second user interface displayed on a second display different from the first one of the plurality of selectable objects is displayed in the second user interface as the selected object . The method displays in the first user interface information regarding a second one of the plurality of selectable objects while the first object is displayed in the second user interface as the selected object. A first object as a selected object in a second user interface in response to detecting a first input from the user, and in response to detecting the first input, corresponding to the request for Updating the first user interface on the first display to display corresponding information on the second object according to the first input while maintaining the display of Required to select the second object as the selected object after updating the It corresponds to includes detecting a second input from the user. The method updates the first user interface on the first display to display the second object as the selected object according to the second input in response to detecting the second input. And providing information to the second display that allows the second user interface on the second display to be updated to display the second object as a selected object instead of the first object Further including:

いくつかの実施形態によれば、第1の電子デバイスは、第1のユーザインタフェースを第1のディスプレイユニット上に表示するように構成された第1のディスプレイユニットを含み、第1のユーザインタフェースは複数の選択可能なオブジェクト間の選択を可能にし、第1のユーザインタフェースは第1のディスプレイユニットと異なる第2のディスプレイユニット上に表示された第2のユーザインタフェースに対応し、複数の選択可能なオブジェクトのうちの第1のオブジェクトは、選択されたオブジェクトとして第2のユーザインタフェース内に表示される。この第1の電子デバイスはまた、第1のディスプレイユニットに結合された処理ユニットを含む。処理ユニットは、第1のオブジェクトが選択されたオブジェクトとして第2のユーザインタフェース内に表示されている間、第1のユーザインタフェース内の複数の選択可能なオブジェクトのうちの第2のオブジェクトに関する情報の表示を可能にするための要求に対応する、ユーザからの第1の入力を検出し、第1の入力を検出したことに応じて、第2のユーザインタフェース内への第1のオブジェクトの選択されたオブジェクトとしての表示を維持しながら、第1の入力に従って、第2のオブジェクトに関する対応する情報の表示を可能にするように第1のディスプレイユニット上の第1のユーザインタフェースを更新し、第1の入力に従って第1のユーザインタフェースを更新した後、第2のオブジェクトを選択されたオブジェクトとして選択するための要求に対応する、ユーザからの第2の入力を検出するように構成される。処理ユニットは、第2の入力を検出したことに応じて、第2の入力に従って、選択されたオブジェクトとしての第2のオブジェクトの表示を可能にするように、第1のディスプレイユニット上の第1のユーザインタフェースを更新し、第1のオブジェクトに代わる選択されたオブジェクトとしての第2のオブジェクトの表示を可能にするように、第2のディスプレイユニット上の第2のユーザインタフェースを更新することを可能にする情報を、第2のディスプレイユニットに提供するように更に構成される。   According to some embodiments, the first electronic device comprises a first display unit configured to display a first user interface on a first display unit, the first user interface comprising The selection between a plurality of selectable objects is possible, the first user interface corresponding to a second user interface displayed on a second display unit different from the first display unit, and a plurality of selectable The first of the objects is displayed in the second user interface as the selected object. The first electronic device also includes a processing unit coupled to the first display unit. The processing unit may, while the first object is displayed as the selected object in the second user interface, of information on a second one of the plurality of selectable objects in the first user interface. Selecting a first object into a second user interface in response to detecting a first input from the user corresponding to the request to enable display and detecting the first input; Updating the first user interface on the first display unit to enable the display of the corresponding information on the second object according to the first input, while maintaining the display as the first object; After updating the first user interface according to the input of the second object with the selected object It corresponds to a request to select Te, configured to detect a second input from the user. The processing unit is responsive to detecting the second input to cause the display of the second object as the selected object according to the second input, the first on the first display unit To update the second user interface on the second display unit to update the user interface of the second display to allow the display of the second object as a selected object instead of the first object Are further configured to provide information to the second display unit.

いくつかの実施形態によれば、方法は、ポータブルデバイスディスプレイを備え、かつ車両の車両ディスプレイと通信する、ポータブル電子デバイスにおいて実行される。方法は、複数の目的地候補を含む地図検索結果のセットを取得することと、複数の目的地候補からの目的地の選択を可能にするポータブルデバイスナビゲーションインタフェースをポータブルデバイスディスプレイ上に表示することと、車両ディスプレイが車両ナビゲーションインタフェースを表示することを可能にする情報を車両ディスプレイに送信することであって、複数の目的地候補のうちの第1の目的地が車両ナビゲーションインタフェース内の選択された目的地である、送信することと、を含む。方法は、第1の目的地が車両ナビゲーションインタフェース内の選択された目的地である間に、第1の目的地と異なる複数の目的地候補内の1つ以上の目的地候補に関する情報を表示するための要求に対応する、ユーザからの第1の入力を検出することと、第1の入力を検出したことに応じて、車両ディスプレイ上の車両ナビゲーションインタフェースを更新することなく、第1の入力に従ってポータブルデバイスディスプレイ上のポータブルデバイスナビゲーションインタフェースを更新することと、第1の入力に従ってポータブルデバイスナビゲーションインタフェースを更新した後、選択された目的地として複数の目的地候補内の第2の目的地を選択するための要求に対応する、ユーザからの第2の入力を検出することと、を含む。方法は、第2の入力を検出したことに応じて、第2の入力に従って、選択された目的地として第2の目的地を表示するようにポータブルデバイスディスプレイ上のポータブルデバイスナビゲーションインタフェースを更新することと、車両ディスプレイが、第2の入力に従って、選択された目的地として第2の目的地を表示するように車両ナビゲーションインタフェースを更新することを可能にする情報を車両ディスプレイに送信することと、を更に含む。   According to some embodiments, the method is implemented in a portable electronic device comprising a portable device display and in communication with a vehicle display of a vehicle. The method comprises obtaining a set of map search results comprising a plurality of destination candidates and displaying on the portable device display a portable device navigation interface enabling selection of a destination from the plurality of destination candidates. Transmitting to the vehicle display information enabling the vehicle display to display the vehicle navigation interface, the first destination of the plurality of possible destinations being selected in the vehicle navigation interface Is a ground, including transmitting. The method displays information about one or more destination candidates in a plurality of destination candidates different from the first destination while the first destination is a selected destination in the vehicle navigation interface According to the first input without updating the vehicle navigation interface on the vehicle display in response to detecting the first input from the user and to detecting the first input corresponding to the request for Updating the portable device navigation interface on the portable device display, and updating the portable device navigation interface according to the first input, then selecting a second destination among the plurality of possible destinations as the selected destination And detecting a second input from the user corresponding to the request. The method updates the portable device navigation interface on the portable device display to display the second destination as the selected destination according to the second input in response to detecting the second input. And transmitting information to the vehicle display enabling the vehicle display to update the vehicle navigation interface to display the second destination as the selected destination according to the second input. Further include.

いくつかの実施形態によれば、ポータブル電子デバイスは、ポータブルデバイスナビゲーションインタフェースを表示するように構成されたポータブルデバイスディスプレイユニットと、車両の車両ディスプレイユニットと通信するように構成された通信インタフェースユニットと、ポータブルデバイスディスプレイユニット及び通信インタフェースユニットに結合された処理ユニットと、を含む。処理ユニットは、複数の目的地候補を含む地図検索結果のセットを取得し、複数の目的地候補からの目的地の選択を可能にするポータブルデバイスナビゲーションインタフェースのポータブルデバイスディスプレイユニット上への表示を可能にし、車両ディスプレイユニットが車両ナビゲーションインタフェースの表示を可能にすることを可能にする情報を車両ディスプレイユニットに送信し、複数の目的地候補のうちの第1の目的地が車両ナビゲーションインタフェース内の選択された目的地である、ように構成される。処理ユニットはまた、第1の目的地が車両ナビゲーションインタフェース内の選択された目的地である間に、第1の目的地と異なる、複数の目的地候補のうちの1つ以上の目的地候補に関する情報の表示を可能にするための要求に対応する、ユーザからの第1の入力を検出し、第1の入力を検出したことに応じて、車両ディスプレイユニット上の車両ナビゲーションインタフェースを更新することなく、第1の入力に従ってポータブルデバイスディスプレイユニット上のポータブルデバイスナビゲーションインタフェースを更新し、第1の入力に従ってポータブルデバイスナビゲーションインタフェースを更新した後、複数の目的地候補のうちの第2の目的地を選択された目的地として選択するための要求に対応する、ユーザからの第2の入力を検出するように構成される。処理ユニットは、第2の入力を検出したことに応じて、第2の入力に従って、選択された目的地としての第2の目的地の表示を可能にするように、ポータブルデバイスディスプレイユニット上のポータブルデバイスナビゲーションインタフェースを更新し、車両ディスプレイユニットが、第2の入力に従って、第2の目的地の選択された目的地としての表示を可能にするように車両ナビゲーションインタフェースを更新することを可能にする情報を車両ディスプレイユニットに送信するように更に構成される。   According to some embodiments, the portable electronic device comprises a portable device display unit configured to display a portable device navigation interface, and a communication interface unit configured to communicate with a vehicle display unit of a vehicle. A processing unit coupled to the portable device display unit and the communication interface unit. The processing unit is capable of obtaining a set of map search results including a plurality of potential destinations and displaying on a portable device display unit a portable device navigation interface enabling selection of destinations from a plurality of potential destinations Information to enable the vehicle display unit to enable display of the vehicle navigation interface to the vehicle display unit, the first destination of the plurality of possible destinations being selected in the vehicle navigation interface Configured to be a destination. The processing unit also relates to one or more destination candidates out of a plurality of destination candidates different from the first destination while the first destination is a selected destination in the vehicle navigation interface. A first input from a user is detected in response to a request to enable display of information, and in response to detecting the first input, without updating the vehicle navigation interface on the vehicle display unit Updating the portable device navigation interface on the portable device display unit according to the first input, and updating the portable device navigation interface according to the first input, and then selecting a second destination of the plurality of possible destinations The second input from the user, corresponding to the request to select as the destination Configured to detect. The processing unit is portable on the portable device display unit to enable the display of the second destination as the selected destination according to the second input in response to detecting the second input. Information enabling the device navigation interface to be updated and the vehicle display unit to update the vehicle navigation interface to enable the display of the second destination as a selected destination according to the second input Are further configured to transmit to the vehicle display unit.

いくつかの実施形態によれば、方法は、第1のディスプレイ及び第2のディスプレイを含む複数のディスプレイと通信する電子デバイスにおいて実行される。方法は、複数の入力ソースのうちの第1の入力ソースによって検出された第1の入力を示す第1の入力情報を受信することを含み、第1の入力情報は、第1の入力ソースに対する第1の識別子と、第1の入力を記述する第1の入力記述と、を含む。方法はまた、第1の識別子と、入力ソースを対応するディスプレイにマップする入力ソースマッピングと、に基づき、第1の影響を受けるディスプレイを複数のディスプレイから選択することも含む。方法は、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を、第1の影響を受けるディスプレイに送信することを更に含む。   According to some embodiments, the method is performed at an electronic device in communication with a plurality of displays, including a first display and a second display. The method includes receiving first input information indicative of a first input detected by a first input source of the plurality of input sources, the first input information being to the first input source. A first identifier and a first input description describing a first input. The method also includes selecting a first affected display from the plurality of displays based on the first identifier and an input source mapping that maps the input source to the corresponding display. The method further includes transmitting, to the first affected display, update information that enables the first affected display to be updated according to the first input.

いくつかの実施形態によれば、電子デバイスは、第1のディスプレイユニット及び第2のディスプレイユニットを含む複数のディスプレイユニットと通信するように構成された通信インタフェースユニットと、通信インタフェースユニットに結合された処理ユニットと、を含む。処理ユニットは、複数の入力ソースのうちの第1の入力ソースによって検出された第1の入力を示す第1の入力情報を受信するように構成され、第1の入力情報は、第1の入力ソースに対する第1の識別子と、第1の入力を記述する第1の入力記述と、を含む。処理ユニットはまた、第1の識別子と、入力ソースを対応するディスプレイにマップする入力ソースマッピングと、に基づき、第1の影響を受けるディスプレイを複数のディスプレイから選択するようにも構成される。処理ユニットは、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を、第1の影響を受けるディスプレイに送信するように更に構成される。   According to some embodiments, an electronic device is coupled to a communication interface unit configured to communicate with a plurality of display units, including a first display unit and a second display unit. And a processing unit. The processing unit is configured to receive first input information indicative of a first input detected by a first input source of the plurality of input sources, the first input information being a first input A first identifier for the source and a first input description describing the first input. The processing unit is also configured to select the first affected display from the plurality of displays based on the first identifier and the input source mapping that maps the input source to the corresponding display. The processing unit is further configured to send update information to the first affected display enabling to update the first affected display according to the first input.

いくつかの実施形態によれば、電子デバイスは、1つ以上のディスプレイ(例えば、第1のディスプレイ、第2のディスプレイ、ポータブルデバイスディスプレイ、及び/又は車両ディスプレイ)と通信するための通信インタフェースと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を含み、1つ以上のプログラムはメモリ内に記憶され、1つ以上のプロセッサによって実行されるように構成され、1つ以上のプログラムは本明細書に記載されている方法のいずれかの動作を実行するための命令を含む。いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体は、その内部に命令を記憶しており、この命令は、1つ以上のディスプレイと通信する電子デバイスによって実行されると、本明細書において参照及び説明されている方法のうちのいずれかの動作を、そのデバイスに実行させる。いくつかの実施形態によれば、1つ以上のディスプレイと通信し、メモリと、このメモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を備える電子デバイス上の、グラフィカルユーザインタフェースは、上述の方法のうちのいずれかで表示される要素のうちの1つ以上を含み、それらの要素は、本明細書に記載されている方法のうちのいずれかで説明されるように、入力に応じて更新される。いくつかの実施形態によれば、1つ以上のディスプレイと通信する電子デバイスが、本明細書に記載されている方法のうちのいずれかの動作を実行するための手段を含む。いくつかの実施形態によれば、1つ以上のディスプレイと通信する電子デバイスにおいて使用される情報処理装置が、本明細書に記載されている方法のうちのいずれかの動作を実行するための手段を含む。   According to some embodiments, the electronic device is a communication interface for communicating with one or more displays (eg, a first display, a second display, a portable device display, and / or a vehicle display); One or more processors, a memory, and one or more programs, wherein the one or more programs are stored in the memory and configured to be executed by the one or more processors, the one or more The program comprises instructions for performing the operations of any of the methods described herein. According to some embodiments, the non-transitory computer readable storage medium stores instructions therein, the instructions being executed by an electronic device in communication with the one or more displays. Cause the device to perform the operations of any of the methods referenced and described herein. According to some embodiments, on an electronic device in communication with one or more displays, the memory and one or more processors for executing one or more programs stored in the memory The graphical user interface includes one or more of the elements displayed in any of the methods described above, which elements are described in any of the methods described herein. As it is, it is updated according to the input. According to some embodiments, an electronic device in communication with one or more displays includes means for performing the operations of any of the methods described herein. According to some embodiments, an information processing apparatus for use in an electronic device in communication with one or more displays performs the operations of any of the methods described herein. including.

このように、複数のディスプレイを備えた電子デバイスが、2つ以上のディスプレイを同期させるためのより効率的な方法及びインタフェースを備えていることにより、これらのデバイスの有効性、効率、及びユーザ満足度を高めることができる。このような方法及びインタフェースは、2つ以上のディスプレイを同期させるための従来の方法を補完するか、又は置き換えてもよい。   Thus, the effectiveness, efficiency, and user satisfaction of these electronic devices with multiple displays by providing more efficient methods and interfaces for synchronizing two or more displays. The degree can be increased. Such methods and interfaces may complement or replace conventional methods for synchronizing two or more displays.

説明される様々な実施形態のより良好な理解のために、以下の図面と併せて、以下の実施形態の説明を参照されたく、類似の参照番号は、それらの図の全体を通じて対応する部分を指す。   For a better understanding of the various embodiments described, reference should be made to the following description of the embodiments in conjunction with the following drawings, like reference numerals referring to corresponding parts throughout the drawings Point to.

いくつかの実施形態に係る、タッチ感知ディスプレイを備えるポータブル多機能デバイスを示すブロック図である。FIG. 1 is a block diagram illustrating a portable multifunction device with a touch sensitive display in accordance with some embodiments.

いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 6 is a block diagram illustrating exemplary components for event processing, according to some embodiments.

いくつかの実施形態に係る、タッチスクリーンを備えるポータブル多機能デバイスを示す図である。FIG. 1 illustrates a portable multifunction device with a touch screen in accordance with some embodiments.

いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。FIG. 7 is a block diagram of an exemplary multifunction device with a display and touch sensitive surface in accordance with some embodiments.

いくつかの実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニューのための例示的なユーザインタフェースを示す図である。FIG. 6 illustrates an exemplary user interface for a menu of applications on a portable multifunction device, in accordance with some embodiments.

いくつかの実施形態による、ディスプレイとは個別のタッチ感知面を備えた多機能デバイスのための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for a multifunction device with a separate touch sensing surface, in accordance with some embodiments.

いくつかの実施形態に係る、ポータブル多機能デバイスが外部提供システム及び/又はサーバと通信する動作環境を示すブロック図である。FIG. 5 is a block diagram illustrating an operating environment in which a portable multifunction device communicates with an external provisioning system and / or a server, according to some embodiments.

いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信する方法を示す流れ図である。7 is a flow chart illustrating a method of sending update information to affected displays according to some embodiments.

いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。FIG. 10 illustrates an exemplary user interface for synchronizing two or more displays, in accordance with some embodiments.

いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。8 illustrates an exemplary user interface for sending update information to affected displays, according to some embodiments.

いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法を示す流れ図である。5 is a flow chart illustrating a method of synchronizing two or more displays according to some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法を示す流れ図である。5 is a flow chart illustrating a method of synchronizing two or more displays according to some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法を示す流れ図である。5 is a flow chart illustrating a method of synchronizing two or more displays according to some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法を示す流れ図である。5 is a flow chart illustrating a method of synchronizing two or more displays according to some embodiments.

いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法を示す流れ図である。5 is a flow chart illustrating a method of synchronizing two or more displays according to some embodiments. いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法を示す流れ図である。5 is a flow chart illustrating a method of synchronizing two or more displays according to some embodiments.

いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信する方法を示す流れ図である。7 is a flow chart illustrating a method of sending update information to affected displays according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信する方法を示す流れ図である。7 is a flow chart illustrating a method of sending update information to affected displays according to some embodiments. いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信する方法を示す流れ図である。7 is a flow chart illustrating a method of sending update information to affected displays according to some embodiments.

いくつかの実施形態に係る、電子デバイスの機能ブロック図である。FIG. 7 is a functional block diagram of an electronic device, according to some embodiments.

いくつかの実施形態に係る、電子デバイスの機能ブロック図である。FIG. 7 is a functional block diagram of an electronic device, according to some embodiments.

いくつかの実施形態に係る、電子デバイスの機能ブロック図である。FIG. 7 is a functional block diagram of an electronic device, according to some embodiments.

多くの電子デバイスは、ディスプレイ上に表示されたユーザインタフェースオブジェクトの操作に応じて、電子デバイスに関連付けられたディスプレイ上のグラフィカルユーザインタフェースを更新する。以下で説明される第1の電子デバイスは、第2のディスプレイ上の第2のグラフィカルインタフェースを、第1の電子デバイスに関連付けられた第1のディスプレイ上の第1のグラフィカルユーザインタフェースと(場合によっては)同期させることによって、これらの方法を改善する。いくつかの実施形態では、第2のディスプレイが、第1の電子デバイスと異なる第2の電子デバイスに関連付けられる。いくつかの実施形態では、第1の電子デバイスが、第1のグラフィカルユーザインタフェース上のユーザインタフェースオブジェクトの操作(例えば、第1の電子デバイスに関連付けられた第1のタッチ感知面又は第1のタッチスクリーンディスプレイを使用して操作される)に応じて、第1のディスプレイ及び第2のディスプレイを同期させる。いくつかの他の実施形態では、第1の電子デバイスが、第2のグラフィカルユーザインタフェース上のユーザインタフェースオブジェクトの操作(例えば、第2の電子デバイスに関連付けられた第2のタッチ感知面又は第2のタッチスクリーンディスプレイを使用して操作される)に応じて、第1のディスプレイ及び第2のディスプレイを同期させる。   Many electronic devices update the graphical user interface on the display associated with the electronic device in response to the manipulation of the user interface object displayed on the display. The first electronic device described below comprises a second graphical interface on the second display, a first graphical user interface on the first display associated with the first electronic device Improves these methods by synchronizing. In some embodiments, a second display is associated with a second electronic device that is different from the first electronic device. In some embodiments, the first electronic device operates the user interface object on the first graphical user interface (eg, a first touch-sensitive surface or a first touch associated with the first electronic device) Synchronize the first display and the second display according to the operation of the screen display). In some other embodiments, the first electronic device operates the user interface object on the second graphical user interface (e.g., a second touch sensitive surface or a second associated with the second electronic device) Synchronize the first display and the second display in response to the operation of the touch screen display of

以下において、図1A〜図1B、図2、及び図3は例示的なデバイスの説明を提供する。図4A〜図4B及び図6A〜図6FFは、例示的なユーザインタフェースを示す。図7A〜図7D及び図8A〜図8Bは、2つ以上のディスプレイを同期させる方法を示す流れ図である。図9A〜図9Cは、影響を受けるディスプレイに更新情報を送信する方法を示す流れ図である。図6A〜図6Vのユーザインタフェースは、図7A〜図7D及び図8A〜図8Bのプロセスを説明するために使用される。図6W〜図6FFのユーザインタフェースは、図9A〜図9Cのプロセスを説明するために使用される。
例示的なデバイス
In the following, FIGS. 1A-1B, 2 and 3 provide a description of an exemplary device. 4A-4B and 6A-6FF illustrate exemplary user interfaces. 7A-7D and 8A-8B are flowcharts illustrating a method of synchronizing two or more displays. 9A-9C are flow diagrams illustrating a method of sending update information to affected displays. The user interfaces of FIGS. 6A-6V are used to illustrate the processes of FIGS. 7A-7D and 8A-8B. The user interfaces of FIGS. 6W-6FF are used to illustrate the processes of FIGS. 9A-9C.
Example device

これより、添付の図面に実施例が示されている実施形態を詳細に参照する。以下の詳細な説明では、説明されている様々な実施形態の完全な理解を提供するために数多くの具体的な詳細が記載されている。しかし、説明されている様々な実施形態は、これらの具体的な詳細を伴わずとも実践し得ることが、当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、回路、及びネットワークは、実施形態の態様を不必要に不明瞭なものとしないよう、詳細には説明されていない。   Reference will now be made in detail to the embodiments, examples of which are illustrated in the accompanying drawings. In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of the various embodiments set forth. However, it will be apparent to those skilled in the art that the various embodiments described may be practiced without these specific details. In other instances, well-known methods, procedures, components, circuits, and networks have not been described in detail so as not to unnecessarily obscure aspects of the embodiments.

本明細書では、第1、第2などの用語は、一部の実例で、様々な要素を説明するために使用されるが、これらの要素は、それらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1の接触は、第2の接触と称することができ、同様に、第2の接触は、第1の接触と称することができるであろう。第1の接触及び第2の接触は、双方とも接触であるが、それらは同じ接触ではない。   Although the terms first, second, etc. are used herein to describe various elements in some instances, these elements should not be limited by those terms. Will also be understood. These terms are only used to distinguish one element from another. For example, without departing from the scope of the various embodiments described, the first contact may be referred to as a second contact, and similarly, the second contact may be referred to as a first contact. Will be able to The first and second contacts are both contacts, but they are not the same contact.

本明細書で説明される様々な実施形態の説明で使用される用語法は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。様々な記載の実施形態、及び添付の特許請求の範囲で使用されるとき、単数形「a」、「an」、及び「the」は、文脈が別途明確に示さない限り、複数形をも含むことが意図されている。本明細書で使用されるときに、用語「及び/又は」が、関連する列挙された項目のうちの1つ以上の任意の全ての可能な組み合わせを指し、かつこれを含むことをもまた理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(備える)」、及び/又は「comprising(備える)」は、本明細書で使用される場合、記述される特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらの群の存在若しくは追加を排除するものではないことが、更に理解されるであろう。   The terminology used in the description of the various embodiments described herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the various described embodiments and in the appended claims, the singular forms "a", "an" and "the" also include the plural, unless the context clearly indicates otherwise It is intended. It is also understood that the term "and / or" as used herein refers to and includes any and all possible combinations of one or more of the associated listed items. I want to be The terms "includes", "including", "comprises" and / or "comprising", as used herein, refer to the recited features, integers, steps , Specify the presence of an operation, element, and / or component, but exclude the presence or addition of one or more other features, integers, steps, operations, elements, components, and / or groups thereof It will be further understood that not.

本明細書で使用されるとき、用語「if(〜の場合には)」は、任意選択的に、文脈に応じて「when(〜のとき)」、「upon(〜すると)」、「in response to determining(〜という判定に応じて)」、又は「in response to detecting(〜の検出に応じて)」を意味するものと解釈される。同様に、句「if it is determined(〜と判定される場合に)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合に)」は、文脈に応じて「upon determining(〜と判定されるときに)」、「in response to determining(〜という判定に応じて)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)の検出時に)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)の検出に応じて)」を意味すると、任意選択的に解釈される。   As used herein, the term "if (in the case of)" is optionally depending on the context "when (when)", "upon", "in It is understood to mean response to determining (in response to a determination of) or "in response to detecting" (in response to detection of). Similarly, the phrase "if it is determined" or "if (a stated condition or event) is detected" (if the stated condition or event is detected) means the context "Upon determining", "in response to determining", and "upon detected (the stated condition or event)" ((stated condition or event). Detection) or “in response to detection (in response to detection of the stated condition or event) To mean "being optionally interpretation.

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用するための関連プロセスの実施形態を説明する。いくつかの実施形態では、このデバイスは、PDA機能及び/又は音楽再生機能などの、他の機能をも含むモバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、限定を伴わずに、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイスを含む。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えるラップトップコンピュータ又はタブレットコンピュータなどの、他のポータブル電子デバイスが、任意選択的に使用される。また、いくつかの実施形態では、このデバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えるデスクトップコンピュータであることを理解されたい。   Embodiments of electronic devices, user interfaces for such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device such as a mobile telephone that also includes other features, such as PDA capabilities and / or music playback capabilities. An exemplary embodiment of the portable multifunction device is, without limitation, Apple Inc. of Cupertino, California. IPhone®, iPod Touch®, and iPad® devices. Other portable electronic devices, such as laptop computers or tablet computers with touch sensitive surfaces (eg, touch screen displays and / or touch pads) are optionally used. Also, it should be understood that in some embodiments, the device is not a portable communication device but a desktop computer with a touch sensitive surface (eg, a touch screen display and / or a touch pad).

以下の考察では、ディスプレイ及びタッチ感知面を含む電子デバイスを説明する。しかしながら、この電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。   The following discussion describes an electronic device that includes a display and a touch sensitive surface. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices, such as a physical keyboard, a mouse, and / or a joystick.

そのデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽再生アプリケーション、及び/又はデジタルビデオ再生アプリケーションのうちの1つ以上など、様々なアプリケーションをサポートする。   The devices are generally drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephone applications, video conferencing applications, email applications, instant messaging applications, training Support various applications such as one or more of support application, photo management application, digital camera application, digital video camera application, web browsing application, digital music playback application, and / or digital video playback application To over door.

このデバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーション毎に、及び/若しくは対応するアプリケーション内で、任意選択的に、調節並びに/又は変更される。この方式で、そのデバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインタフェースを有する様々なアプリケーションを、任意選択的にサポートする。   Various applications running on the device optionally use at least one common physical user interface device, such as a touch sensitive surface. One or more features of the touch sensitive surface, as well as corresponding information displayed on the device, are optionally adjusted and / or changed, per application and / or within the corresponding application. In this manner, the common physical architecture (such as the touch sensitive surface) of the device optionally supports various applications that have a user interface that is intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイ112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、時に便宜上「タッチスクリーン」と称され、「タッチ感知ディスプレイシステム」として知られたり、称されることもある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は1つ以上の光センサ164を任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の強度センサ165を、任意選択的に含む。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号線103を介して通信する。   Attention is now directed to the embodiment of the portable device comprising the touch sensitive display. FIG. 1A is a block diagram illustrating a portable multifunction device 100 with a touch sensitive display 112 in accordance with some embodiments. Touch sensitive display 112 is sometimes referred to for convenience as a "touch screen" and may be known or referred to as a "touch sensitive display system". Device 100 includes memory 102 (optionally including one or more computer readable storage media), memory controller 122, one or more processing units (CPU) 120, peripherals interface 118, RF circuitry 108, audio circuitry. 110, a speaker 111, a microphone 113, an input / output (I / O) subsystem 106, other input or control devices 116, and an external port 124. Device 100 optionally includes one or more light sensors 164. Device 100 optionally includes one or more intensity sensors 165 for detecting the intensity of a touch on device 100 (eg, a touch sensitive surface such as touch sensitive display system 112 of device 100). Device 100 generates tactile output on device 100 (eg, generates tactile output on a touch-sensitive surface, such as touch-sensitive display system 112 of device 100 or touch pad 355 of device 300) Optionally, one or more tactile output generators 167 are included. These components optionally communicate via one or more communication buses or signal lines 103.

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力又は圧力(単位面積当りの力)、あるいはタッチ感知面上の接触の力又は圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百個の別個の値(例えば、少なくとも256個)を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ、若しくはセンサの組み合わせを使用して、判定(又は、測定)される。例えば、タッチ感知面の下にあるか又はそれに隣接する1つ以上のセンサが、任意選択的に、タッチ感知面上の様々な点における力を測定するために用いられる。いくつかの実装では、複数の力センサからの力測定値を組み合わせて(例えば、加重平均)、推定される接触の力を判定する。同様に、タッチ感知面上のスタイラスの圧力を判定するために、スタイラスの圧力感知チップが、任意選択的に、用いられる。あるいは、タッチ感知面上で検出される接触区域のサイズ及び/又はその変化、接触に近接するタッチ感知面の静電容量及び/又はその変化、並びに/あるいは接触に近接するタッチ感知面の抵抗及び/又はその変化が、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力の代替的測定値は、強度閾値を超えているかどうかを判定するために直接用いられる(例えば、強度閾値は、代替的測定値に対応する単位で記述される)。いくつかの実装形態では、接触の力又は圧力の代替的測定値は、推定される力又は圧力に変換され、この推定される力又は圧力を用いて、強度閾値を超えているかどうかが判定される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。   As used herein and in the claims, the term "intensity" of touch on a touch sensitive surface refers to the force or pressure (per unit area) of the touch (eg, finger touch) on the touch sensitive surface Or touch force or pressure substitute (substitute) on a touch sensitive surface. The strength of the contact has a range of values, including at least four distinct values, and more typically including hundreds of distinct values (e.g., at least 256). The strength of the contact is optionally determined (or measured) using different techniques and different sensors or combinations of sensors. For example, one or more sensors underlying or adjacent to the touch sensitive surface are optionally used to measure forces at various points on the touch sensitive surface. In some implementations, force measurements from multiple force sensors are combined (e.g., weighted average) to determine an estimated contact force. Similarly, a pressure sensitive tip of the stylus is optionally used to determine the pressure of the stylus on the touch sensitive surface. Alternatively, the size of the contact area detected on the touch sensitive surface and / or its change, the capacitance of the touch sensitive surface close to the contact and / or its change, and / or the resistance of the touch sensitive surface close to the contact and And / or its change is optionally used as a substitute for the force or pressure of contact on the touch sensitive surface. In some implementations, an alternative measurement of contact force or pressure is used directly to determine whether the intensity threshold is exceeded (eg, the intensity threshold is in units corresponding to the alternative measurement) Described). In some implementations, an alternative measurement of contact force or pressure is converted to an estimated force or pressure, and this estimated force or pressure is used to determine if an intensity threshold is exceeded. (For example, the intensity threshold is a pressure threshold measured in units of pressure).

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、デバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス、又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、指、手のひら、又はユーザの手の他の部分)と接触している状況では、物理的変位によって生成される触知出力は、そのデバイス、又はデバイスの構成要素の物理的特性の、知覚される変化に対応する触感覚として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の運動は、任意選択的に、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、ユーザによって解釈される。いくつかの場合には、ユーザは、たとえ、ユーザの運動によって物理的に押圧される(例えば変位される)、タッチ感知面に関連付けられた物理アクチュエータボタンの運動が存在しない場合であっても、「ダウンクリック」又は「アップクリック」などの触感覚を感じることになる。別の例として、タッチ感知面の運動は、たとえ、タッチ感知面の平滑度の変化が存在しない場合であっても、タッチ感知面の「粗さ」として、任意選択的に、ユーザによって解釈又は感知される。ユーザによる、そのような接触の解釈は、ユーザの個別の感覚認知に左右されるものではあるが、大多数のユーザに共通するタッチの感覚認知が、多く存在する。それゆえ、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するとして説明される場合、特に明記しない限り、生成される触知出力は、その説明される感覚認知を典型的な(又は平均的な)ユーザに対して生じさせる、デバイス又はその構成要素の物理的変位に対応する。   As used herein and in the appended claims, the term "pale output" refers to the physical displacement of the device relative to the previous position of the device, which will be detected by the user at the user's touch, configuration of the device Refers to physical displacement of an element (e.g., touch sensitive surface) relative to another component of the device (e.g., housing) or displacement of the component relative to the center of mass of the device. For example, in situations where the device, or a component of the device, is in contact with a touch-sensitive user's surface (eg, a finger, palm, or other part of the user's hand), the touch produced by physical displacement. Knowledge output will be interpreted by the user as tactile sensations corresponding to perceived changes in the physical properties of the device or of the components of the device. For example, movement of the touch sensitive surface (e.g., touch sensitive display or trackpad) is optionally interpreted by the user as a "down click" or "up click" of the physical actuator button. In some cases, even if there is no movement of the physical actuator button associated with the touch sensitive surface, the user is physically pressed (e.g. displaced) by the movement of the user. You will feel a tactile sensation such as “down click” or “up click”. As another example, movement of the touch sensitive surface may optionally be interpreted by the user as “roughness” of the touch sensitive surface, even if there is no change in smoothness of the touch sensitive surface. Be sensed. Although the user's interpretation of such touch is dependent on the user's individual sensory perception, there are a lot of sensory perceptions of touch common to most users. Therefore, if the tactile output is described as corresponding to the user's particular sensory perception (e.g. "up click", "down click", "roughness"), then the touch generated unless otherwise stated The knowledge output corresponds to the physical displacement of the device or its components that causes the described sensory perception to occur to a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されるものよりも多いか又は少ない構成要素を任意選択的に有するか、2つ以上の構成要素を任意選択的に組み合わせるか、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示される様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの双方の組み合わせの形態で実装される。   Device 100 is just one example of a portable multifunction device, and device 100 optionally has more or fewer components than those shown, or optionally more than one component. It should be understood that they optionally have different configurations or arrangements of combinations or components. The various components shown in FIG. 1A are implemented in the form of hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and / or application specific integrated circuits.

メモリ102は、任意選択的に高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体メモリデバイスなどの、不揮発性メモリも含む。CPU 120及び周辺機器インタフェース118などの、デバイス100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122により、任意選択的に、制御される。   Memory 102 optionally includes high-speed random access memory, and optionally also includes non-volatile memory, such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile semiconductor memory devices. . Access to memory 102 by other components of device 100, such as CPU 120 and peripherals interface 118, is optionally controlled by memory controller 122.

周辺機器インタフェース118を使用して、このデバイスの入力及び出力周辺機器を、CPU 120及びメモリ102に結合することができる。1つ以上のプロセッサ120は、メモリ102内に記憶された様々なソフトウェアプログラム及び/又は命令セットを稼働又は実行することにより、デバイス100に関する様々な機能を実行し、かつデータを処理する。   Peripheral interface 118 may be used to couple the input and output peripherals of this device to CPU 120 and memory 102. One or more processors 120 perform various functions related to device 100 and process data by operating or executing various software programs and / or instruction sets stored in memory 102.

いくつかの実施形態では、周辺機器インタフェース118、CPU 120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一チップ上に実装される。いくつかの他の実施形態では、これらは、個別のチップ上に、任意選択的に、実装される。   In some embodiments, peripherals interface 118, CPU 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. In some other embodiments, these are optionally implemented on separate chips.

RF(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を受信したり送信したりする。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどを含むがこれらに限定されない、上記の機能を実行するための周知の回路を、任意選択的に、含む。RF回路機構108は、ワールドワイドウェブ(WWW)とも称されるインターネットなどのネットワーク、セルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)、及び/又はメトロポリタンエリアネットワーク(MAN)などの、イントラネット及び/又は無線ネットワーク、並びに他のデバイスと、無線通信によって、任意選択的に通信する。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(GSM(登録商標))、拡張データGSM環境(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、Evolution,Data−Only(EV−DO)、HSPA、HSPA+、2重セルHSPA(DC−HSPDA)、ロングタームエボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi−Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、及び/又はショートメッセージサービス(SMS)、あるいは本文書の出願日現在までに未だ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。   An RF (radio frequency) circuit 108 receives and transmits an RF signal, also called an electromagnetic signal. The RF circuitry 108 converts electrical signals to electromagnetic signals or electromagnetic signals to electrical signals and communicates with communication networks and other communication devices via the electromagnetic signals. The RF circuit 108 includes an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chip set, a subscriber identity module (SIM) card, a memory, etc. Optionally includes known circuitry for performing the above functions, including but not limited to. The RF circuitry 108 may be an intranet and / or wireless such as a network such as the Internet, also referred to as the World Wide Web (WWW), a cellular telephone network, a wireless local area network (LAN), and / or a metropolitan area network (MAN). Optionally communicate with the network, as well as with other devices, by wireless communication. Wireless communication optionally uses any of a plurality of communication standards, communication protocols, and communication technologies, and as those communication standards, communication protocols, and communication technologies, a global system for mobile communication ( GSM (registered trademark), Extended Data GSM Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High-Speed Uplink Packet Access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA +, Double Cell HSPA (DC-HSPDA), Long Term Evolution (LTE), Near Field Communication (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth (registered trademark), Wireless Fidel ty (Wi-Fi) ® (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, and / or IEEE 802.11n), Voice over Internet Protocol (VoIP), Wi-MAX, electronic Protocols for mail (eg Internet Message Access Protocol (IMAP) and / or Post Office Protocol (POP)), Instant Messaging (eg Extensible Messaging and Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Based Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS), and / or Short Message Service (SMS), or Filed any other suitable communication protocol, including communication protocols not yet been developed to date document include, but are not limited to.

オーディオ回路機構110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、そのオーディオデータを電気信号に変換し、その電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110はまた、マイクロフォン113によって音波から変換された電気信号も受信する。オーディオ回路110は、その電気信号をオーディオデータに変換し、そのオーディオデータを、処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110は更にヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の両方を持つヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器との間のインタフェースを提供する。   Audio circuitry 110, speaker 111 and microphone 113 provide an audio interface between the user and device 100. The audio circuit 110 receives audio data from the peripheral device interface 118, converts the audio data into an electrical signal, and transmits the electrical signal to the speaker 111. The speaker 111 converts the electrical signal into a human audible sound wave. Audio circuit 110 also receives an electrical signal that has been converted from sound waves by microphone 113. Audio circuit 110 converts the electrical signal to audio data and sends the audio data to peripheral interface 118 for processing. Audio data is optionally obtained by the peripherals interface 118 from the memory 102 and / or the RF circuit 108 and / or transmitted to the memory 102 and / or the RF circuit 108. In some embodiments, audio circuit 110 further includes a headset jack (eg, 212 in FIG. 2). The headset jack is a removable audio input / output peripheral device such as an audio circuit 110 and a headset with both an output-only headphone or an output (eg, a single or double-eared headphone) and an input (eg, a microphone) To provide an interface between

I/Oサブシステム106は、周辺機器インタフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。I/Oサブシステム106は、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御デバイス用の1つ以上の入力コントローラ160を、任意選択的に、含む。1つ以上の入力コントローラ160は、他の入力又は制御デバイス116から/へ電気信号を受信/送信する。他の入力制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを、任意選択的に、含む。いくつかの代替的実施形態では、入力コントローラ160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを、任意選択的に、含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を、任意選択的に、含む。   The I / O subsystem 106 couples to the peripherals interface 118 the input and output peripherals of the device 100 such as the touch screen 112 and other input control devices 116. The I / O subsystem 106 optionally includes one or more input controllers 160 for the display controller 156, the light sensor controller 158, the intensity sensor controller 159, the haptic feedback controller 161, and other input or control devices. Including. One or more input controllers 160 receive / transmit electrical signals from / to other input or control devices 116. Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, etc. In some alternative embodiments, the input controller 160 is optionally coupled to (or not coupled to) any of a keyboard, an infrared port, a USB port, and a pointer device such as a mouse. ). One or more buttons (e.g., 208 in FIG. 2) optionally include up / down buttons for volume control of the speaker 111 and / or the microphone 113. The one or more buttons optionally include a push button (e.g., 206 of FIG. 2).

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112との間で、電気信号を受信及び/又は送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を、任意選択的に、含む。いくつかの実施形態では、視覚出力の一部又は全ては、ユーザインタフェースオブジェクトに対応する。   Touch sensitive display 112 provides an input interface and an output interface between the device and the user. Display controller 156 receives and / or transmits electrical signals to and from touch screen 112. Touch screen 112 displays visual output to the user. Visual output optionally includes graphics, text, icons, videos, and any combination thereof (collectively referred to as "graphics"). In some embodiments, some or all of the visual output correspond to user interface objects.

タッチスクリーン112は、触覚及び/又は触知の接触に基づいて、ユーザからの入力を受け付ける、タッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内のあらゆる関連モジュール及び/又は命令のセットと共に)、タッチスクリーン112上の接触(及び、接触のあらゆる移動又は中断)を検出し、検出された接触を、タッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。例示的実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。   The touch screen 112 includes a touch sensitive surface, sensor or set of sensors that receives input from the user based on tactile and / or tactile contact. Touch screen 112 and display controller 156 (along with any associated modules and / or sets of instructions in memory 102) detect touch (and any movement or interruption of touch) on touch screen 112 and detect the detected touch. , Convert to an interaction with a user interface object (eg, one or more soft keys, icons, web pages, or images) displayed on the touch screen 112. In the exemplary embodiment, the contact points between the touch screen 112 and the user correspond to the user's finger.

タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、限定するものではないが、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含む、現在周知の若しくは将来開発される複数のタッチ感知技術のうちのいずれかを使用して、接触、並びにそのあらゆる移動若しくは中断を検出する。例示的実施形態では、Apple Inc.(Cupertino,California)によるiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)で見出されるものなどの、投影型相互静電容量式検知技術が使用される。   Touch screen 112 optionally uses LCD (liquid crystal display) technology, LPD (light emitting polymer display) technology, or LED (light emitting diode) technology, but in other embodiments other display technologies are used Ru. Touch screen 112 and display controller 156 are optionally, but not limited to, one or more of capacitive technology, resistive technology, infrared technology, and surface ultrasound technology, as well as touch screen 112. Contact, as well as any movement or interruption thereof, using any of a number of currently known or later developed touch sensing technologies, including other proximity sensor arrays or other elements to determine touch points. To detect In the exemplary embodiment, Apple Inc. Projected mutual-capacitive sensing techniques are used, such as those found on the iPhone (R), iPod Touch (R), and iPad (R) by (Cupertino, California).

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指などの、任意の好適な物体又は付属物を使用して、タッチスクリーン112と任意選択的に接触する。いくつかの実施形態において、ユーザインタフェースは、主として指に基づく接触とジェスチャで機能するように設計され、タッチスクリーン上の指の接触面積が広いためスタイラスを基準とした入力よりも精度が低いことがある。いくつかの実施形態では、デバイスは、指に基づく粗い入力を、ユーザによって所望されるアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。   Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of about 160 dpi. The user optionally contacts touch screen 112 using any suitable object or appendage, such as a stylus, a finger, and the like. In some embodiments, the user interface is designed to work primarily with finger-based touch and gestures and is less accurate than stylus-based input due to the large finger contact area on the touch screen is there. In some embodiments, the device translates the rough finger-based input into the correct pointer / cursor position or command to perform the action desired by the user.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッド(図示せず)を、任意選択的に含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知区域である。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面、又はタッチスクリーンによって形成されるタッチ感知面の拡張部である。   In some embodiments, in addition to the touch screen, device 100 optionally includes a touch pad (not shown) for activating or deactivating particular functions. In some embodiments, the touch pad is a touch sensitive area of the device that, unlike a touch screen, does not display visual output. The touch pad is optionally a touch sensitive surface separate from the touch screen 112 or an extension of the touch sensitive surface formed by the touch screen.

デバイス100はまた、様々な構成要素に電力を供給するための、電力システム162も含む。電力システム162は、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態標識(例えば、発光ダイオード(LED))、及びポータブル機器における電力の発電、管理、及び配電に関連付けられた任意の他の構成要素を、任意選択的に、含む。   Device 100 also includes a power system 162 for powering the various components. Power system 162 includes a power management system, one or more power supplies (eg, batteries, alternating current (AC)), recharge systems, power failure detection circuits, power converters or inverters, power status indicators (eg, light emitting diodes (LEDs)) And optionally any other components associated with power generation, management, and distribution of power in the portable device.

デバイス100は、任意選択的に、1つ以上の光センサ164も含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合素子(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又はビデオを、任意選択的に、キャプチャする。いくつかの実施形態では、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されており、それによって、タッチスクリーンディスプレイを静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することができる。いくつかの実施形態では、別の光センサがデバイスの前面上に配置され、それにより、ユーザがタッチスクリーンディスプレイ上で他のビデオ会議の参加者を見る間に、ユーザの画像が、任意選択的に、ビデオ会議のために取得される。   Device 100 also optionally includes one or more light sensors 164. FIG. 1A shows a light sensor coupled to light sensor controller 158 in I / O subsystem 106. The light sensor 164 optionally includes a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) phototransistor. The light sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. In conjunction with imaging module 143 (also referred to as a camera module), light sensor 164 optionally captures a still image or video. In some embodiments, the light sensor is disposed on the back of the device 100, opposite the touch screen display 112 on the front of the device, thereby allowing the touch screen display to display still and / or video images. It can be used as a viewfinder for acquisition. In some embodiments, another light sensor is placed on the front of the device so that the user's image is optionally while the user looks at other video conference participants on the touch screen display To be acquired for video conferencing.

デバイス100はまた、1つ以上の接触強度センサ165も任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に、含む。接触強度センサ165は、環境からの接触強度情報(例えば、圧力情報、又は圧力情報の代用物)を受信する。いくつかの実施形態では、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に併置されているか、又は近接している。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。   Device 100 also optionally includes one or more contact strength sensors 165. FIG. 1A shows a contact strength sensor coupled to the strength sensor controller 159 in the I / O subsystem 106. The contact strength sensor 165 may be one or more piezoresistive strain gauges, a capacitive force sensor, an electrical force sensor, a piezoelectric force sensor, an optical force sensor, a capacitive touch sensing surface, or another intensity sensor (eg, a touch sensing surface) Optionally, a sensor used to measure the force of contact (or pressure) above. The contact strength sensor 165 receives contact strength information from the environment (eg, pressure information or a substitute for pressure information). In some embodiments, at least one touch strength sensor is juxtaposed or close to the touch sensitive surface (eg, touch sensitive display system 112). In some embodiments, at least one contact strength sensor is disposed on the back of the device 100, which is the opposite side of the touch screen display 112 disposed on the front of the device 100.

デバイス100は、任意選択的に、1つ以上の近接センサ166も含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に結合される。いくつかの実施形態では、多機能デバイスがユーザの耳の近くに配置されているときには(例えば、ユーザが電話通話を行っているときには)、近接センサは、タッチスクリーン112をオフにして無効化する。   Device 100 also optionally includes one or more proximity sensors 166. FIG. 1A shows proximity sensor 166 coupled to peripherals interface 118. Alternatively, proximity sensor 166 is coupled to input controller 160 within I / O subsystem 106. In some embodiments, the proximity sensor turns off the touch screen 112 to disable when the multi-function device is placed close to the user's ear (eg, when the user is making a telephone call) .

デバイス100は、任意選択的に、また、1つ以上の触知出力生成器167も含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又は、モータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、電気信号を、デバイス上の触知出力に変換する構成要素)などの、エネルギーを線形運動に変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133からの触知フィードバック生成命令を受信し、デバイス100のユーザによって感知されることが可能な、デバイス100上の触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器が、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と併置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向に(例えば、デバイス100の表面の内/外)又は横方向(例えば、デバイス100の表面と同じ平面内の前後方向)に運動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器が、デバイス100の前面上に配置されるタッチスクリーンディスプレイ112の反対側である、デバイス100の背面上に配置される。   Device 100 optionally also includes one or more tactile output generators 167. FIG. 1A shows a haptic output generator coupled to haptic feedback controller 161 in I / O subsystem 106. Tactile output generator 167 optionally includes one or more electroacoustic devices, such as speakers or other audio components, and / or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or Includes electromechanical devices that convert energy into linear motion, such as other tactile output generating components (e.g., components that convert electrical signals to tactile output on the device). The touch intensity sensor 165 receives tactile feedback generation instructions from the tactile feedback module 133 and generates a tactile output on the device 100 that can be sensed by a user of the device 100. In some embodiments, the at least one tactile output generator is juxtaposed or proximate to the touch sensitive surface (eg, touch sensitive display system 112), optionally the touch sensitive surface Are generated vertically (eg, in / outside of the surface of device 100) or laterally (eg, back and forth in the same plane as the surface of device 100) to generate tactile output. In some embodiments, at least one tactile output generator is disposed on the back of device 100, which is the opposite side of touch screen display 112 disposed on the front of device 100.

デバイス100はまた、1つ以上の加速度計168も任意選択的に含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。いくつかの実施形態では、1つ以上の加速度計から受信されたデータの分析に基づいて、情報が、縦表示又は横表示で、タッチスクリーンディスプレイ上に表示される。デバイス100は、任意選択的に、加速度計(単数又は複数)168に加えて、磁力計(図示せず)、並びにデバイス100の位置及び向き(例えば、縦表示又は横表示)に関する情報を取得するためのGPS(又は、GLONASS若しくは他のグローバルナビゲーションシステム)受信機(図示せず)を含む。   Device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows an accelerometer 168 coupled to a peripheral interface 118. Alternatively, accelerometer 168 is optionally coupled to input controller 160 in I / O subsystem 106. In some embodiments, the information is displayed on the touch screen display in a vertical or horizontal display based on an analysis of data received from the one or more accelerometers. The device 100 optionally obtains information about the magnetometer (not shown), as well as the accelerometer (s) 168, and the position and orientation (eg, vertical or horizontal) of the device 100. GPS (or GLONASS or other global navigation system) receiver (not shown).

いくつかの実施形態では、メモリ102内に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/移動モジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(GPS)モジュール(又は命令セット)135、及びアプリケーション(命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示すように、メモリ102はデバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、存在する場合には、いずれのアプリケーションが現在アクティブであるかを示す、アクティブアプリケーション状態、いずれのアプリケーション、ビュー、又は他の情報が、タッチスクリーンディスプレイ112の様々な領域を占有するかを示す、ディスプレイ状態、デバイスの様々なセンサ及び入力制御デバイス116から取得した情報を含む、センサ状態、並びにデバイスの場所及び/又は姿勢に関する場所情報、のうちの1つ以上を含む。   In some embodiments, software components stored in memory 102 include operating system 126, communication module (or instruction set) 128, contact / move module (or instruction set) 130, graphic module (or instruction set) 132, text input module (or instruction set) 134, global positioning system (GPS) module (or instruction set) 135, and application (instruction set) 136. Further, in some embodiments, memory 102 stores device / global internal state 157, as shown in FIGS. 1A and 3. Device / global internal state 157 indicates, if present, which application is currently active, active application state, which application, view, or other information, various areas of touch screen display 112 Include one or more of: display status, including various sensors of the device and information obtained from the input control device 116, and location information regarding the location and / or attitude of the device. .

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための、様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素及びソフトウェア構成要素との間の通信を容易にする。   Operating system 126 (e.g., Darwin (R), RTXC (R), LINUX (R), UNIX (R), OS X (R), WINDOWS (R), or VxWorks (R)) Embedded operating system) includes various software components and / or drivers for controlling and managing general system tasks (eg, memory management, storage device control, power management, etc.), and various hardware Facilitate communication between components and software components.

通信モジュール128は、1つ以上の外部ポート124を介した他のデバイスとの通信を容易にし、また、RF回路機構108及び/又は外部ポート124によって受信されたデータを処理するための様々なソフトウェア構成要素も含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)など)は、他のデバイスに直接結合するように、又はネットワーク(例えば、インターネット、無線LANなど)を介して間接的に結合するように適合される。一部の実施形態では、外部ポートは、iPod(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じか、又は同様の、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。いくつかの実施形態では、外部ポートは、iPhone及びiPod(Apple Inc.の商標)デバイス上で使用される8ピンコネクタ(例えば、Lightningコネクタ)と同じか、又は同様の、及び/又は互換性のあるマルチピン(例えば、8ピン)コネクタである。   Communication module 128 facilitates communication with other devices via one or more external ports 124 and also various software for processing data received by RF circuitry 108 and / or external ports 124. Also includes components. An external port 124 (eg, Universal Serial Bus (USB), FIREWIRE, etc.) may be coupled directly to another device, or indirectly via a network (eg, Internet, wireless LAN, etc.) It is adapted to do. In some embodiments, the external port is the same as, or similar to, and / or compatible with a 30-pin connector used on an iPod (trademark of Apple Inc.) device, multi-pin (eg, 30-pin) It is a connector. In some embodiments, the external port is the same as, or similar to, and / or compatible with an 8-pin connector (eg, Lightning connector) used on iPhone and iPod (trademark of Apple Inc.) devices There is a multi-pin (for example, 8-pin) connector.

接触/移動モジュール130は、任意選択的に、(ディスプレイコントローラ156と共に)タッチスクリーン112との接触、及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/移動モジュール130は、接触が発生したかどうかの判定(例えば、フィンガダウンイベントの検出)、接触の強度(例えば、接触の力若しくは圧力、又は、接触の力若しくは圧力の代用語)の判定、接触の移動及びタッチ感知面にわたる動きの追跡(例えば、1つ以上のフィンガドラッグイベントの検出)があるかどうかの判定、及び接触が中止したかどうか(例えば、フィンガアップイベント又は接触の中断の検出)の判定などの、接触の検出に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。接触/移動モジュール130はタッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、単一の接触(例えば、1つの指接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指接触)に、任意選択的に、適用される。いくつかの実施形態では、接触/移動モジュール130及びディスプレイコントローラ156は、タッチパッド上での接触を検出する。   The touch / move module 130 optionally detects contact with the touch screen 112 (with the display controller 156) and with other touch sensing devices (e.g., a touch pad or physical click wheel). The touch / move module 130 determines whether a touch has occurred (eg, detects a finger down event), determines the strength of the touch (eg, the force or pressure of the touch, or any of the terms force or pressure of the touch). , Movement of the contact and tracking of movement across the touch sensitive surface (eg, detection of one or more finger drag events), and whether contact has ceased (eg, finger up event or interruption of contact) It includes various software components for performing various operations related to the detection of touch, such as determination of detection). The touch / move module 130 receives touch data from the touch sensitive surface. Determining the movement of the touch point, represented by a series of touch data, optionally includes the speed (magnitude), speed (magnitude and direction), and / or acceleration (magnitude and size) of the touch point. And / or determining a change in direction). These actions are optionally applied to a single touch (eg, one finger touch) or multiple simultaneous touches (eg, “multi-touch” / multiple finger touch). In some embodiments, the touch / move module 130 and the display controller 156 detect touch on the touch pad.

いくつかの実施形態では、接触/移動モジュール130は、ユーザによって動作が実行されたかどうかを判定するための(例えば、ユーザがアイコンを「クリック」したかどうかを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、少なくとも強度閾値のサブセットは、ソフトウェアパラメータに従って決定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって決定されるのではなく、デバイス100の物理ハードウェアを変更することなく調節することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく広範囲の既定の閾値のうちのいずれかに設定することができる。更には、いくつかの実装では、デバイスのユーザには、(例えば、個別の強度閾値を調節することによって、かつ/又は、システムレベルのクリック「強度」パラメータを使用して、一度に複数の強度閾値を調節することによって)強度閾値のセットのうちの1つ以上を調節するための、ソフトウェア設定が提供される。   In some embodiments, the contact / move module 130 may include one or more to determine whether an action has been performed by the user (eg, to determine whether the user has “clicked” on the icon). Use a set of intensity thresholds. In some embodiments, at least a subset of the intensity threshold is determined according to software parameters (eg, the intensity threshold is not determined by the activation threshold of a particular physical actuator, but rather the physical hardware of the device 100 Can be adjusted without change). For example, the mouse "click" threshold of the trackpad or touch screen display can be set to any of a wide range of predetermined thresholds without changing the trackpad or touch screen display hardware. Furthermore, in some implementations, the user of the device (e.g., by adjusting individual intensity thresholds and / or using system level click "intensity" parameters, multiple intensities at a time Software settings are provided to adjust one or more of the set of intensity thresholds) by adjusting the thresholds.

接触/移動モジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、異なる動き、タイミング、及び/又は検出された接触の強度)を有する。それゆえ、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、フィンガタップジェスチャの検出は、フィンガダウンイベントを検出し、続いて(例えば、アイコンの位置における)フィンガダウンイベントと同じ位置(又は、実質的に同じ位置)でのフィンガアップ(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上でのフィンガスワイプジェスチャを検出することは、フィンガダウンイベントを検出することと、それに続く1つ以上のフィンガドラッグイベントを検出することと、それに続く、フィンガアップ(リフトオフ)イベントを検出することとを含む。   The touch / move module 130 optionally detects gesture input by the user. Different gestures on the touch sensitive surface have different touch patterns (e.g., different movements, timings, and / or detected touch strengths). Therefore, gestures are optionally detected by detecting specific touch patterns. For example, detection of a finger tap gesture detects a finger down event followed by a finger up (lift off) event at the same position (or substantially the same position as the finger down event (e.g. at the position of the icon) Including detecting. As another example, detecting a fin gas wipe gesture on the touch sensitive surface comprises detecting a finger down event followed by detecting one or more finger drag events followed by a finger up (Lift off) detecting an event.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用するとき、用語「グラフィック」は、ユーザに対して表示することができる任意のオブジェクトを含み、それらのオブジェクトとしては、限定するものではないが、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどが挙げられる。   Graphics module 132 may include components for changing visual effects (eg, brightness, transparency, saturation, contrast, or other visual characteristics) of the displayed graphic on touch screen 112 or other display. Includes various known software components for rendering and displaying graphics. As used herein, the term "graphic" includes any object that can be displayed to the user, including, but not limited to, text, web pages, icons (soft User interface objects including keys), digital images, videos, animations, etc.

いくつかの実施形態では、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。それぞれのグラフィックには、対応するコードが、任意選択的に、割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて座標データ及び他のグラフィック特性データと共に、表示されるグラフィックを指定する1つ以上のコードを受信して、次いで、ディスプレイコントローラ156に出力するためのスクリーン画像データを生成する。   In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. The graphics module 132 receives one or more codes specifying the graphic to be displayed, along with coordinate data and other graphic characteristic data as needed, from an application or the like, for output to the display controller 156 Generate screen image data.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応答して、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。   The haptic feedback module 133 generates instructions used by the tactile output generator 167 to generate tactile output at one or more locations on the device 100 in response to user interaction with the device 100. To include various software components.

テキスト入力モジュール134は、任意選択的にグラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するための、ソフトキーボードを提供する。   The text input module 134 is optionally a component of the graphics module 132 and may include various applications (eg, contact 137, email 140, IM 141, browser 147, and any other application requiring text input) Provide a soft keyboard for entering text in).

GPSモジュール135は、デバイスの場所を判定し、この情報を、様々なアプリケーションで使用するために(例えば、場所に基づくダイヤル発呼で使用するために電話138へ、写真/ビデオのメタデータとしてカメラ143へ、並びに、天候ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、場所に基づくサービスを提供するアプリケーションへ)提供する。   The GPS module 135 determines the location of the device and uses this information for use in various applications (eg, to the phone 138 for use in location based dialing) as a photo / video metadata camera. And to applications that provide location-based services, such as weather widgets, regional yellow page widgets, and map / navigation widgets.

アプリケーション136は、任意選択的に、以下のモジュール(又は、命令のセット)、又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれる場合もある)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●天候ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザが取得した他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含むウィジェットモジュール149、
●デジタルパーソナルアシスタントモジュール150、
●車両統合モジュール151、
●任意選択的にビデオ再生モジュール及び音楽再生モジュールから構成される、ビデオ及び音楽再生モジュール152、
●メモモジュール153、
●地図モジュール154、並びに/あるいは
●オンラインビデオモジュール155。
Applications 136 optionally include the following modules (or sets of instructions), or a subset or superset thereof.
Contacts module 137 (sometimes called an address book or contact list),
Phone module 138,
Video conferencing module 139,
Email client module 140,
Instant messaging (IM) module 141,
Training support module 142,
Camera module 143 for still and / or video images,
Image management module 144,
Browser module 147,
Calendar module 148,
-Of the weather widget 149-1, stock widget 149-2, computer widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other widgets acquired by the user, and user created widget 149-6 Widget module 149, optionally including one or more of
● Digital personal assistant module 150,
Vehicle integration module 151,
A video and music playback module 152, optionally consisting of a video playback module and a music playback module,
Memo module 153,
Map module 154 and / or online video module 155;

任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。   Examples of other applications 136 optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA enabled applications, encryption, digital These include copyright management, speech recognition, and speech duplication.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併用する、連絡先モジュール137は、任意選択的に、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用され、連絡先モジュールの管理には、アドレス帳への名前の追加、アドレス帳からの名前の削除、電話番号、電子メールアドレス、物理アドレス、又は他の情報と名前との関連付け、画像と名前との関連付け、名前の分類及び並び替え、電話138、ビデオ会議139、電子メール140、又はIM 141などによる通信を開始及び/又は容易にするための、電話番号又は電子メールアドレスの提供などを含む。   The contact module 137, in conjunction with the touch screen 112, the display controller 156, the touch module 130, the graphic module 132, and the text input module 134, optionally includes an address book or a contact list (eg, memory 102 or memory 370). Is used to manage the application internal state 192 of the contacts module 137), and the management of the contacts module, add names to the address book, delete names from the address book, telephone Associating numbers, email addresses, physical addresses, or other information with names, associating images with names, classifying and sorting names, communicating by telephone 138, video conference 139, email 140, or IM 141 etc. Start and / or facilitate Of the eye, including the provision of a telephone number or e-mail address.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を修正し、対応の電話番号をダイヤルし、会話を遂行し、会話が完了した際に接続を切るか又は電話を切るために、任意選択的に使用される。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを、任意選択的に、使用する。   The phone module 138 along with the RF circuit 108, the audio circuit 110, the speaker 111, the microphone 113, the touch screen 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134 has a series of characters corresponding to the telephone number. Enter, access one or more phone numbers in address book 137, correct the phone number entered, dial the corresponding phone number, carry out the conversation, and connect when the conversation is complete Optionally used to hang up or hang up. As mentioned above, wireless communication optionally uses any of a plurality of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と関連して、ビデオ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了するための実行可能命令を含む。   RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, touch module 130, graphic module 132, text input module 134, contact list 137, and In conjunction with the telephony module 138, the video conferencing module 139 includes executable instructions for initiating, conducting and terminating video conferences between the user and one or more other participants according to the user's instructions. .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、電子メールクライアントモジュール140は、ユーザの指示に応答して、電子メールを作成し、送信し、受信し、管理するための実行可能命令を含む。画像管理モジュール144と共に、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを、非常に容易にする。   In conjunction with the RF circuit 108, the touch screen 112, the display controller 156, the touch module 130, the graphic module 132, and the text input module 134, the email client module 140 creates an email in response to user instructions. , Executable instructions for transmitting, receiving and managing. Along with the image management module 144, the email client module 140 greatly facilitates creating and sending emails with still or video images taken with the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字列を入力したり、入力済みの文字を修正したり、対応するインスタントメッセージを送信したり(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)、インスタントメッセージを受信して、受信したインスタントメッセージを表示したりするための実行可能命令を含む。いくつかの実施形態では、送信及び/又は受信されたインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるように、グラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付を、任意選択的に、含む。本明細書では、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されたメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されたメッセージ)の両方を意味する。   In conjunction with the RF circuit 108, the touch screen 112, the display controller 156, the touch module 130, the graphic module 132, and the text input module 134, the instant messaging module 141 inputs or has input a string corresponding to an instant message. Or send a corresponding instant message (eg using Short Message Service (SMS) or Multimedia Message Service (MMS) protocol for phone-based instant message) Or receive and receive instant messages (using XMPP, SIMPLE, or IMPS for Internet-based instant messages) It includes executable instructions for and displays the instant message. In some embodiments, sent and / or received instant messages may be graphics, photos, audio files, video files, and video files, as supported by MMS and / or Enhanced Messaging Service (EMS). And / or optionally include other attachments. As used herein, "instant messaging" refers to telephone-based messages (eg, messages sent using SMS or MMS) and Internet-based messages (eg, using XMPP, SIMPLE, or IMPS) Means both messages).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽再生ジュール146と関連して、トレーニングサポートモジュール142は、トレーニングを作成したり(例えば、時間、距離、及び/又はカロリー消費目標に関して)、トレーニングセンサ(スポーツデバイス)と通信したり、トレーニングセンサデータを受信したり、トレーニングを監視するために用いられるセンサを較正したり、トレーニングのための音楽を選択して再生したり、トレーニングデータを表示、記憶、送信したりするための実行可能命令を含む。   The training support module 142, in conjunction with the RF circuit 108, the touch screen 112, the display module 156, the touch module 130, the graphic module 132, the text input module 134, the GPS module 135, the map module 154, and the music playback module 146, (For example, regarding time, distance, and / or calorie consumption goals), communicate with training sensors (sports devices), receive training sensor data, and calibrate sensors used to monitor training And executable instructions for selecting and playing music for training, and displaying, storing and transmitting training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(1つ又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144と関連して、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶したり、静止画像又はビデオの特徴を変更したり、又はメモリ102から静止画像若しくは動画を削除したりするための実行可能命令を含む。   In conjunction with the touch screen 112, display controller 156, light sensor (s) 164, light sensor controller 158, contact module 130, graphic module 132, and image management module 144, the camera module 143 may be a still image or video Includes executable instructions for capturing (including video streams) and storing them in memory 102, changing still image or video features, or deleting still images or movies from memory 102 .

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と関連して、画像管理モジュール144は、静止画像及び/又はビデオを配置し、修正し(例えば、編集し)、また別の方法で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶したりするための実行可能命令を含む。   In conjunction with the touch screen 112, the display controller 156, the touch module 130, the graphics module 132, the text input module 134, and the camera module 143, the image management module 144 places and modifies still images and / or video (eg, , Editable), otherwise manipulated, labeled, deleted, presented (eg, in a digital slide show or album), and executable instructions for storage.

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付け、受信し、表示することを含むユーザの指示に従い、インターネットをブラウズするための実行可能命令を含む。   In conjunction with the RF circuit 108, the touch screen 112, the display system controller 156, the touch module 130, the graphic module 132, and the text input module 134, the browser module 147 is linked to the web page or parts thereof and the web page. Include executable instructions for browsing the Internet in accordance with the user's instructions including retrieving, linking, receiving, and displaying attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、カレンダーモジュール148は、ユーザの指示に従い、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、すべきことのリストなど)を作成し、表示し、変更し、記憶するための実行可能命令を含む。   In conjunction with RF circuit 108, touch screen 112, display system controller 156, touch module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, calendar module 148 follows the user's instructions. , Calendar, and executable instructions for creating, displaying, modifying, and storing data associated with the calendar (eg, calendar items, list of things to do, etc.).

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と共に、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされ、使用されるミニアプリケーション(例えば、天候ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!(登録商標)ウィジェット)を含む。   The widget module 149, along with the RF circuit 108, the touch screen 112, the display system controller 156, the touch module 130, the graphic module 132, the text input module 134, and the browser module 147, is a widget module that is optionally downloaded and used by the user. Application (eg, weather widget 149-1, stock widget 149-2, computer widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5), or a mini application created by the user (eg, user created) It is a widget 149-6). In some embodiments, the widgets include HTML (Hypertext Markup Language, Hypertext Markup Language) files, CSS (Cascading Style Sheets, Cascading Style Sheets) files, and JavaScript files. In some embodiments, widgets include XML (extensible markup language) files and JavaScript files (eg, Yahoo! ® widgets).

RF回路108、音声回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、デジタルパーソナルアシスタントモジュール150は、音声コマンドを記録し、記録された音声コマンドを表す情報を、分析のために図5Aのサーバ510などのサーバに送信し、サーバからの応答に基づき、音声コマンドに応答する。   In conjunction with the RF circuit 108, the audio circuit 110, the speaker 111, the microphone 113, the touch screen 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134, the digital personal assistant module 150 The information representing the recorded and recorded voice command is sent to a server, such as server 510 of FIG. 5A, for analysis and responds to the voice command based on the response from the server.

車両統合モジュール151は、地図作成アプリケーション又は音楽アプリケーションなどに対して、車両情報表示システムの対応するディスプレイ(例えば、図5Aの外部情報提供システム540のディスプレイ546)上でユーザインタフェースを提供する車両(例えば、自動車、トラック、バンなど)内の車両情報表示システムを制御する1つ以上の仲介プロセスのための実行可能命令を含む。車両統合アプリケーションは、第三者アプリケーションからの情報を、車両統合アプリケーションによって車両情報表示システムの対応するディスプレイ上に表示するためのコンテンツへと変換する。   The vehicle integration module 151 provides a vehicle (eg, a user interface) on a corresponding display of the vehicle information display system (eg, the display 546 of the external information providing system 540 of FIG. 5A) for a mapping application or a music application, etc. Includes executable instructions for one or more intermediary processes controlling a vehicle information display system in a car, truck, van, etc.). The vehicle integration application converts the information from the third party application into content for display by the vehicle integration application on the corresponding display of the vehicle information display system.

タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と関連して、ビデオ及び音楽再生モジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽又は他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能命令を含む。いくつかの実施形態では、デバイス100は、iPod(Apple Inc.の商標)などのMP3プレーヤの機能性を、任意選択的に含む。   In conjunction with the touch screen 112, display system controller 156, touch module 130, graphics module 132, audio circuit 110, speaker 111, RF circuit 108, and browser module 147, the video and music playback module 152 is an MP3 or AAC file, etc. Executable instructions that allow the user to download and play back recorded music or other sound files stored in one or more file formats, and connect the video (on touch screen 112 or via external port 124 The display, presentation or otherwise playable instructions on an external display). In some embodiments, device 100 optionally includes the functionality of an MP3 player such as an iPod (trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、メモモジュール153は、ユーザの指示に従って、メモ、To Doリストなどを作成及び管理するための、実行可能命令を含む。   The memo module 153, together with the touch screen 112, the display controller 156, the touch module 130, the graphic module 132, and the text input module 134, is an executable instruction for creating and managing a memo, a to-do list, etc. according to the user's instructions. including.

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と共に、地図モジュール154は、ユーザの指示に従って、地図、及び地図に関連付けられたデータ(例えば、運転方向、特定の場所若しくはその付近の店舗及び関心対象の他の地点についてのデータ、並びに場所に基づく他のデータ)を受信し、表示し、修正し、記憶するために、任意選択的に使用される。   The map module 154 together with the RF circuit 108, the touch screen 112, the display system controller 156, the touch module 130, the graphic module 132, the text input module 134, the GPS module 135 and the browser module 147, maps and maps Receive, display, modify and store data associated with the data (eg, data about driving directions, stores at or near a particular location and other points of interest, and other data based on location) Are optionally used.

タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、オンラインビデオモジュール155は、ユーザが、特定のオンラインビデオにアクセスし、閲覧し、(例えば、ストリーミング及び/又はダウンロードによって)受信し、(例えば、タッチスクリーン上で、又は外部ポート124を介して接続された外部のディスプレイ上で)再生し、そのオンラインビデオへのリンクを有する電子メールを送信し、また他の方式で、H.264などの1つ以上のファイル形式でオンラインビデオを管理することが可能となる、命令を含む。一部の実施形態では、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141を使用して、特定のオンラインビデオへのリンクを送信する。   Online video in conjunction with touch screen 112, display system controller 156, touch module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108, text input module 134, email client module 140, and browser module 147 Module 155 allows the user to access, browse, receive (eg, by streaming and / or downloading) a particular online video, (eg, external connected on touch screen or via external port 124) H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H. H .: Replaying and Sending E-mail with a Link to Its Online Video, and; H.264 includes instructions that allow managing online video in one or more file formats such as H.264. In some embodiments, instant messaging module 141, rather than email client module 140, is used to send a link to a particular online video.

上記で識別されたモジュール及びアプリケーションのそれぞれは、1つ又はそれ以上の上記の機能を実行するための実行可能命令セット及び本出願に記載の方法(例えば、コンピュータにより実行される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、これらのモジュールの様々なサブセットは、様々な実施形態において、任意選択的に、組み合わせ、又は再配置される。いくつかの実施形態では、メモリ102は、上記で特定されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ102は、上述されていない追加のモジュール及びデータ構造を、任意選択的に、記憶する。   Each of the above identified modules and applications is a set of executable instructions for performing one or more of the above described functions and methods described herein (eg, computer implemented methods and methods). The other information processing method described in These modules (ie, instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules are, in various embodiments, optionally It is combined or rearranged. In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. In addition, memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、デバイス上の機能の既定のセットの動作が排他的にタッチスクリーン及び/又はタッチパッドを介して実行されるデバイスである。デバイス100の動作に関する主要な入力制御デバイスとして、タッチスクリーン及び/又はタッチパッドを使用することによって、デバイス100上の物理入力制御デバイス(プッシュボタン、ダイアルなど)の数が、任意選択的に低減される。   In some embodiments, device 100 is a device in which operations of a predetermined set of functions on the device are performed exclusively through the touch screen and / or touch pad. By using the touch screen and / or touch pad as the primary input control device for the operation of the device 100, the number of physical input control devices (push button, dial etc.) on the device 100 is optionally reduced Ru.

排他的にタッチスクリーン及び/又はタッチパッドを介して実行される、既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされると、デバイス100上に表示されている任意のユーザインタフェースから、メイン、ホーム、又はルートメニューへと、デバイス100をナビゲートする。そのような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又は他の物理入力制御デバイスである。   The set of predefined functions, performed exclusively via the touch screen and / or touch pad, optionally includes navigation between user interfaces. In some embodiments, the touch pad navigates the device 100 from any user interface displayed on the device 100 to the main, home, or root menu when touched by the user. In such embodiments, the "menu button" is implemented using a touch pad. In some other embodiments, the menu button is not a touch pad but a physical push button or other physical input control device.

図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A内)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及び対応するアプリケーション136−1(例えば、上述のアプリケーション137〜13、155、及び380〜390のいずれか)を含む。   FIG. 1B is a block diagram illustrating exemplary components for event processing in accordance with some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) may include event sorter 170 (eg, in operating system 126) and corresponding application 136-1 (eg, applications 137-13 described above), 155 and any of 380-390).

イベントソータ170は、イベント情報を受信して、そのイベント情報の配信先となる、アプリケーション136−1、及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136−1は、そのアプリケーションがアクティブであるか又は実行中の場合に、タッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーションが現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。   The event sorter 170 receives event information and determines an application 136-1 and an application view 191 of the application 136-1 to which the event information is to be distributed. The event sorter 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 shows an internal view of the current application view (s) displayed on touch sensitive display 112 when the application is active or running. Includes state 192. In some embodiments, device / global internal state 157 is used by event sorter 170 to determine which application is currently active, and application internal state 192 is a destination for event information. Used by event sorter 170 to determine application view 191.

いくつかの実施形態では、アプリケーション内部状態192は、追加情報として、例えば、アプリケーション136−1が実行を再開する際に用いられる再開情報、アプリケーション136−1により表示されている又は表示の準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にするための状態の待ち行列、及びユーザが以前にとったアクションのやり直し/アンドゥーの待ち行列のうちの1つ以上を含む。   In some embodiments, application internal state 192 is displayed as, or is ready for display as, additional information, eg, resume information used when application 136-1 resumes execution, application 136-1. User interface state information indicating the current information, a queue of states to allow the user to return to the previous state or view of the application 136-1, and wait for the user to redo / undo the action previously taken Includes one or more of the matrices.

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)の情報を含む。周辺機器インタフェース118は、I/Oサブシステム106又は(オーディオ回路110を介して)近接センサ166、加速度計(1つ又は複数)168、及び/若しくはマイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。   The event monitor 171 receives event information from the peripheral device interface 118. Event information includes information of sub-events (eg, user touch on touch sensitive display 112 as part of a multi-touch gesture). Peripheral interface 118 transmits information received from sensors such as I / O subsystem 106 or proximity sensor 166 (via audio circuit 110), accelerometer (s) 168, and / or microphone 113. . The information that peripherals interface 118 receives from I / O subsystem 106 includes information from touch sensitive display 112 or a touch sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。これに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超える、及び/又は所定時間以上の入力を受け取ること)がある場合にのみイベント情報を送信する。   In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripheral interface 118 transmits event information. In other embodiments, peripheral interface 118 transmits event information only when there is a significant event (eg, receiving an input above a predetermined noise threshold and / or for a predetermined amount of time or more).

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。   In some embodiments, the event sorter 170 also includes a hit view determination module 172 and / or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示する場合に、サブイベントが1つ以上のビュー内のいずれの場所で発生したかを判定するための、ソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることが可能な、コントロール及び他の要素で構成される。   The hit view determination module 172 provides a software procedure to determine where in the one or more views a sub-event occurred when the touch sensitive display 112 displays more than one view. Do. A view is composed of controls and other elements that can be viewed by the user on the display.

アプリケーションに関連付けられるユーザインタフェースの別の態様は、本明細書では、アプリケーションビュー又はユーザインタフェースウィンドウと呼ばれる場合がある、ビューのセットであり、それらの中で、情報が表示され、タッチに基づくジェスチャが実施される。タッチが検出される(対応するアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに、任意選択的に、対応する。例えば、タッチが検出される最低レベルのビューは、任意選択的に、ヒットビューと呼ばれ、適切な入力として認識されるイベントのセットは、少なくとも部分的に、タッチベースのジェスチャを開始する最初のタッチのヒットビューに基づいて、任意選択的に、判定される。   Another aspect of the user interface associated with an application is a set of views, which may be referred to herein as an application view or user interface window, in which information is displayed and touch-based gestures are To be implemented. The application view (of the corresponding application) in which a touch is detected optionally corresponds to a program level in the program hierarchy or view hierarchy of the application. For example, the lowest level view in which a touch is detected is optionally referred to as a hit view, and the set of events recognized as appropriate input is at least partially the first to initiate a touch-based gesture. Optionally determined based on the hit view of the touch.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが、階層として編成された複数のビューを有する場合、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとして、ヒットビューを特定する。殆どの状況では、ヒットビューは、開始サブイベント(すなわち、イベント又は潜在的なイベントを形成するサブイベントのシーケンス内の、最初のサブイベント)が発生する、最下位レベルのビューである。ヒットビューが、ヒットビュー判定モジュールによって特定されると、そのヒットビューは、典型的には、それがヒットビューとして特定された、同じタッチ又は入力ソースに関連する、全てのサブイベントを受信する。   The hit view determination module 172 receives information related to touch-based gesture sub-events. If the application has multiple views organized as a hierarchy, hit view determination module 172 identifies the hit view as the lowest view in the hierarchy to process the sub-events. In most situations, the hit view is the lowest level view in which the starting sub-event (i.e., the first sub-event in the sequence of events or sub-events forming a potential event) occurs. When a hit view is identified by the hit view determination module, that hit view typically receives all sub-events associated with the same touch or input source that were identified as a hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のいずれのビューが、特定のサブイベントのシーケンスを受信するべきかを判定する。一部の実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信するべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な場所を含む全てのビューが、アクティブに関与するビューであると判定することにより、アクティブに関与する全てのビューが、特定のサブイベントのシーケンスを受信するべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューはアクティブに関わっているビューのままであるであろう。   The active event recognizer determination module 173 determines which view in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, the active event recognizer determination module 173 determines that only the hit view should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all the views including the physical location of the subevent are the views actively involved, so that all the views actively participating are , Determine that a particular sequence of sub-events should be received. In other embodiments, even if touch sub-events are completely limited to the area associated with a particular view, the upper view of the hierarchy will remain the actively engaged view.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)に送信する。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、対応するイベント受信部モジュール182により取得されるイベント情報をイベント待ち行列内に記憶する。   The event dispatcher module 174 sends event information to an event recognizer (eg, event recognizer 180). In embodiments that include the active event recognizer determination module 173, the event dispatcher module 174 delivers event information to the event recognizer determined by the active event recognizer determination module 173. In some embodiments, event dispatcher module 174 stores event information obtained by corresponding event receiver module 182 in an event queue.

一部の実施形態では、オペレーティングシステム126が、イベントソータ170を含む。あるいは、アプリケーション136−1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、スタンドアロンモジュールであるか、又は、接触/移動モジュール130などの、メモリ102に記憶された別のモジュールの一部である。   In some embodiments, operating system 126 includes an event sorter 170. Alternatively, application 136-1 includes event sorter 170. In still other embodiments, event sorter 170 is a stand-alone module or part of another module stored in memory 102, such as contact / move module 130.

一部の実施形態では、アプリケーション136−1は、そのアプリケーションのユーザインタフェースの各ビュー内で発生するタッチイベントを処理する命令をそれぞれが含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット(図示せず)、又は、アプリケーション136−1がメソッド及び他のプロパティを継承する、より高レベルのオブジェクトなどの、別個のモジュールの一部である。一部の実施形態では、それぞれのイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178、及び/又は、イベントソータ170から受信されるイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、任意選択的に、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を利用するか、若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上の対応するイベントハンドラ190を含む。また、いくつかの実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178のうちの1つ以上が、対応するアプリケーションビュー191内に含まれる。   In some embodiments, the application 136-1 includes multiple event handlers 190 and one or more application views 191, each including instructions for processing touch events that occur within each view of the application's user interface. Including. Each application view 191 of the application 136-1 includes one or more event recognition units 180. Typically, each application view 191 includes a plurality of event recognizers 180. In other embodiments, one or more of the event recognizers 180 may be a user interface kit (not shown) or a higher level object such as the application 136-1 inherits methods and other properties. , Part of a separate module. In some embodiments, each event handler 190 includes one or more of data updater 176, object updater 177, GUI updater 178, and / or event data 179 received from event sorter 170. Event handler 190 optionally utilizes or invokes data updater 176, object updater 177, or GUI updater 178 to update application internal state 192. Alternatively, one or more of the application views 191 include one or more corresponding event handlers 190. Also, in some embodiments, one or more of data updater 176, object updater 177, and GUI updater 178 are included in the corresponding application view 191.

各イベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信して、そのイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及び(サブイベント配信命令を任意選択的に含む)イベント配信命令188の、少なくともサブセットも含む。   Each event recognition unit 180 receives event information (for example, event data 179) from the event sorter 170, and identifies an event from the event information. The event recognition unit 180 includes an event reception unit 182 and an event comparison unit 184. In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (which optionally includes sub-event delivery instructions).

イベント受信部182は、イベントソータ170よりイベント情報を受信する。イベント情報は、例えば、タッチ又はタッチの移動などのサブイベントの情報を含む。サブイベントによっては、イベント情報は、サブイベントの場所などの追加情報をもまた含む。サブイベントが、タッチの動きに関係する場合、イベント情報はまた、そのサブイベントの速度及び方向も任意選択的に含む。いくつかの実施形態では、イベントは、ある方向から別の方向へ(例えば、縦長の向きから横長の向きへ、又はその逆)のデバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。   The event receiving unit 182 receives event information from the event sorter 170. Event information includes, for example, information on sub-events such as touch or movement of touch. Depending on the subevent, the event information also includes additional information such as the location of the subevent. If the sub-event relates to touch movement, then the event information also optionally includes the speed and direction of the sub-event. In some embodiments, the event comprises rotation of the device from one direction to another (eg, from portrait orientation to landscape orientation or vice versa), and the event information is the device's current orientation ( Containing corresponding information about the attitude of the device).

イベント比較部184は、イベント情報を既定のイベント又はサブイベントの定義と比較し、その比較により、イベント若しくはサブイベントを判定、又はイベント若しくはサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187−1)、イベント2(187−2)などの、イベントの定義(例えば、サブイベントの既定のシーケンス)を含む。いくつかの実施形態では、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。一実施例では、イベント1(187−1)に関する定義は、表示オブジェクト上でのダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上の所定の段階についての第1のタッチ(タッチ開始)、所定の段階についての第1のリフトオフ(タッチ終了)、表示されたオブジェクト上の所定の段階についての第2のタッチ(タッチ開始)、及び所定の段階についての第2のリフトオフ(タッチ終了)を含む。別の実施形態では、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。このドラッギングは、例えば、所定の段階に関する表示オブジェクト上でのタッチ(又は、接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチの終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。   The event comparison unit 184 compares the event information with the predetermined event or sub-event definition, and determines the event or sub-event or determines or updates the state of the event or sub-event by the comparison. In some embodiments, event comparator 184 includes event definition 186. The event definition 186 includes, for example, definitions of events (for example, a predetermined sequence of sub-events) such as event 1 (187-1) and event 2 (187-2). In some embodiments, sub-events within event 187 include, for example, touch start, touch end, touch movement, touch cancellation, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a display object. The double tap is, for example, a first touch (start of touch) for a predetermined stage on the displayed object, a first lift-off for a predetermined stage (end of touch), and a predetermined stage on the displayed object And a second lift-off (touch end) for a predetermined stage. In another embodiment, the definition of event 2 (187-2) is a drag on the displayed object. This dragging includes, for example, touch (or touch) on the display object for a predetermined stage, movement of the touch across the touch sensitive display 112, and lift off of the touch (end of touch). In some embodiments, an event also includes information about one or more associated event handlers 190.

いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトに関するイベントの定義を含む。一部の実施形態では、イベント比較器184は、いずれのユーザインタフェースオブジェクトがサブイベントに関連付けられるかを判定するために、ヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトが、タッチ感知ディスプレイ112上に表示されるアプリケーションビューでは、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較器184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのいずれが、そのタッチ(サブイベント)に関連付けられているかを判定する。各表示オブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合には、イベント比較器は、そのヒットテストの結果を使用して、いずれのイベントハンドラ190をアクティブ化させるべきかを決定する。例えば、イベント比較器184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられた、イベントハンドラを選択する。   In some embodiments, event definitions 187 include definitions of events for each user interface object. In some embodiments, event comparator 184 performs a hit test to determine which user interface object is associated with the sub-event. For example, in an application view where three user interface objects are displayed on touch sensitive display 112, when a touch is detected on touch sensitive display 112, event comparator 184 performs a hit test to Determine which of the user interface objects are associated with that touch (sub-event). If each display object is associated with a respective event handler 190, the event comparator uses the result of its hit test to determine which event handler 190 should be activated. For example, event comparator 184 selects an event handler associated with the sub-event and object triggering the hit test.

一部の実施形態では、各イベント187に関する定義はまた、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の配信を遅延させる、遅延作用も含む。   In some embodiments, the definition for each event 187 also includes a delay effect, which delays delivery of event information until it is determined whether the sequence of sub-events corresponds to the event type of the event recognizer. .

対応するイベント認識部180が、一連のサブイベントがイベント定義186内のイベントのいずれにも一致しないと判定する場合には、対応するイベント認識部180は、イベント不可能状態、イベント失敗状態、又はイベント終了状態に入り、その後は、このタッチに基づくジェスチャの後続のサブイベントを無視する。この状況では、存在する場合には、ヒットビューに関してアクティブのまま維持される他のイベント認識部が、進行中のタッチに基づくジェスチャのサブイベントを、継続して追跡及び処理する。   When the corresponding event recognition unit 180 determines that the series of sub-events does not match any of the events in the event definition 186, the corresponding event recognition unit 180 determines that the event is in an impossible state, an event failure state, or The end event state is entered and thereafter ignores subsequent sub-events of this touch based gesture. In this situation, other event recognizers that remain active with respect to the hit view, if present, continuously track and process the sub-events of the touch-based gesture in progress.

いくつかの実施形態では、対応するイベント認識部180は、構成可能なプロパティ、フラグ、及び/又はイベント配信システムがアクティブに関わっているイベント認識部にどのようにサブイベント配信を実行するかについて示すリストを持つメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように相互作用するか、又は相互作用することが可能になるかを示す、構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はサブイベントがビュー階層又はプログラム階層内の様々なレベルに配信されるかどうかを示すリストを含む。   In some embodiments, the corresponding event recognizer 180 indicates how to perform sub-event delivery to configurable events, flags, and / or event recognizers that the event delivery system is actively involved It includes metadata 183 having a list. In some embodiments, the metadata 183 may include configurable properties, flags, and / or lists that indicate how the event recognizer interacts with or is allowed to interact with each other. Including. In some embodiments, metadata 183 includes configurable properties, flags, and / or a list that indicates whether sub-events are to be delivered to different levels in the view or program hierarchy.

いくつかの実施形態では、対応するイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されたときに、イベントに関連付けられたイベントハンドラ190をアクティブにする。一部の実施形態では、それぞれのイベント認識部180は、イベントハンドラ190に、そのイベントに関連付けられたイベント情報を配信する。イベントハンドラ190をアクティブ化させることは、それぞれのヒットビューにサブイベントを送信すること(及び、送信を延期すること)とは異なる。一部の実施形態では、イベント認識部180は、認識されたイベントに関連付けられたフラグをスローし、そのフラグに関連付けられたイベントハンドラ190は、フラグをキャッチして、既定のプロセスを実行する。   In some embodiments, the corresponding event recognizer 180 activates an event handler 190 associated with the event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers to the event handler 190 event information associated with the event. Activating the event handler 190 is different from sending (and deferring sending) sub-events to their respective hit views. In some embodiments, the event recognizer 180 throws a flag associated with the recognized event, and the event handler 190 associated with the flag catches the flag and performs a predetermined process.

一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化させることなく、サブイベントについてのイベント情報を配信する、サブイベント配信命令を含む。その代わりに、サブイベント配信命令は、一連のサブイベントに関連付けられたイベントハンドラ、又はアクティブに関与するビューに、イベント情報を配信する。一連のサブイベント又はアクティブに関与するビューに関連付けられたイベントハンドラは、そのイベント情報を受信して、所定のプロセスを実行する。   In some embodiments, the event delivery instructions 188 include sub-event delivery instructions that deliver event information for sub-events without activating the event handler. Instead, the sub-event delivery instruction delivers event information to an event handler associated with a series of sub-events or a view that is actively involved. An event handler associated with a series of sub-events or views actively involved receives the event information and performs a predetermined process.

一部の実施形態では、データアップデータ176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオプレーヤモジュール145で使用されるビデオファイルを記憶する。一部の実施形態では、オブジェクトアップデータ177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ176は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデータ178はGUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、それを、タッチ感知ディスプレイ上に表示するために、グラフィックモジュール132に送信する。   In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, data updater 176 may update the telephone number used by contacts module 137 or store video files used by video player module 145. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, object updater 176 creates a new user interface object or updates the location of the user interface object. The GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends it to graphics module 132 for display on a touch sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含むか、又はそれらに対するアクセスを有する。一部の実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の単一のモジュール内に含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュール内に含まれる。   In some embodiments, event handler (s) 190 include or have access to data updater 176, object updater 177, and GUI updater 178. In some embodiments, data updater 176, object updater 177, and GUI updater 178 are included within a single module of each application 136-1 or application view 191. In other embodiments, they are included in more than one software module.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の論考はまた、入力デバイスを使用して多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことが理解されよう。例えば、単一又は複数のキーボードの押圧若しくは保持と任意選択的に連係させた、マウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭指示、検出される眼球移動、バイオメトリック入力、並びに/あるいは、これらの任意の組み合わせが、認識されるべきイベントを定義するサブイベントに対応する入力として任意選択的に利用される。   The above discussion of user touch event processing on touch sensitive displays also applies to other forms of user input for operating multifunction device 100 using an input device, all of which are touch It will be appreciated that it does not necessarily start on the screen. For example, movement of a mouse and pressing of a mouse button, movement of a touch such as tapping on a touch pad, dragging, scrolling, pen stylus input, optionally coordinated with pressing or holding of one or more keyboards Device movement, verbal instructions, detected eye movement, biometric input, and / or any combination of these are optionally used as input corresponding to a sub-event defining an event to be recognized .

図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す図である。タッチスクリーンは、ユーザインタフェース(UI)200内に1つ以上のグラフィックを、任意選択的に、表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、グラフィックのうちの1つ以上を選択することを可能にされる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが1つ以上のグラフィックとの接触を断つと生じる。いくつかの実施形態では、ジェスチャは、1回以上のタップ、1回以上の(左から右、右から左、上方向、及び/又は下方向への)スワイプ、及び/又は、デバイス100と接触した指の(右から左、左から右、上方向、及び/又は下方向への)ローリングを、任意選択的に含む。いくつかの実装又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスワイプするスワイプジェスチャは、対応するアプリケーションを、任意選択的に、選択しない。   FIG. 2 is a diagram of a portable multifunction device 100 with a touch screen 112, in accordance with some embodiments. The touch screen optionally displays one or more graphics in the user interface (UI) 200. In this embodiment, as well as other embodiments described below, the user may, for example, use one or more fingers 202 (not drawn to scale in the figures) or one or more styluses 203 (in the figures). (Not drawn to scale), it is possible to select one or more of the graphics by performing the gesture on the graphic. In some embodiments, selection of one or more graphics occurs when the user breaks contact with one or more graphics. In some embodiments, the gesture contacts one or more taps, one or more swipes (from left to right, right to left, up and / or down), and / or the device 100. Optionally includes rolling (from right to left, left to right, up and / or down) of the finger. In some implementations or situations, accidental contact with a graphic does not select that graphic. For example, if the gesture corresponding to the selection is a tap, a swipe gesture that swipes over the application icon optionally does not select the corresponding application.

デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、デバイス100上で任意選択的に実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために、任意選択的に使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。   Device 100 also optionally includes one or more physical buttons, such as “home” or menu button 204. As mentioned above, menu button 204 is optionally used to navigate to any application 136 in the set of applications that are optionally run on device 100. Alternatively, in some embodiments, the menu button is implemented as a soft key in a GUI displayed on the touch screen 112.

一実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフし、デバイスをロックするためのプッシュボタン206、音量調節ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電外部ポート124を含む。プッシュボタン206は、ボタンを押し下げて、既定の時間間隔にわたってボタンを押し下げられた状態で保持することによって、デバイス上の電源をオン/オフし、ボタンを押し下げて、既定の時間間隔が経過する前にボタンを解放することによって、デバイスをロックし、かつ/又は、デバイスをロック解除するか、若しくはロック解除プロセスを開始するために、任意選択的に使用される。代替的実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能のアクティブ化又は停止に関する口頭入力も受け入れる。デバイス100はまた、タッチスクリーン112上の接触の強度を検出するための、1つ以上の接触強度センサ165、及び/又は、デバイス100のユーザに対する触知出力を生成するための、1つ以上の触知出力生成器167も、任意選択的に含む。   In one embodiment, the device 100 includes a touch screen 112, a menu button 204, a push button 206 for powering on / off the device and locking the device, a volume control button 208, a subscriber identity module (SIM) card slot 210 includes a headset jack 212 and a docking / charging external port 124. The push button 206 turns the power on / off on the device by depressing the button and holding the button depressed for a predetermined time interval, and depressing the button before the predetermined time interval has elapsed. Is optionally used to lock the device and / or unlock the device or initiate the unlocking process by releasing the button. In an alternative embodiment, device 100 also accepts verbal input via microphone 113 regarding activation or deactivation of some functions. Device 100 may also include one or more contact intensity sensors 165 for detecting the intensity of the touch on touch screen 112 and / or one or more for generating tactile output to the user of device 100. A tactile output generator 167 is also optionally included.

図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。一部の実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育用デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続するための1つ以上の通信バス320を含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと称することがある)を、任意選択的に含む。デバイス300は、典型的にはタッチスクリーンディスプレイ(例えば、タッチスクリーンディスプレイ112)である、ディスプレイ340を備える、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上述された接触強度センサ165と同様の接触強度センサ)も、任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス半導体メモリデバイスなどの、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体記憶デバイスなどの、不揮発性メモリを含む。メモリ370は、CPU(1つ又は複数)310からは離れて位置する1つ以上の記憶デバイスを、任意選択的に、含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造に類似する、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更には、メモリ370は、ポータブル多機能デバイス100のメモリ102内には存在しない、追加的なプログラム、モジュール、及びデータ構造を、任意選択的に記憶する。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、その一方で、ポータブル多機能デバイス100(図1A)のメモリ102は、これらのモジュールを任意選択的に記憶しない。   FIG. 3 is a block diagram of an exemplary multifunction device with a display and touch sensitive surface in accordance with some embodiments. Device 300 need not be portable. In some embodiments, the device 300 can be a laptop computer, desktop computer, tablet computer, multimedia player device, navigation device, educational device (such as a children's learning toy), a gaming system, or a control device (eg, a home) Controller for business or business use). Device 300 typically includes one or more processing units (CPUs) 310, one or more networks or other communication interfaces 360, memory 370, and one or more for interconnecting these components. A communication bus 320 is included. Communication bus 320 optionally includes circuitry (sometimes referred to as a chip set) that interconnects and controls communication between system components. Device 300 includes an input / output (I / O) interface 330 comprising a display 340, which is typically a touch screen display (eg, touch screen display 112). The I / O interface 330 may also generate a tactile output on the keyboard and / or mouse (or other pointing device) 350 and touch pad 355, device 300 (eg, as described above with reference to FIG. 1A). Tactile output generator 357 similar to tactile output generator 167, sensor 359 (eg, light sensor, acceleration sensor, proximity sensor, touch sensing sensor, and / or contact intensity sensor described above with reference to FIG. 1A A contact strength sensor similar to 165) is also optionally included. Memory 370 includes high-speed random access memory, such as DRAM, SRAM, DDR RAM, or other random access semiconductor memory devices, and optionally, one or more magnetic disk storage devices, optical disk storage devices, flash memory It includes non-volatile memory, such as a device or other non-volatile semiconductor storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU (s) 310. In some embodiments, memory 370 is similar to programs, modules, and data structures stored in memory 102 of portable multifunction device 100 (FIG. 1A), programs, modules, and data structures, or a subset thereof. Remember. Furthermore, memory 370 optionally stores additional programs, modules, and data structures that are not present in memory 102 of portable multifunction device 100. For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disk authoring module 388, and / or spreadsheet module 390, On the other hand, the memory 102 of the portable multifunction device 100 (FIG. 1A) does not optionally store these modules.

上記で特定された図3の要素のそれぞれは、任意選択的に、前述のメモリデバイスのうちの1つ以上に記憶される。上記で識別されたモジュールのうちのそれぞれは、上述した機能を実行するための命令セットに対応する。上述の識別されたモジュール又はプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされるか、又は別の方法で再配置される。いくつかの実施形態において、メモリ370は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ370は、上述されていない追加のモジュール及びデータ構造を、任意選択的に記憶する。   Each of the elements of FIG. 3 identified above is optionally stored in one or more of the aforementioned memory devices. Each of the above identified modules corresponds to a set of instructions for performing the functions described above. The above-identified modules or programs (ie, instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus, in various embodiments, various subsets of these modules Optionally, they are combined or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the identified modules and data structures described above. Further, memory 370 optionally stores additional modules and data structures not described above.

ここで、ポータブル多機能デバイス100上に任意選択的に実装される、ユーザインタフェース(「UI」)の実施形態に注意を向ける。   Attention is now directed to embodiments of a user interface (“UI”) that are optionally implemented on the portable multifunction device 100.

図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100におけるアプリケーションのメニューのための例示的なユーザインタフェースを示す。同様のユーザインタフェースが、任意選択的に、デバイス300上に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi−Fi信号などの無線通信(単数又は複数)に関する信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーション用のアイコンを有するトレイ408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽再生モジュール152用のアイコン422。
●以下のような、他のアプリケーション用のアイコン、
○「テキスト」とラベル付けされる、IMモジュール141用のアイコン424、
○「カレンダー」とラベル付けされる、カレンダーモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株価」とラベル付けされる、株価ウィジェット149−2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「天候」とラベル付けされる、天候ウィジェット149−1用のアイコン438、
○「時計」とラベル付けされる、アラーム時計ウィジェット149−4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A illustrates an exemplary user interface for a menu of applications on portable multifunction device 100 in accordance with some embodiments. A similar user interface is optionally implemented on device 300. In some embodiments, user interface 400 includes the following elements, or a subset or superset thereof:
Signal strength indicator (s) 402 for wireless communication (s), such as cellular and Wi-Fi signals;
Time 404,
● Bluetooth indicator 405,
Battery status indicator 406,
A tray 408 with icons for frequently used applications, such as:
O an icon 416 for the phone module 138, labeled "phone", optionally including an indicator 414 for the number of missed calls or voice mail messages;
○ an icon 418 for the email client module 140, labeled "mail", optionally including an indicator 410 of the number of unread emails,
○ an icon 420 for the browser module 147, labeled "browser", and o a video and music playback module 152, also referred to as an iPod (trademark of Apple Inc.) module 152, labeled "iPod" Icon 422.
● Icons for other applications, such as
○ An icon 424 for the IM module 141, labeled "Text",
○ an icon 426 for the calendar module 148, labeled "calendar",
○ An icon 428 for the image management module 144, labeled “Photo”
○ An icon 430 for the camera module 143, labeled "Camera",
Icon 432 for the online video module 155, labeled "Online Video",
Icon 434 for the stock widget 149-2, labeled as "stock",
○ An icon 436 for the map module 154, labeled "map",
Icon 438 for the weather widget 149-1, labeled "weather",
Icon 440 for the Alarm Clock Widget 149-4, labeled "Clock",
○ Icon 442 for training support module 142, labeled “Training support”,
An icon 444 for the note module 153, labeled "Notes", and an icon 446 for a configuration application or module, which provides access to settings for the device 100 and its various applications 136.

図4Aに示すアイコンのラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽再生モジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、対応するアプリケーションアイコンに関するラベルは、対応するアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンに関するラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。   It should be noted that the label of the icon shown in FIG. 4A is merely exemplary. For example, the icon 422 for the video and music playback module 152 is labeled "music" or "music player". Other labels are optionally used for various application icons. In some embodiments, the label for the corresponding application icon includes the name of the application corresponding to the corresponding application icon. In some embodiments, the label for a particular application icon is different from the name of the application that corresponds to that particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えるデバイス(例えば、図3のデバイス300)上の、例示的なユーザインタフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための、1つ以上の接触強度センサ(例えば、センサ357のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成するための、1つ以上の触知出力生成器359を含む。   FIG. 4B is exemplary on a device (eg, device 300 of FIG. 3) comprising a touch sensitive surface 451 (eg, tablet or touch pad 355 of FIG. 3) that is separate from display 450 (eg, touch screen display 112). User interface. Device 300 may also sense one or more contact intensity sensors (eg, one or more of sensors 357) and / or tactile sensations to the user of device 300 to detect the intensity of the touch on touch sensitive surface 451. One or more tactile output generators 359 are included to generate the output.

以下の実施例のうちのいくつかは、タッチスクリーンディスプレイ112上の入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイとは別個のタッチ感知面上で入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上の対応する場所に対応する場所(例えば、図4Bにおいて、460は468と対応し、462は470と対応する)でのタッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このように、タッチ感知面がディスプレイとは別個のものであるとき、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、及びそれらの移動)は、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに、任意選択的に使用されることを理解されたい。   Although some of the following examples are described with reference to inputs on touch screen display 112 (if the touch sensitive surface and the display are combined), in some embodiments, the device is As shown in FIG. 4B, the input is detected on a touch sensitive surface separate from the display. In some embodiments, the touch sensitive surface (eg, 451 in FIG. 4B) corresponds to the major axis (eg, 452 in FIG. 4B) corresponding to the major axis (eg, 453 in FIG. 4B) on the display (eg, 450) Have. According to these embodiments, the device may be configured with a touch sensitive surface 451 at a location corresponding to a corresponding location on the display (eg, 460 corresponds to 468 and 462 corresponds to 470 in FIG. 4B). Detect contacts (eg, 460 and 462 in FIG. 4B). Thus, when the touch sensitive surface is separate from the display, the user inputs (eg, contacts 460 and 462 and their movements detected by the device on the touch sensitive surface (eg, 451 in FIG. 4B) ) Is used by the device to manipulate the user interface on the display (eg, 450 of FIG. 4B) of the multifunction device. It should be understood that similar methods are optionally used for the other user interfaces described herein.

更には、以下の説明は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに)マウスクリックで置き換えられ、その後、(例えば、接触の移動の代わりに)スワイプの経路に沿ってカーソルの移動が行われる。別の実施例として、タップジェスチャは、(例えば、接触の検出に続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの場所に配置される間、任意選択的に、マウスクリックで置き換えられる。同様に、複数のユーザ入力が同時に検出される場合、複数のコンピュータマウスが任意選択的に同時に使用されるか、又は、マウスと指の接触とが任意選択的に同時に使用されることを理解されたい。   Furthermore, while the following description is primarily described with reference to finger input (eg, finger touch, finger tap gesture, finger swipe gesture), in some embodiments those finger inputs It should be understood that one or more of them may be replaced with input from another input device (eg, mouse based input or stylus input). For example, the swipe gesture is optionally replaced with a mouse click (e.g., instead of contact) and then the movement of the cursor along the swipe path (e.g., instead of moving the touch). As another example, the tap gesture is optionally replaced by a mouse click while the cursor is placed at the location of the tap gesture (e.g. instead of stopping the detection of the touch following the detection of the touch) . Similarly, it is understood that if multiple user inputs are detected simultaneously, multiple computer mice are optionally used simultaneously, or that mouse and finger contacts are optionally used simultaneously. I want to.

本明細書で使用されるとき、用語「フォーカスセレクタ」とは、ユーザが対話しているユーザインタフェースの現在の部分を示す、入力要素を指す。カーソル又は他の位置マーカーを含む一部の実装では、そのカーソルが「フォーカスセレクタ」の役割を果たすため、特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上にカーソルが存在する間に、入力(例えば、押圧入力)がタッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で検出されると、その特定のユーザインタフェース要素が、検出された入力に従って調節される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図4Aのタッチスクリーン112)を含むいくつかの実装では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」の役割を果たすため、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の場所で検出されると、その特定のユーザインタフェース要素が、検出された入力に従って調節される。いくつかの実装では、フォーカスは、対応するカーソルの移動又はタッチスクリーンディスプレイ上の接触の移動を伴うことなく(例えば、タブキー又は矢印キーを使用して、1つのボタンから別のボタンにフォーカスを移動させることによって)、ユーザインタフェースの1つの領域からユーザインタフェースの別の領域に移動され、これらの実装では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが採用する特定の形態とは関わりなく、フォーカスセレクタは、全般的に、ユーザが意図するユーザインタフェースとの対話を(例えば、ユーザが対話することを意図しているユーザインタフェースの要素を、デバイスに示すことによって)伝達するために、ユーザによって制御される、ユーザインタフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出される間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の場所は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブにすることをユーザが意図していることを示すものである。   As used herein, the term "focus selector" refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other position marker, the cursor acts as a "focus selector" so that it is above a particular user interface element (eg, a button, window, slider, or other user interface element). The particular user interface when an input (eg, a press input) is detected on the touch sensitive surface (eg, touch pad 355 of FIG. 3 or touch sensitive surface 451 of FIG. 4B) while the cursor is on An element is adjusted according to the detected input. In some implementations, including a touch screen display (eg, touch sensitive display system 112 of FIG. 1A or touch screen 112 of FIG. 4A) that allows direct interaction with user interface elements on the touch screen display As the touch detected on the touch screen plays the role of a "focus selector", the input (e.g. touch input by touch) may be a specific user interface element (e.g. button, window, slider or) on the touch screen display. When detected at the location of another user interface element, that particular user interface element is adjusted in accordance with the detected input. In some implementations, the focus does not involve the movement of the corresponding cursor or the movement of the touch on the touch screen display (e.g., move the focus from one button to another using tab or arrow keys) By moving it from one area of the user interface to another area of the user interface, and in these implementations, the focus selector moves in accordance with the movement of focus between the various areas of the user interface. Regardless of the particular form adopted by the focus selector, the focus selector generally interacts with the user interface intended by the user (eg, a user interface element that the user intends to interact with, User interface elements (or contacts on the touch screen display) that are controlled by the user to communicate (by showing to the device). For example, the location of the focus selector (eg, cursor, touch, or selection box) on the corresponding button while the pressing input is detected on the touch sensitive surface (eg, touch pad or touch screen) Indicates that the user intends to activate the button (instead of the other user interface elements shown on the display of the device).

図5Aは、いくつかの実施形態に係る動作環境500のブロック図である。動作環境500は、サーバ510、1つ以上の通信ネットワーク505、ポータブル多機能デバイス100、及び外部情報提供システム540を含む。いくつかの実施形態では、外部情報提供システム540は、車両内に実装されたエンターテイメント及び/又はナビゲーションシステムである。いくつかの実施形態では、外部情報提供システム540は1つ以上のディスプレイを含む。いくつかの実施形態では、車両は、それぞれが対応するディスプレイを備える、動作環境500内のデバイス100に通信可能に結合された、複数の外部情報提供システム540を含む。   FIG. 5A is a block diagram of an operating environment 500 in accordance with some embodiments. Operating environment 500 includes a server 510, one or more communication networks 505, a portable multifunction device 100, and an external information provision system 540. In some embodiments, the external information provision system 540 is an entertainment and / or navigation system implemented in a vehicle. In some embodiments, the external information provision system 540 includes one or more displays. In some embodiments, the vehicle includes a plurality of external information provision systems 540 communicatively coupled to the device 100 in the operating environment 500, each comprising a corresponding display.

サーバ510は、典型的には、メモリ524内に記憶されたモジュール、プログラム及び/又は命令を実行し、それにより処理動作を実行するための1つ以上の処理ユニット(CPU)512と、1つ以上のネットワーク又は他の通信インタフェース520と、メモリ524と、これらの構成要素を相互接続するための1つ以上の通信バス522とを含む。通信バス522は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと称することがある)を、任意選択的に含む。メモリ524は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス半導体メモリデバイスなどの、高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体記憶デバイスなどの、不揮発性メモリを含み得る。メモリ524は、CPU(単数又は複数)512から遠隔に配置される1つ以上の記憶デバイスを、任意選択的に含み得る。メモリ524、あるいはメモリ524内の不揮発性メモリデバイス(単数又は複数)は、非一時的コンピュータ可読記憶媒体を備える。いくつかの実施形態では、メモリ524、又はメモリ524のコンピュータ可読記憶媒体は、以下のプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。
●様々な基本システムサービスを処理するための手順、及びハードウェア依存タスクを実行するための手順を含むオペレーティングシステム526、及び
●1つ以上の通信ネットワークインタフェース520、及びインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上の通信ネットワーク505を介して、(有線又は無線)サーバ510を他のコンピューティングデバイスに接続するために使用されるネットワーク通信モジュール528。
The server 510 typically executes one or more processing units (CPUs) 512 for executing modules, programs and / or instructions stored in the memory 524, thereby performing processing operations. These include a network or other communication interface 520, a memory 524 and one or more communication buses 522 for interconnecting these components. Communication bus 522 optionally includes circuitry (sometimes referred to as a chip set) that interconnects and controls communication between system components. Memory 524 includes high-speed random access memory, such as DRAM, SRAM, DDR RAM, or other random access semiconductor memory devices, and also includes one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or the like. And a non-volatile memory such as a non-volatile semiconductor storage device. Memory 524 may optionally include one or more storage devices remotely located from CPU (s) 512. The memory 524 or non-volatile memory device or devices in the memory 524 comprises non-transitory computer readable storage medium. In some embodiments, memory 524 or a computer readable storage medium of memory 524 stores the following programs, modules, and data structures, or subsets thereof.
Operating system 526 including procedures for processing various basic system services, and procedures for performing hardware dependent tasks, and one or more communication network interfaces 520, and the Internet, other wide area networks, A network communication module 528 used to connect the (wired or wireless) server 510 to other computing devices via one or more communication networks 505, such as a local area network, a metropolitan area network, etc.

ポータブル多機能デバイス100(本明細書では「デバイス100」と呼ばれることもある)は、典型的には、図1A〜1B及び/又は図3を参照して説明される構成要素を含む。   The portable multifunction device 100 (sometimes referred to herein as "device 100") typically includes the components described with reference to FIGS. 1A-1B and / or FIG.

外部情報提供システム540(本明細書では「システム540」と呼ばれることもある)は、メモリ554内に記憶されたモジュール、プログラム及び/又は命令を実行し、それにより処理動作を実行するための1つ以上の処理ユニット(CPU)542と、1つ以上のネットワーク又は他の通信インタフェース550と、メモリ554と、これらの構成要素を相互接続するための1つ以上の通信バス552とを含む。外部情報提供システム540は、任意選択的に、1つ以上のディスプレイデバイス546及び複数のコントロール548(例えば、ジョグダイヤル、ノブ、ボタン、スイッチ、タッチスクリーンディスプレイなどのタッチ感知面、又は他の入力ソース)を備える、ユーザインタフェース544を含む。いくつかの実施形態では、1つ以上のディスプレイ546は、主要ディスプレイ546−1(例えば、ダッシュボード又は車両ナビゲーションディスプレイ)及び補助ディスプレイ546−2(例えば、後部座席又はエンターテイメントディスプレイ)を含む。いくつかの実施形態では、1つ以上のディスプレイ546のそれぞれのディスプレイは、ユーザタッチ入力を受け取る(例えば、指接触の検出及び移動に対応する指接触及びジェスチャを検出する)ことができるタッチスクリーンディスプレイである。いくつかの実施形態では、1つ以上のディスプレイ546のそれぞれのディスプレイは、複数のコントロール548(例えば、ジョグダイヤル、ノブ、ボタン、スイッチ、タッチスクリーンディスプレイなどのタッチ感知面、又は他の入力ソース)のうちの1つ以上のコントロールに関連付けられる。通信バス552は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を、任意選択的に含む。メモリ554は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス半導体メモリデバイスなどの、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体記憶デバイスなどの、不揮発性メモリを含む。メモリ554は、CPU(単数又は複数)542から遠隔に配置される1つ以上の記憶デバイスを、任意選択的に含み得る。メモリ552、あるいはメモリ552内の不揮発性メモリデバイス(単数又は複数)は、非一時的コンピュータ可読記憶媒体を備える。いくつかの実施形態では、メモリ552、又はメモリ552のコンピュータ可読記憶媒体は、以下のプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。
●様々な基本システムサービスを処理するための手順、及びハードウェア依存タスクを実行するための手順を含むオペレーティングシステム556、及び
●1つ以上の通信ネットワークインタフェース550及びインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上の通信ネットワーク505を介して、(有線又は無線)サーバ540を他のコンピューティングデバイスに接続するために使用されるネットワーク通信モジュール558。
External information provision system 540 (sometimes referred to herein as “system 540”) executes modules, programs and / or instructions stored in memory 554, thereby performing processing operations 1 It includes one or more processing units (CPUs) 542, one or more networks or other communication interfaces 550, a memory 554, and one or more communication buses 552 for interconnecting these components. External information provision system 540 optionally includes one or more display devices 546 and a plurality of controls 548 (eg, jog dials, knobs, buttons, switches, touch sensitive surfaces such as touch screen displays, or other input sources) , And includes a user interface 544. In some embodiments, one or more displays 546 include a main display 546-1 (eg, a dashboard or vehicle navigation display) and an auxiliary display 546-2 (eg, a back seat or entertainment display). In some embodiments, a display of each of the one or more displays 546 can receive user touch input (eg, detect finger touch and gestures corresponding to finger touch detection and movement). It is. In some embodiments, the display of each of the one or more displays 546 is a plurality of controls 548 (eg, jog dials, knobs, buttons, switches, touch sensitive surfaces such as touch screen displays, or other input sources) Associated with one or more controls. Communication bus 552 optionally includes circuitry (sometimes referred to as a chip set) that interconnects and controls communication between system components. Memory 554 includes high speed random access memory, such as DRAM, SRAM, DDR RAM, or other random access semiconductor memory device, and optionally, one or more magnetic disk storage devices, optical disk storage devices, flash memory It includes non-volatile memory, such as a device or other non-volatile semiconductor storage device. Memory 554 may optionally include one or more storage devices remotely located from CPU (s) 542. The memory 552, or non-volatile memory device or devices in the memory 552, comprises non-transitory computer readable storage medium. In some embodiments, memory 552 or a computer readable storage medium of memory 552 stores the following programs, modules, and data structures, or a subset thereof.
Operating system 556, including procedures for processing various basic system services, and procedures for performing hardware dependent tasks, and one or more communication network interfaces 550 and the Internet, other wide area networks, local A network communication module 558 used to connect the (wired or wireless) server 540 to other computing devices via one or more communication networks 505, such as area networks, metropolitan area networks, etc.

いくつかの実施形態では、デバイス100は、システム540の1つ以上のディスプレイ546を駆動する。例えば、デバイス100はビデオ信号をシステム540に送信し、システム540のCPU 542は、ビデオ信号を1つ以上のディスプレイ546上にレンダリングする。いくつかの実施形態では、デバイス100がビデオ信号を直接1つ以上のディスプレイ546に送信し、CPU 542はビデオ信号をレンダリングするために使用されない(例えば、デバイス100はディスプレイ546を補助ディスプレイとして使用する)。いくつかの実施形態では、デバイス100のタッチスクリーン112上に表示されたユーザインタフェースは、システム540の1つ以上のディスプレイ546上に表示されたユーザインタフェースと同期させられ、いくつかの他の実施形態では、デバイス100のタッチスクリーン112上に表示されたユーザインタフェースは、システム540の1つ以上のディスプレイ546上に表示されたユーザインタフェースと連続的に同期させられず、場合によっては(例えば、デバイス100のユーザが可能な運転目的地に関する情報を見ているが、まだ運転目的地を選択していないとき)、デバイス100のタッチスクリーン112は、システム540のディスプレイ546上に表示されたものと異なる情報を表示する(例えば、タッチスクリーン112及びディスプレイ546は断続的に同期させられ、それらは断続的な同期イベント間の期間においては同期させられない)。   In some embodiments, device 100 drives one or more displays 546 of system 540. For example, device 100 transmits a video signal to system 540, and CPU 542 of system 540 renders the video signal on one or more displays 546. In some embodiments, device 100 transmits the video signal directly to one or more displays 546 and CPU 542 is not used to render the video signal (eg, device 100 uses display 546 as an auxiliary display) ). In some embodiments, the user interface displayed on touch screen 112 of device 100 is synchronized with the user interface displayed on one or more displays 546 of system 540, and in some other embodiments. In, the user interface displayed on the touch screen 112 of the device 100 is not continuously synchronized with the user interface displayed on the one or more displays 546 of the system 540, and in some cases (eg, the device 100 The user is looking at information about possible driving destinations but when he has not yet selected the driving destination), the touch screen 112 of the device 100 differs from the one displayed on the display 546 of the system 540 Display (for example, touch screen Over down 112 and the display 546 is intermittently synchronized, they are not synchronized in the period between intermittent synchronization events).

いくつかの実施形態では、ユーザ入力を検出したことに応じて(例えば、1つ以上のディスプレイ546のうちのそれぞれのディスプレイに関連付けられたユーザタッチ入力又は複数のコントロール548のうちのそれぞれのコントロールに関連付けられたユーザ入力)、システム540(又は1つ以上のディスプレイ546のうちのそれぞれのディスプレイ若しくは複数のコントロール548のうちのそれぞれのコントロール)は、ユーザ入力に対応する入力情報(例えば、入力ソースに対する識別子及びユーザ入力を記述する入力記述)をデバイス100に送信する。更には、デバイス100は、受信した入力情報及び/又は1つ以上のディスプレイ546のうちのそれぞれのディスプレイ上に表示されたユーザインタフェースのユーザ入力時又は入力前の表示状態に従って、1つ以上のディスプレイ546のうちのそれぞれのディスプレイ及び/又はデバイス100のタッチスクリーン112上に表示されたユーザインタフェースを更新する。   In some embodiments, in response to detecting a user input (eg, a user touch input or a respective one of the plurality of controls 548 associated with the respective display of the one or more displays 546) The associated user input), the system 540 (or the respective display or controls of the one or more displays 546, or the respective controls of the plurality of controls 548) are input information corresponding to the user input (eg, to the input source) Sends an identifier and an input description describing the user input to the device 100. Furthermore, the device 100 may display one or more displays according to the received input information and / or the display state upon or before the user input of the user interface displayed on the respective display of the one or more displays 546. Update the display of each of 546 and / or the user interface displayed on the touch screen 112 of the device 100.

図5Bは、影響を受けるディスプレイを選択し、影響を受けるディスプレイに更新情報を送信するプロセスを示す流れ図である。影響を受けるディスプレイ(例えば、主要ディスプレイ546−1)が、ユーザインタフェースを表示する(560)。システム540のコントロールである、それぞれの入力ソース(例えば、図6W〜図6FFに示すジョグダイヤル675)は、ユーザ入力(例えば、ジョグダイヤル675の回転)を検出する(561)。いくつかの実施形態では、それぞれの入力ソースはコントロール548のうちの1つであり、ユーザ入力はコントロール548のうちの1つとの対話である。例えば、コントロール548は、ボタン、スイッチ、ダイヤル、ノブ、他の機械的アフォーダンス、タッチ感知面、又は他の入力ソースを含む。例えば、ユーザ入力は、ノブ又はダイヤルの回転、アフォーダンス又はノブの押下、タッチ感知面又はタッチスクリーン上で検出されたタッチ入力、又はコントロール548との他のユーザ対話である。   FIG. 5B is a flow chart illustrating the process of selecting an affected display and sending updated information to the affected display. The affected display (e.g., main display 546-1) displays 560 the user interface. Each input source (e.g., jog dial 675 shown in FIGS. 6W-6FF), which is a control of system 540, detects 561 user input (e.g., rotation of jog dial 675). In some embodiments, each input source is one of the controls 548 and the user input is an interaction with one of the controls 548. For example, controls 548 include buttons, switches, dials, knobs, other mechanical affordances, touch sensitive surfaces, or other input sources. For example, the user input may be knob or dial rotation, affordance or knob depression, touch input detected on a touch sensitive surface or touch screen, or other user interaction with the control 548.

ユーザ入力を検出したことに応じて、それぞれの入力ソースは、入力情報(例えば、{ソースID;入力記述})をデバイス100に送信する(562)。いくつかの実施形態では、入力情報は、入力ソースに対する一意識別子及びユーザ入力を記述する入力記述情報を含む。例えば、入力記述情報は、ジョグダイヤルの回転の大きさ及び方向、タッチ感知面上で検出された接触の位置及び移動量/移動方向、及び/又はタッチ感知面上で実行されたジェスチャの種類を記述するジェスチャデータなどの生入力データである。   In response to detecting a user input, each input source sends 562 input information (eg, {source ID; input description}) to the device 100. In some embodiments, the input information includes a unique identifier for the input source and input description information that describes the user input. For example, the input description information describes the magnitude and direction of rotation of the jog dial, the position and movement amount / movement direction of the contact detected on the touch sensing surface, and / or the type of gesture performed on the touch sensing surface. Raw input data such as gesture data.

デバイス100は、それぞれの入力ソースから入力情報を受信する(564)。デバイス100は、入力情報内に含まれる一意識別子(例えば、ソースID)を、入力ソースマッピング566に少なくとも部分的に基づいてディスプレイ識別子タグ(例えば、ディスプレイID)に関連付けることによって、影響を受けるディスプレイを選択する。いくつかの実施形態では、入力ソースマッピング566はデバイス100のメモリ内に記憶される。例えば、デバイス100は、ジョグダイヤル675が第1のディスプレイに関連付けられているとき、入力ソースマッピング566に基づき、ジョグダイヤル675の回転を第1のディスプレイ(例えば、図6W〜図6CCのディスプレイ546−1)に関連付ける。代替として、ジョグダイヤル675が第2のディスプレイ(例えば、図6DD〜図6FFのディスプレイ546−2)に関連付けられているとき、デバイス100は、ジョグダイヤル675の回転を第2のディスプレイに関連付ける。いくつかの実施形態では、複数の入力ソースが同じディスプレイにマップされる。ただし、いくつかの実施形態では、各入力ソースは単一のディスプレイにのみマップされる。いくつかの実施形態では、入力ソースマッピング566は、入力ソースマッピング更新イベント(例えば、第1のディスプレイに関連付けられた車両が、後進を開始して第1のディスプレイを制御すること、又は入力が、ジョグダイヤルを第1のディスプレイの代わりに第2のディスプレイに関連付けること)を検出したことに応じて、及び/又は所定のスケジュールに従って、デバイス100によって更新される。   The device 100 receives 564 input information from each of the input sources. Device 100 associates the affected display by associating a unique identifier (eg, source ID) contained in the input information with a display identifier tag (eg, display ID) based at least in part on input source mapping 566. select. In some embodiments, input source mapping 566 is stored in the memory of device 100. For example, when the jog dial 675 is associated with the first display, the device 100 can rotate the jog dial 675 based on the input source mapping 566 to the first display (eg, the display 546-1 in FIGS. 6W-6CC). Associate with Alternatively, when jog dial 675 is associated with a second display (e.g., displays 546-2 in FIGS. 6DD-6FF), device 100 associates the rotation of jog dial 675 with the second display. In some embodiments, multiple input sources are mapped to the same display. However, in some embodiments, each input source is mapped to only a single display. In some embodiments, input source mapping 566 may include an input source mapping update event (eg, a vehicle associated with the first display initiating reverse to control the first display, or the input may In response to detecting that the jog dial is associated with the second display instead of the first display, and / or according to a predetermined schedule, the device 100 updates.

影響を受けるディスプレイを選択した後に、デバイス100は、ユーザインタフェース状態テーブル568に少なくとも部分的に基づき、影響を受けるディスプレイに対するディスプレイID(入力ソースマッピング566に基づき判定される)をディスプレイ状態情報(例えば、どのような種類のユーザインタフェースがディスプレイ内に表示されているか、どのユーザインタフェース要素が表示されているか、及び/又はどのコントロールが音量調節又はスクロールなどのどの機能に関連付けられるか)に関連付けることによって、影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態を判定する。いくつかの実施形態では、ユーザインタフェース状態テーブル568は、デバイス100のメモリ内に記憶される。影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態を判定した後に、デバイス100は、影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態及び入力記述情報に従って、影響を受けるディスプレイに対する更新されたユーザインタフェースを生成し(570)、かつデバイス100は、影響を受けるディスプレイに、更新されたユーザインタフェース(又は更新されたユーザインタフェースを生成するための情報)を送信する。いくつかの実施形態では、デバイス100は、影響を受けるディスプレイに対応するディスプレイIDに関連付けられた状態情報が、更新されたユーザインタフェース(例えば、入力ソースから受信した後続の入力情報に応じるために使用される)を反映するように、ユーザインタフェース状態テーブル568も更新する。   After selecting the affected display, the device 100 displays the display ID (as determined based on the input source mapping 566) for the affected display based on the user interface state table 568, at least in part, on display state information (eg, By associating what kind of user interface is displayed in the display, which user interface element is displayed, and / or which control is associated with which function, such as volume control or scrolling) Determine the state of each of the user interfaces displayed on the affected display. In some embodiments, user interface state table 568 is stored in the memory of device 100. After determining the state of each of the user interfaces displayed on the affected display, the device 100 responds to the affected display according to the respective states of the user interface displayed on the affected display and the input description information. The updated user interface is generated (570), and the device 100 sends the updated user interface (or information for generating the updated user interface) to the affected display. In some embodiments, device 100 may use state information associated with a display ID corresponding to the affected display to respond to an updated user interface (eg, subsequent input information received from an input source) The user interface state table 568 is also updated to reflect the

更新されたユーザインタフェース(例えば、更新情報)をデバイス100から受信したことに応じて、影響を受けるディスプレイは、(例えば、以前にデバイス100によって提供されたユーザインタフェースの画像を、デバイス100によって更新情報内で提供された、ユーザインタフェースの更新された画像に置き換えることによって)更新されたユーザインタフェースを表示するように、影響を受けるディスプレイ上に表示されたユーザインタフェースを更新する(574)。
ユーザインタフェース及び関連プロセス
In response to receiving an updated user interface (e.g., update information) from the device 100, the affected display may (e.g., update an image of the user interface previously provided by the device 100 by the device 100) The user interface displayed on the affected display is updated 574 to display the updated user interface, by replacing the provided user interface with the updated image of the user interface.
User interface and related processes

ここで、デバイス300又はポータブル多機能デバイス100などの、ディスプレイ及びタッチ感知面を有する電子デバイスに実装することができるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注目を向ける。   Attention is now directed to embodiments of a user interface ("UI") and associated processes that can be implemented on an electronic device having a display and touch sensitive surface, such as device 300 or portable multifunction device 100.

図6A〜図6Vは、いくつかの実施形態に係る、2つ以上のディスプレイを同期させるための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図7A〜図7D及び図8A〜図8Bの処理を含む、以下で説明されるプロセスを示すために使用される。   6A-6V illustrate exemplary user interfaces for synchronizing two or more displays according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the processes of FIGS. 7A-7D and 8A-8B.

図6Aは、ポータブル多機能デバイス100(本明細書では「デバイス100」と呼ばれることもある)のタッチスクリーン112上に表示されたユーザインタフェース602を示す。ユーザインタフェース602は、複数のユーザインタフェースオブジェクト(例えば、アプリケーションアイコン424、426、428、430、434、436、438、446、416、418、420、及び422)を含む。図6Aは、タッチスクリーン112上の地図アプリケーションアイコン436上でのユーザタッチ入力606を検出することも示す。   FIG. 6A shows a user interface 602 displayed on the touch screen 112 of the portable multifunction device 100 (sometimes referred to herein as “device 100”). The user interface 602 includes a plurality of user interface objects (e.g., application icons 424, 426, 428, 430, 434, 436, 446, 416, 418, 420, and 422). FIG. 6A also illustrates detecting user touch input 606 on map application icon 436 on touch screen 112.

図6Aは、外部情報提供システム540(本明細書では「システム540」と呼ばれることもある)のディスプレイ546−1上に表示されたユーザインタフェース604を更に示す。いくつかの実施形態では、システム540は車両内(例えば、車両のダッシュボード又はステアリングホイール内)に含まれる。いくつかの実施形態では、ディスプレイ546−1は、システム540に関連付けられた複数のディスプレイの主要ディスプレイである。いくつかの実施形態では、ディスプレイ546−1は車両のダッシュボード内に実装され、車両の運転者及び/又は同乗者が視覚的にアクセス可能である。いくつかの実施形態では、ディスプレイ546−1は、1つ以上のユーザタッチ入力を検出するように構成されたタッチスクリーンディスプレイである。図6Aは、外気温(例えば、82°)、車両の運転者ゾーン内の気温(例えば、70°)、車両の同乗者ゾーン内の気温(例えば、75°)、車両の運転者ゾーン内の送風機強度(例えば、0〜10の強度における2)、及び車両の同乗者ゾーン内の送風機強度(例えば、0〜10の強度における5)を含む、複数の気候コントロールをユーザインタフェース604内に表示するディスプレイ546−1を示す。図6Aは、車両のそれぞれのゾーン内の気温を調節することが可能な複数のユーザインタフェースオブジェクト(本明細書では「アフォーダンス」又は「選択可能ユーザインタフェースオブジェクト」と呼ばれることもある)(例えば、アフォーダンス603a、603b、603c、及び603d)、車両のそれぞれのゾーン内の送風機強度を調節することが可能な複数のユーザインタフェースオブジェクト(例えば、アフォーダンス603e、603f、603g、及び603h)、及び他の車両気候制御設定を調節することが可能な複数のユーザインタフェースオブジェクト(例えば、空調に関連するアフォーダンス605a、フロントガラスの霜取りに関連する605b、リアガラスの霜取りに関連する605c、及び自動気候コントロールに関連する605d)を表示するディスプレイ546−1も示す。図6Aは、車両のサウンドシステムの音量を制御するか、又はディスプレイ546−1上の1つ以上のユーザインタフェースオブジェクトをスクロールするように構成された、複数の機械的アフォーダンス(例えば、ノブ又はジョグダイヤル607c)及び車両のラジオチューナ(例えば、アフォーダンス607a、607b、607d、及び607e)を更に示す。   FIG. 6A further shows the user interface 604 displayed on the display 546-1 of the external information providing system 540 (sometimes referred to herein as "system 540"). In some embodiments, system 540 is included in a vehicle (eg, in a dashboard or steering wheel of the vehicle). In some embodiments, display 546-1 is a primary display of a plurality of displays associated with system 540. In some embodiments, display 546-1 is implemented within the dashboard of the vehicle and is visually accessible to the driver and / or passenger of the vehicle. In some embodiments, display 546-1 is a touch screen display configured to detect one or more user touch input. FIG. 6A shows the outside air temperature (eg, 82 °), the air temperature in the driver's zone of the vehicle (eg, 70 °), the air temperature in the passenger zone of the vehicle (eg, 75 °), the driver's zone of the vehicle A plurality of climate controls are displayed in the user interface 604, including blower strength (e.g. 2 at 0-10 strength) and blower strength in the passenger zone of the vehicle (e.g. 5 at 0-10 strength) And a display 546-1 is shown. FIG. 6A illustrates a plurality of user interface objects (sometimes referred to herein as “affordances” or “selectable user interface objects”) capable of adjusting the temperature within each zone of the vehicle (eg, affordances) 603a, 603b, 603c, and 603d), a plurality of user interface objects (eg affordances 603e, 603f, 603g, and 603h) capable of adjusting the blower strength in the respective zones of the vehicle, and other vehicle climates A plurality of user interface objects whose control settings can be adjusted (eg, air conditioner related affordance 605a, windshield defrosting related 605b, rear glass related defrosting 605c, and automatic climate control Display 546-1 to display the 605d) associated with the roll is also shown. FIG. 6A illustrates a plurality of mechanical affordances (eg, knobs or jog dials 607 c configured to control the volume of the vehicle's sound system or scroll one or more user interface objects on display 546-1. And a radio tuner (eg, affordances 607a, 607b, 607d, and 607e) of the vehicle.

図6Bは、図6Aにおいて地図アプリケーションアイコン436上でのユーザタッチ入力606を検出したことに応じて、タッチスクリーン112が、タッチスクリーン112のユーザインタフェース602内の地図アプリケーションにおいて、デバイス100の現在位置608を表示することを示す。いくつかの実施形態では、それぞれのアフォーダンス上でのユーザタッチ入力を検出することが、それぞれのアフォーダンスに対するタップジェスチャを検出することに対応し、タップジェスチャは、それぞれのアフォーダンスに対応する位置における接触を検出することと、所定の時間期間(例えば、0.05、0.1、0.2、0.3、0.4又は0.5秒)内における接触のリフトオフを検出することと、を含む。いくつかの実施形態では、ユーザインタフェース602内に表示される地図は、原寸に比例していない。図6Bは、タッチスクリーン112上の検索ボックス609上でのユーザタッチ入力610を検出することも示す。   FIG. 6B illustrates that in response to detecting the user touch input 606 on the map application icon 436 in FIG. 6A, the touch screen 112 displays the current position 608 of the device 100 at the map application in the user interface 602 of the touch screen 112. Indicates to display. In some embodiments, detecting a user touch input on each affordance corresponds to detecting a tap gesture for each affordance, wherein the tap gesture corresponds to a touch at a position corresponding to each affordance. Detecting and detecting contact lift off within a predetermined time period (e.g., 0.05, 0.1, 0.2, 0.3, 0.4 or 0.5 seconds) . In some embodiments, the map displayed in the user interface 602 is not to scale. FIG. 6B also illustrates detecting user touch input 610 on search box 609 on touch screen 112.

図6Bは、図6Aにおいて地図アプリケーションアイコン436上でのユーザタッチ入力606を検出したことに応じて、ユーザインタフェース604内に表示される地図に、デバイス100の現在位置608をディスプレイ546−1上に表示することを更に示す。いくつかの実施形態では、ユーザインタフェース604内に表示される地図は、原寸に比例していない。ユーザインタフェース604内にも表示されるアフォーダンス612は、アクティブにされたときに、デバイスにデジタルアシスタント(例えば、カリフォルニア州クパチーノのApple Inc.社製Siri(登録商標))を呼び出させる。図6Bは、ユーザインタフェース604内に表示される地図の向きを示すコンパス611も示す(例えば、ディスプレイ546−1の上部が北になるように地図が方向決めされる)。いくつかの実装では、ディスプレイ546−1のユーザインタフェース604内に表示される情報のフォントサイズが、タッチスクリーン112のユーザインタフェース602内に表示される情報のフォントサイズよりも大きい。例えば、システム540が車両内に配置されたとき、ディスプレイ546−1上のテキストは、車両の運転者及び同乗者(単数又は複数)がディスプレイ546−1から腕の分だけ離れた位置にいるときの読みやすさを向上させるために、デバイス100のタッチスクリーン112上よりも大きくなるように生成される。   6B displays the current position 608 of the device 100 on the display 546-1 in the map displayed in the user interface 604 in response to detecting the user touch input 606 on the map application icon 436 in FIG. 6A. It further indicates to display. In some embodiments, the map displayed in the user interface 604 is not to scale. An affordance 612, also displayed within the user interface 604, causes the device to call a digital assistant (eg, Siri® from Apple Inc. of Cupertino, Calif.) When activated. FIG. 6B also shows a compass 611 indicating the orientation of the map displayed within the user interface 604 (eg, the map is oriented such that the top of the display 546-1 is north). In some implementations, the font size of the information displayed in the user interface 604 of the display 546-1 is larger than the font size of the information displayed in the user interface 602 of the touch screen 112. For example, when the system 540 is placed in a vehicle, the text on the display 546-1 indicates that the driver and passenger (s) of the vehicle are away from the display 546-1 by an arm Are made larger than on the touch screen 112 of the device 100 to improve the readability of the

図6Cは、ユーザインタフェース602の検索ボックス609内に入力されたユーザ検索クエリ(例えば、ドライクリーニング)を表示することを示す。一実施例では、ユーザは、デバイス100のユーザインタフェース602内の仮想キーボードを使用して、手動で検索クエリを入力する。別の実施例では、検索クエリは、デバイス100のユーザから受け取った音声入力である。図6Cは、図6Bにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6C illustrates displaying a user search query (eg, dry cleaning) entered in search box 609 of user interface 602. In one embodiment, the user manually enters a search query using a virtual keyboard within the user interface 602 of the device 100. In another example, the search query is voice input received from a user of device 100. FIG. 6C further illustrates maintaining the display of user interface 604 in FIG. 6B on display 546-1.

図6Dは、図6Cにおける検索クエリの入力に応じて、デバイス100の現在位置608の近傍にあるピン614a及び614bによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)をユーザインタフェース602内に表示することを示す。いくつかの実施形態では、ユーザの検索クエリに一致する検索結果(又は店)が、近接度、店の評価、レビューの量、ユーザが店を訪れた回数、及び/又は他の要因に基づき自動的に選択される(例えば、ABC Cleaners)。図6Dでは、ピン614aによって表される自動的に選択されたドライクリーニング店に対応する情報ボックス613も、ユーザインタフェース602内に表示される。情報ボックス613は、ドライクリーニング店の名前(例えば、ABC Cleaners)、店の評価(例えば、星5つ中3つ)、店に対するユーザレビューの量(例えば、100件のレビュー)、及び店に対応する追加情報を表示するように構成されたアフォーダンス613aを含む。いくつかの実施形態では、情報ボックス613は、アクティブにされたときに、情報ボックス613内の任意の場所に対するユーザタッチ入力に応じて、店に対応する追加情報をデバイスに表示させる。いくつかの他の実施形態では、情報ボックス613は、アクティブにされたときに、アフォーダンス613a上でのユーザタッチ入力に応じて、店に対応する追加情報をデバイスに表示させる。図6Dは、タッチスクリーン112上のアフォーダンス613a上でのユーザタッチ入力615を検出することも示す。   FIG. 6D illustrates a user interface object (eg, a pin) associated with the dry cleaner represented by pins 614a and 614b near the current position 608 of device 100 in response to the input of the search query in FIG. 6C. The display in the interface 602 is shown. In some embodiments, search results (or stores) that match the user's search query may be automated based on proximity, store rating, amount of review, number of times the user has visited the store, and / or other factors. Selected (eg, ABC Cleaners). In FIG. 6D, an information box 613 corresponding to the automatically selected dry cleaner represented by pin 614 a is also displayed in the user interface 602. The information box 613 corresponds to the name of the dry cleaner (e.g. ABC Cleaners), store rating (e.g. three out of five stars), the amount of user reviews for the store (e.g. 100 reviews), and the store And an affordance 613a configured to display additional information. In some embodiments, the information box 613, when activated, causes the device to display additional information corresponding to the store in response to user touch input to any location within the information box 613. In some other embodiments, the information box 613, when activated, causes the device to display additional information corresponding to the store in response to a user touch input on the affordance 613a. FIG. 6D also illustrates detecting user touch input 615 on affordance 613 a on touch screen 112.

図6Dは、図6Cにおける検索クエリの入力に応じて、デバイス100の現在位置608から、自動的に選択された検索結果(例えば、ABC Cleanersに対応するピン614aによって表されるドライクリーニング店)への推奨ルート616をユーザインタフェース604内に表示することを更に示す。図6Dでは、ユーザインタフェース604は、ルート616、ルート616上におけるユーザの第1の方向(又は進路変更点)及び目的地の名前(例えば、ABC Cleaners)を示すターンバイターン指示ボックス617、及びデバイスが視覚的及び/又は音声による案内を使用してABC Cleanersへのターンバイターン指示を提供するターンバイターン指示モードを開始するように構成された「指示開始」アフォーダンス618を含む。図6Dは、ユーザインタフェース604内に表示される地図の向きを示すコンパス611も示す(例えば、ターンバイターン指示において指示される車両の運転方向がディスプレイ546−1の上部に向かって方向決めされるように、ディスプレイ546−1の上部が南になるように地図が方向決めされる)。   FIG. 6D is from the current position 608 of the device 100 to the automatically selected search results (eg, dry cleaners represented by pins 614a corresponding to ABC Cleaners) in response to the search query input in FIG. 6C. It is further illustrated that the recommended route 616 of is displayed in the user interface 604. 6D, the user interface 604 includes a route 616, a turn-by-turn indication box 617 indicating the user's first direction (or turn point) on the route 616 and the name of the destination (eg, ABC Cleaners), and the device. Includes a “Start Indication” affordance 618 configured to initiate a turn-by-turn indication mode that provides turn-by-turn indication to ABC Cleaners using visual and / or audio guidance. FIG. 6D also shows a compass 611 indicating the orientation of the map displayed in the user interface 604 (eg, the driving direction of the vehicle indicated in the turn-by-turn instruction is oriented towards the top of the display 546-1 Thus, the map is oriented so that the top of display 546-1 is south).

図6Eは、図6Dにおいてアフォーダンス613a上でのユーザタッチ入力615を検出したことに応じて、ABC Cleanersに対応する追加情報をユーザインタフェース602内に表示することを示す。図6Eでは、ユーザインタフェース602は、ABC Cleanersの営業時間、ABC Cleanersのホームページ(又はウェブサイト)、ABC Cleanersの電話番号、及びABC Cleanersの住所を特定する情報を含む。図6Eでは、ユーザインタフェース602は、デバイスの現在位置からABC Cleanersまでの指示を表示するように構成されたアフォーダンス619、及びABC Cleanersからデバイスの現在位置までの指示を表示するように構成されたアフォーダンス620も含む。図6Eは、タッチスクリーン112上のアフォーダンス619上でのユーザタッチ入力621を検出することも示す。図6Eは、図6Dにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6E illustrates displaying additional information corresponding to ABC Cleaners in the user interface 602 in response to detecting the user touch input 615 on the affordance 613a in FIG. 6D. In FIG. 6E, the user interface 602 includes information identifying the ABC Cleaners opening hours, the ABC Cleaners home page (or website), the ABC Cleaners phone number, and the ABC Cleaners address. In FIG. 6E, the user interface 602 is configured with affordances 619 configured to display instructions from the current location of the device to ABC Cleaners, and affordances configured to display the instructions from ABC Cleaners to the current location of the device. And 620. FIG. 6E also illustrates detecting user touch input 621 on affordance 619 on touch screen 112. FIG. 6E further illustrates maintaining the display of user interface 604 in FIG. 6D on display 546-1.

図6Fは、図6Eにおいてタッチスクリーン112上のアフォーダンス619上でのユーザタッチ入力621を検出したことに応じて、ルートの開始地点及び終了地点を入力するためのインタフェースをユーザインタフェース602内に表示することを示す。図6Fでは、ユーザインタフェース602は、ボックス622a内にルートの開始地点の住所(例えば、デバイス100の現在位置)を含み、ボックス622b内にルートの終了地点の住所(例えば、ABC Cleaners,1660 40th Avenue,San Francisco,CA)を含む。図6Fでは、ボックス622a及び/又はボックス622bは、ユーザインタフェース602内に表示された仮想キーボード624を使用して、又は代替として音声入力を使用して、編集することが可能になる。アフォーダンス622cは、アクティブにされたときに、デバイスに、ボックス622a内に入力された場所をボックス622b内の場所に置き換えさせ、ボックス622b内に入力された場所をボックス622a内の場所に置き換えさせる。図6Fでは、ユーザインタフェース602は、デバイス100の現在位置から以前に入力された目的地までの選択可能ルート623を含む。図6Fでは、ユーザインタフェース602は、ルート計算用の異なるモードの交通手段を選択するように構成された、アフォーダンス627a、627b、及び627cを更に含む。例えば、図6Fでは、アフォーダンス627bの周りの強調表示された枠線によって示されるように、「徒歩」モードの交通手段が現在選択されている。図6Fは、ボックス622a内の開始地点からボックス622b内の終了地点までの1つ以上のルートを計算するように構成された「ルート」アフォーダンス626a、並びにボックス622a及び622b内に入力された場所を消去するか、又は図6Dにおいて表示されたユーザインタフェース602を再表示するように構成された「キャンセル」アフォーダンス626bを表示することも示す。図6Fは、タッチスクリーン112上の「ルート」アフォーダンス626a上でのユーザタッチ入力628を検出することを更に示す。図6Fは、図6Dにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6F displays an interface in the user interface 602 for inputting the start point and the end point of the route in response to detection of the user touch input 621 on the affordance 619 on the touch screen 112 in FIG. 6E. Indicates that. In FIG. 6F, user interface 602 includes the address of the start of the route (eg, the current location of device 100) in box 622a, and the address of the end of the route (eg, ABC Cleaners, 1660 40th Avenue) in box 622b. , San Francisco, CA). In FIG. 6F, box 622a and / or box 622b can be edited using virtual keyboard 624 displayed within user interface 602, or alternatively using speech input. The affordance 622c, when activated, causes the device to replace the location entered in the box 622a with the location in the box 622b and replace the location entered in the box 622b with the location in the box 622a. In FIG. 6F, the user interface 602 includes a selectable route 623 from the current location of the device 100 to the previously entered destination. In FIG. 6F, user interface 602 further includes affordances 627a, 627b, and 627c configured to select different modes of transportation for route calculation. For example, in FIG. 6F, the "walk" mode of transport is currently selected, as indicated by the highlighted border around affordance 627b. FIG. 6F shows the “route” affordance 626a configured to calculate one or more routes from the start point in box 622a to the end point in box 622b, and the locations entered in boxes 622a and 622b. It also shows displaying a "cancel" affordance 626b configured to erase or re-display the user interface 602 displayed in FIG. 6D. FIG. 6F further illustrates detecting user touch input 628 on “root” affordance 626 a on touch screen 112. FIG. 6F further illustrates maintaining the display of user interface 604 in FIG. 6D on display 546-1.

図6Gは、図6Fにおいてタッチスクリーン112上の「ルート」アフォーダンス626a上でのユーザタッチ入力628を検出したことに応じて、デバイス100の現在位置608からピン614aによって表されるドライクリーニング店までの2つの推奨ルートをユーザインタフェース602内に表示することを示す。図6Gでは、ダイアログボックス629は、2つの推奨ルートのうちの現在選択されている第1のルートが、ユーザがデバイス100の現在位置608からピン614aによって表されるドライクリーニング店まで歩いて行くのに10分及び0.2マイルかかることを示す。図6Gでは、第1のルート631aはユーザインタフェース602内において強調表示され、「ルート1」アフォーダンス631bは、アクティブにされたときに、デバイスにルート631aを選択(かつ強調表示)させる。図6Gでは、ユーザインタフェース602内に表示されるルート631aは、ユーザインタフェース604内に表示されるルート616と同じであるが、その向きは異なる。図6Gは、ユーザインタフェース602内にルート632aを表示すること、及びルート632aを選択(かつ強調表示)するように構成された「ルート2」アフォーダンス632bを表示することも示す。図6Gでは、「開始」アフォーダンス630aは、アクティブにされたときに、デバイスに、現在選択(又は強調表示)されているルート(例えば、ルート631a)までのターンバイターン指示を開始させ、「消去」アフォーダンス630bは、アクティブにされたときに、デバイスに、表示されているルート(例えば、ルート631a及び632a)をユーザインタフェース602から消去させ、検索ボックス609をユーザインタフェース602内に表示させる。図6Gは、タッチスクリーン112上の「開始」アフォーダンス630a上でのユーザタッチ入力633を検出することを更に示す。図6Gは、図6Dにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。いくつかの実施形態では、デバイス100がディスプレイ546−1に接続され、かつディスプレイ546−1が車両ディスプレイであるときに、デバイス100は、歩行方向ではなく運転方向を、タッチスクリーン112上及びディスプレイ546−1上の両方に表示する。   FIG. 6G is from the current position 608 of the device 100 to the dry cleaner represented by the pin 614a in response to detecting the user touch input 628 on the “route” affordance 626a on the touch screen 112 in FIG. 6F. It is shown that two recommended routes are displayed in the user interface 602. In FIG. 6G, the dialog box 629 shows that the currently selected first of the two recommended routes allows the user to walk from the current position 608 of the device 100 to the dry cleaner represented by pin 614a. Indicate that it will take 10 minutes and 0.2 miles. In FIG. 6G, the first route 631a is highlighted in the user interface 602, and the “route 1” affordance 631b, when activated, causes the device to select (and highlight) the route 631a. In FIG. 6G, the route 631a displayed in the user interface 602 is the same as the route 616 displayed in the user interface 604, but the orientation is different. FIG. 6G also shows displaying the route 632a in the user interface 602 and displaying the "route 2" affordance 632b configured to select (and highlight) the route 632a. In FIG. 6G, the “Start” affordance 630a, when activated, causes the device to initiate turn-by-turn instructions to the currently selected (or highlighted) route (eg, route 631a), “Erase” The affordance 630b, when activated, causes the device to clear the displayed route (eg, routes 631a and 632a) from the user interface 602 and causes the search box 609 to be displayed in the user interface 602. FIG. 6G further illustrates detecting user touch input 633 on “start” affordance 630 a on touch screen 112. FIG. 6G further illustrates maintaining the display of user interface 604 in FIG. 6D on display 546-1. In some embodiments, when the device 100 is connected to the display 546-1 and the display 546-1 is a vehicle display, the device 100 can drive the driving direction, not the walking direction, on the touch screen 112 and the display 546. -1 Display on both sides.

図6Hは、図6Gにおいて「開始」アフォーダンス630a上でのユーザタッチ入力633を検出したことに応じて、ルート631a上におけるユーザの第1の方向(又は進路変更点)及び目的地の名前(例えば、ABC Cleaners)を示すターンバイターン指示ボックス634をユーザインタフェース602内に表示することを示す。いくつかの実施形態では、ターンバイターン指示ボックス634がタッチスクリーン112全体を占有する。図6Hは、タッチスクリーン112上のユーザタッチ入力635を検出することも示す。   FIG. 6H illustrates the user's first direction (or course change) and the name of the destination (eg, on the route 631a) in response to detecting the user touch input 633 on the “start” affordance 630a in FIG. 6G. , ABC Cleaners) is displayed in the user interface 602. In some embodiments, the turn-by-turn indication box 634 occupies the entire touch screen 112. FIG. 6H also illustrates detecting user touch input 635 on touch screen 112.

図6Hは、デバイス100が図6Gの開始アフォーダンス630a上でのユーザタッチ入力633を検出したことに応じて、ターンバイターン指示モードをユーザインタフェース604内に表示することを更に示す。図6Hでは、ターンバイターンモードの間、デバイス100の現在位置がマーカー636としてユーザインタフェース604内に表示される。いくつかの実施形態では、図6Hにおいて表示されるターンバイターン指示モードは、ユーザインタフェース604内に表示される地図を、図6D〜図6Gにおいて表示されるマップよりも更にズームインする(例えば、タッチスクリーン112上に表示される地図の拡大レベルは、ディスプレイ546−1上に表示される地図よりも低い)。   6H further illustrates displaying a turn-by-turn instruction mode in the user interface 604 in response to the device 100 detecting the user touch input 633 on the start affordance 630a of FIG. 6G. In FIG. 6H, the current position of the device 100 is displayed in the user interface 604 as a marker 636 during turn-by-turn mode. In some embodiments, the turn-by-turn instruction mode displayed in FIG. 6H zooms in further on the map displayed in the user interface 604 than the maps displayed in FIGS. 6D-6G (eg, touch The enlargement level of the map displayed on the screen 112 is lower than the map displayed on the display 546-1.

図6Iは、図6Hにおいてタッチスクリーン112上のユーザタッチ入力635を検出したことに応じて、ダイアログボックス637をユーザインタフェース602内に表示することを示す。図6Iでは、ダイアログボックス637は、ターンバイターン指示を一時停止するように構成された「一時停止」アフォーダンス638a、及び地図アプリケーション436内の最新の検索クエリ(例えば、デバイス100の現在位置の近傍にあるドライクリーニング店)の結果を表示するように構成された「戻る」アフォーダンス638bを含む。図6Iは、「戻る」アフォーダンス638b上でのユーザタッチ入力639を検出することも示す。図6Iは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6I illustrates displaying the dialog box 637 in the user interface 602 in response to detecting the user touch input 635 on the touch screen 112 in FIG. 6H. In FIG. 6I, the dialog box 637 is configured to pause the turn-by-turn instruction, “pause” affordance 638a, and the most recent search query within the map application 436 (eg, near the current location of the device 100). Includes a "back" affordance 638b configured to display the results of some dry cleaners. FIG. 6I also illustrates detecting user touch input 639 on the "back" affordance 638b. FIG. 6I further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Jは、図6Iの「戻る」アフォーダンス638b上でのユーザタッチ入力639(例えば、タップ入力)に応じて、デバイス100の現在位置608の近傍にあるピン614a及び614bによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)を、(例えば、図6Cの地図アプリケーション436における最新の検索クエリに対応する)ユーザインタフェース602内に表示することを示す。図6Jは、タッチスクリーン112上の接触640及び641の移動を含むピンチジェスチャを検出することも示す。図6Jは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6J shows the dry cleaner represented by pins 614a and 614b near the current position 608 of the device 100 in response to user touch input 639 (eg, tap input) on the “Return” affordance 638b of FIG. 6I. (E.g., corresponding to the most recent search query in map application 436 of FIG. 6C). FIG. 6J also illustrates detecting a pinch gesture that includes movement of the contacts 640 and 641 on the touch screen 112. 6J further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Kは、図6Jにおいてピンチジェスチャを検出したことに応じて、デバイス100の現在位置608の近傍にある、ピン614a、614b、614c、及び614dによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)をユーザインタフェース602内に表示することを示す。例えば、図6Kでは、ピンチジェスチャに応じて地図がズームアウトされ(例えば、より低い拡大レベルで表示され)、より大きい範囲の地図がユーザインタフェース602内に表示される。図6Kは、タッチスクリーン112上の位置642aから位置642bへと移動するユーザタッチ入力642によるスワイプジェスチャ(本明細書では「ドラッグジェスチャ」と呼ばれることもある)を検出することも示す。図6Kは、図6Hのユーザインタフェース604のディスプレイ546−1上への表示を維持することを更に示す(例えば、ユーザインタフェース604は、タッチスクリーンディスプレイ112上のピンチジェスチャを検出したことに応じてズームアウトされない)。   FIG. 6K shows the user interface associated with the dry cleaner represented by pins 614a, 614b, 614c, and 614d near the current position 608 of device 100 in response to detecting the pinch gesture in FIG. 6J. An object (eg, a pin) is shown to be displayed in the user interface 602. For example, in FIG. 6K, the map is zoomed out (eg, displayed at a lower magnification level) in response to a pinch gesture, and a larger range of maps is displayed in the user interface 602. FIG. 6K also illustrates detecting a swipe gesture (sometimes referred to herein as a “drag gesture”) by user touch input 642 moving from position 642a to position 642b on touch screen 112. 6K further illustrates maintaining the display on the display 546-1 of the user interface 604 of FIG. 6H (eg, the user interface 604 zooms in response to detecting a pinch gesture on the touch screen display 112) Not out).

図6Lは、図6Kにおいてスワイプジェスチャを検出したことに応じて、デバイス100の現在位置608の近傍にある、ピン614a、614b、614c、614e及び614fによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)をユーザインタフェース602内に表示することを示す。例えば、図6Kのスワイプジェスチャに応じて、地図は北東方向へと並進移動する。図6Lは、タッチスクリーン112上のピン614bによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)上でのユーザタッチ入力643を検出することも示す。図6Lは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す(例えば、ユーザインタフェース604は、タッチスクリーンディスプレイ112上のスワイプジェスチャを検出したことに応じてスクロールされない)。   FIG. 6L shows the user associated with the dry cleaner represented by pins 614a, 614b, 614c, 614e and 614f near the current position 608 of device 100 in response to detecting the swipe gesture in FIG. 6K. An interface object (eg, a pin) is shown to be displayed in the user interface 602. For example, in response to the swipe gesture of FIG. 6K, the map translates in the northeast direction. FIG. 6L also illustrates detecting user touch input 643 on a user interface object (eg, a pin) associated with the dry cleaner represented by pin 614 b on touch screen 112. FIG. 6L further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1 (eg, user interface 604 is not scrolled in response to detecting a swipe gesture on touch screen display 112) ).

図6Mは、図6Lのピン614bによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)上でのユーザタッチ入力643を検出したことに応じて、ピン614bによって表されるドライクリーニング店に対応する情報ボックス644をユーザインタフェース602内に表示することを示す。図6Mでは、情報ボックス644は、ドライクリーニング店の名前(例えば、Mary Ann's Cleaners)、店の評価(例えば、星5つ中5つ)、店に対するユーザレビューの量(例えば、927件のレビュー)、及び店に対応する追加情報を任意選択的に含むアフォーダンス644aを含む。図6Mは、タッチスクリーン112上のアフォーダンス644a上でのユーザタッチ入力645を検出することも示す。図6Mは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6M shows the dry being represented by pin 614b in response to detecting a user touch input 643 on a user interface object (eg, a pin) associated with the dry cleaner represented by pin 614b in FIG. 6L. A display of an information box 644 corresponding to the cleaning shop in the user interface 602 is shown. In FIG. 6M, the information box 644 contains the name of the dry cleaner (e.g., Mary Ann's Cleaners), the store rating (e.g., 5 out of 5 stars), the amount of user reviews for the store (e.g., 927). Review) and an affordance 644a that optionally includes additional information corresponding to the store. FIG. 6M also illustrates detecting user touch input 645 on affordance 644 a on touch screen 112. FIG. 6M further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Nは、図6Mにおけるアフォーダンス644a上でのユーザタッチ入力645を検出したことに応じて、Mary Ann's Cleanersに対応する追加情報をユーザインタフェース602内に表示することを示す。図6Nでは、ユーザインタフェース602は、Mary Ann's Cleanersの営業時間、Mary Ann's Cleanersのホームページ(若しくはウェブサイト)、Mary Ann's Cleanersの電話番号、及びMary Ann's Cleanersの住所を特定する情報を含む。図6Nでは、ユーザインタフェース602は、デバイスの現在位置からMary Ann's Cleanersまでの指示を表示するように構成されたアフォーダンス646、及びMary Ann's Cleanersからデバイスの現在位置までの指示を表示するように構成されたアフォーダンス647も含む。図6Nは、タッチスクリーン112上のアフォーダンス646上でのユーザタッチ入力648を検出することも示す。図6Nは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6N illustrates displaying additional information corresponding to Mary Ann's Cleaners in the user interface 602 in response to detecting the user touch input 645 on affordance 644a in FIG. 6M. In FIG. 6N, user interface 602 identifies the hours of Mary Ann's Cleaners, the homepage (or website) of Mary Ann's Cleaners, the telephone number of Mary Ann's Cleaners, and the address of Mary Ann's Cleaners. Contains information to In FIG. 6N, user interface 602 displays affordances 646 configured to display instructions from the current location of the device to Mary Ann's Cleaners, and instructions from Mary Ann's Cleaners to the current location of the device. Also included is an affordance 647 configured as follows. FIG. 6N also illustrates detecting user touch input 648 on affordance 646 on touch screen 112. FIG. 6N further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Oは、図6Nにおけるタッチスクリーン112上のアフォーダンス646上でのユーザタッチ入力648を検出したことに応じて、ルートの開始地点及び終了地点を入力するためのインタフェースをユーザインタフェース602内に表示することを示す。図6Oでは、ユーザインタフェース602は、ボックス649a内にルートの開始地点の住所(例えば、デバイス100の現在位置)を含み、ボックス649b内にルートの終了地点の住所(例えば、Mary Ann's Cleaners,1291 Judah Street,San Francisco,CA)を含む。図6Oでは、ボックス649a及び/又はボックス649bは、ユーザインタフェース602内に表示された仮想キーボード651を使用して、又は代替として音声入力を使用して、編集することが可能になる。アフォーダンス649cは、アクティブにされたときに、デバイスに、ボックス649a内に入力された場所をボックス649b内の場所に置き換えさせ、ボックス649b内に入力された場所をボックス649a内の場所に置き換えさせる。図6Oでは、ユーザインタフェース602は、デバイスの現在位置から以前に入力された目的地までの選択可能ルート650を含む。図6Oでは、ユーザインタフェース602は、ルート計算用の異なるモードの交通手段を選択するように構成された、アフォーダンス653a、653b、及び653cを更に含む。例えば、図6Oでは、アフォーダンス653bの周りの強調表示された枠線によって示されるように、「徒歩」モードの交通手段が現在選択されている。図6Oは、ボックス649a内の開始地点からボックス649b内の終了地点までの1つ以上のルートを計算するように構成された「ルート」アフォーダンス652a、並びにボックス649a及び649b内に入力された場所を消去するか、又は図6Mにおいて表示されたユーザインタフェース602を再表示するように構成された「キャンセル」アフォーダンス652bを表示することも示す。図6Oは、タッチスクリーン112上の「ルート」アフォーダンス654(例えば、仮想キーボード651内に含まれているアフォーダンス)上でのユーザタッチ入力655を検出することを更に示す。いくつかの実施形態では、「ルート」アフォーダンス654は、アクティブにされたときに、デバイスに、ボックス649a内の開始地点からボックス649b内の終了地点までの1つ以上のルートを計算及び/又は表示させる(例えば、「ルート」アフォーダンス654は「ルート」アフォーダンス652aと同様に機能する)。図6Oは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6O displays an interface in the user interface 602 for inputting the start point and the end point of the route in response to detecting the user touch input 648 on the affordance 646 on the touch screen 112 in FIG. 6N. Indicates that. In FIG. 6O, the user interface 602 includes the address of the start of the route (eg, the current location of the device 100) in box 649a, and the address of the end of the route (eg, Mary Ann's Cleaners, 1291 Judah Street, San Francisco, CA). In FIG. 6O, box 649a and / or box 649b can be edited using virtual keyboard 651 displayed within user interface 602, or alternatively using voice input. The affordance 649c, when activated, causes the device to replace the location entered in the box 649a with the location in the box 649b and replace the location entered in the box 649b with the location in the box 649a. In FIG. 6O, the user interface 602 includes a selectable route 650 from the current location of the device to the previously entered destination. In FIG. 6O, user interface 602 further includes affordances 653a, 653b, and 653c configured to select different modes of transportation for route calculation. For example, in FIG. 6O, the "walk" mode of transport is currently selected, as indicated by the highlighted border around affordance 653b. FIG. 6O “root” affordance 652a configured to calculate one or more routes from the start point in box 649a to the end point in box 649b, and the locations entered in boxes 649a and 649b. It also shows displaying a "cancel" affordance 652b configured to erase or re-display the user interface 602 displayed in FIG. 6M. FIG. 6O further illustrates detecting user touch input 655 on “root” affordance 654 on touch screen 112 (eg, the affordance included in virtual keyboard 651). In some embodiments, the “route” affordance 654, when activated, calculates and / or displays one or more routes from the start point in box 649a to the end point in box 649b when activated. (Eg, “route” affordance 654 functions similar to “route” affordance 652 a). FIG. 6O further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Pは、図6Oにおいてタッチスクリーン112上の「ルート」アフォーダンス654上でのユーザタッチ入力655を検出したことに応じて、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店までの2つの推奨ルートをユーザインタフェース602内に表示することを示す。図6Pでは、ユーザインタフェース602のダイアログボックス656は、2つの推奨ルートのうちの自動的に選択された第1のルートが、ユーザがデバイス100の現在位置608からピン614bによって表されるドライクリーニング店まで歩いて行くのに5分及び0.4マイルかかることを示す。図6Pでは、第1のルート658aはユーザインタフェース602内において強調表示され、「ルート1」アフォーダンス658bは、アクティブにされたときに、デバイスにルート658bを選択(かつ強調表示)させる。図6Pでは、「開始」アフォーダンス657aは、アクティブにされたときに、デバイスに、現在選択(又は強調表示)されているルート(例えば、ルート658a)までのターンバイターン指示を開始させ、「消去」アフォーダンス657bは、アクティブにされたときに、デバイスに、表示されているルート(例えば、ルート658a及び659a)をユーザインタフェース602から消去させ、検索ボックス609をユーザインタフェース602内に表示させる。図6Pは、タッチスクリーン112上の「ルート2」アフォーダンス659b上でのユーザタッチ入力660を検出することを更に示す。図6Pは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6P is from the current position 608 of the device 100 to the dry cleaner represented by pin 614b in response to detecting the user touch input 655 on the “route” affordance 654 on the touch screen 112 in FIG. 6O. It is shown that two recommended routes are displayed in the user interface 602. In FIG. 6P, the dialog box 656 of the user interface 602 is a dry cleaner where the automatically selected first of the two recommended routes is represented by the user from the current position 608 of the device 100 by the pin 614b. Indicates that it takes 5 minutes and 0.4 miles to walk up. In FIG. 6P, the first route 658a is highlighted in the user interface 602, and the “route 1” affordance 658b, when activated, causes the device to select (and highlight) the route 658b. In FIG. 6P, the “Start” affordance 657a, when activated, causes the device to initiate turn-by-turn instructions to the currently selected (or highlighted) route (eg, route 658a), “Erase” The affordance 657b, when activated, causes the device to clear the displayed route (eg, routes 658a and 659a) from the user interface 602 and causes the search box 609 to be displayed in the user interface 602. FIG. 6P further illustrates detecting user touch input 660 on “route 2” affordance 659 b on touch screen 112. FIG. 6P further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Qは、図6Pにおいて「ルート2」アフォーダンス659b上でのタッチ入力660を検出したことに応じて、ルート659a(ルート2)を選択された(又は強調表示された)ルートとして表示することを示す。図6Qでは、ユーザインタフェース602は、2つの推奨ルートのうちの第2のルートが、ユーザがデバイス100の現在位置608からピン614bによって表されるドライクリーニング店まで歩いて行くのに6分及び0.4マイルかかることを示す、ダイアログボックス656を含む。図6Qは、タッチスクリーン112上の「開始」アフォーダンス657a上でのユーザタッチ入力661を検出することを更に示す。図6Qは、図6Hにおけるユーザインタフェース604の表示をディスプレイ546−1上で維持することを更に示す。   FIG. 6Q displays the route 659a (route 2) as a selected (or highlighted) route in response to the touch input 660 detected on the “route 2” affordance 659b in FIG. 6P. Show. In FIG. 6Q, the user interface 602 has 6 minutes and 0 for the second of the two recommended routes to walk the user from the current position 608 of the device 100 to the dry cleaner represented by pin 614b. Includes a dialog box 656 indicating that it will take .4 miles. FIG. 6Q further illustrates detecting a user touch input 661 on the “Start” affordance 657a on the touch screen 112. FIG. 6Q further illustrates maintaining the display of user interface 604 in FIG. 6H on display 546-1.

図6Rは、図6Qにおいて「開始」アフォーダンス657a上でのユーザタッチ入力661を検出したことに応じて、ルート659a上におけるユーザの第1の方向(又は進路変更点)及び目的地の名前(例えば、Mary Ann's Cleaners)を示すターンバイターン指示ボックス662をユーザインタフェース602内に表示することを示す。いくつかの実施形態では、ターンバイターン指示ボックス662がタッチスクリーン112全体を占有する。   FIG. 6R illustrates the user's first direction (or course change) and the name of the destination (e.g., on the route 659a) in response to detecting the user touch input 661 on the "Start" affordance 657a in FIG. 6Q. , And Mary Ann's Cleaners) are displayed in the user interface 602. In some embodiments, the turn-by-turn indication box 662 occupies the entire touch screen 112.

図6Rは、図6Qにおいて「開始」アフォーダンス657a上でのユーザタッチ入力661を検出したことに応じて、ターンバイターン指示モードをユーザインタフェース604内に表示することを更に示す(例えば、ユーザインタフェース604が以前の入力に応じて、以前にユーザインタフェース602と同期させられていない場合でも、目的地及びルートが選択され、ターンバイターン指示が開始されると、デバイスは、両方のユーザインタフェースが同じルートを使用して同じ目的地までの指示を示すように、ユーザインタフェース602及びユーザインタフェース604を同期させる)。図6Rでは、ユーザインタフェース604は、ルート659a、ルート659a上におけるユーザの第1の方向(又は進路変更点)及び目的地の名前(例えば、Mary Ann's Cleaners)を示すターンバイターン指示ボックス663、及びデバイス100の現在位置を示すマーカー654を含む。図6Rは、ユーザインタフェース604内に表示される地図の向きを示すコンパス611も示す(例えば、ディスプレイ546−1の上部が東になるように地図が方向決めされる)。図6Rは、ディスプレイ546−1上のユーザタッチ入力665を検出することを更に示す。   FIG. 6R further illustrates displaying the turn-by-turn instruction mode in the user interface 604 in response to detecting the user touch input 661 on the “Start” affordance 657a in FIG. 6Q (eg, user interface 604). If the destination and route are selected and a turn-by-turn instruction is initiated, even if the device was previously synchronized with the user interface 602 in response to the previous input, the device will have the same route for both user interfaces Synchronize the user interface 602 and the user interface 604 to indicate an indication to the same destination using In FIG. 6R, the user interface 604 is a turn-by-turn indication box 663 indicating the route 659a, the user's first direction (or course change point) on the route 659a, and the name of the destination (eg, Mary Ann's Cleaners). And a marker 654 indicating the current position of the device 100. FIG. 6R also shows a compass 611 indicating the orientation of the map displayed in the user interface 604 (eg, the map is oriented such that the top of display 546-1 is east). FIG. 6R further illustrates detecting user touch input 665 on display 546-1.

図6Sは、図6Rにおいてディスプレイ546−1上のユーザタッチ入力665を検出したことに応じて、ダイアログボックス637をユーザインタフェース602内に表示することを示す。図6Sでは、ダイアログボックス637は、ターンバイターン指示を一時停止するように構成された「一時停止」アフォーダンス638a、及び地図アプリケーション436内の最新の検索クエリ(例えば、デバイス100の現在位置の近傍にあるドライクリーニング店)の結果を表示するように構成された「戻る」アフォーダンス638bを含む。   FIG. 6S illustrates displaying dialog box 637 in user interface 602 in response to detecting user touch input 665 on display 546-1 in FIG. 6R. In FIG. 6S, the dialog box 637 is configured to pause the turn-by-turn instruction, “pause” affordance 638a, and the latest search query within the map application 436 (eg, near the current location of the device 100). Includes a "back" affordance 638b configured to display the results of some dry cleaners.

図6Sは、図6Rにおいてディスプレイ546−1上のユーザタッチ入力665を検出したことに応じて、アフォーダンス612をユーザインタフェース604内に表示することを更に示す。アフォーダンス612は、アクティブにされたときに、デバイスにデジタルアシスタント(例えば、カリフォルニア州クパチーノのApple Inc.社製Siri)を呼び出させる。図6Sは、ディスプレイ546−1上のアフォーダンス612上でのユーザタッチ入力666を検出することも示す。アフォーダンス612上でのユーザタッチ入力666を検出したことに応じて、デジタルアシスタントが呼び出され、デジタルアシスタントは音声によって、ユーザに「ご用件は何でしょう」と案内する。案内に応じて、ユーザは音声によって、例えば、デジタルアシスタントに「近くのコーヒー店を教えて」と尋ねる。代替として、いくつかの実施形態では、デジタルアシスタントは所定の音声命令(例えば、「やあ、Siri」)によって呼び出される。   FIG. 6S further illustrates displaying affordance 612 in user interface 604 in response to detecting user touch input 665 on display 546-1 in FIG. 6R. The affordance 612, when activated, causes the device to call a digital assistant (eg, Siri manufactured by Apple Inc. of Cupertino, California). FIG. 6S also illustrates detecting user touch input 666 on affordance 612 on display 546-1. In response to detecting the user touch input 666 on the affordance 612, the digital assistant is called, and the digital assistant guides the user by voice "What is your business?" In response to the prompt, the user may, by voice, ask, for example, the digital assistant "tell me a nearby coffee shop". Alternatively, in some embodiments, the digital assistant is called by a predetermined voice command (e.g., "Hi, Siri").

図6Tは、図6Sにおけるユーザインタフェース602の表示をタッチスクリーン112上で維持することを示す。図6Tは、デジタルアシスタントのダイアログボックス667をユーザインタフェース604内に表示することを更に示す。デジタルアシスタントのダイアログボックス667は、デジタルアシスタントがユーザの音声要求(例えば、「近くのコーヒー店を教えて」)に応じてコーヒー店を検索していることを示す。   FIG. 6T illustrates maintaining the display of the user interface 602 in FIG. 6S on the touch screen 112. FIG. 6T further illustrates displaying the digital assistant's dialog box 667 within the user interface 604. The digital assistant's dialog box 667 indicates that the digital assistant is searching for a coffee shop in response to the user's voice request (e.g., "tell me a nearby coffee shop").

図6Uは、ユーザの音声要求(例えば、「近くのコーヒー店を教えて」)に応じて、デバイス100の現在位置608の近傍にあるコーヒー店668a及び668bに関連付けられたユーザインタフェースオブジェクト(例えば、ピン)をユーザインタフェース602内に表示することを示す。いくつかの実施形態では、音声要求に一致する検索結果(又は店)が、近接度、店の評価、レビューの量、ユーザが店を訪れた回数、及び/又は他の要因に基づき自動的に選択される(例えば、Java Haus)。図6Uでは、自動的に選択されたコーヒー店668aに対応する情報ボックス669も、ユーザインタフェース602内に表示される。情報ボックス669は、コーヒー店の名前(例えば、Java Haus)、店の評価(例えば、星5つ中4つ)、店に対するユーザレビューの量(例えば、320件のレビュー)、及び店に対応する追加情報を表示するように構成されたアフォーダンス669aを含む。追加情報をユーザインタフェース602内において提供することは、デバイス100を操作している車両の同乗者が追加情報を車両の運転者に提供し、及び/又はユーザインタフェース602内において提供された追加情報に基づき目的地を選択することを可能にする。   FIG. 6U illustrates that, in response to a user voice request (eg, “tell me a nearby coffee shop”), user interface objects (eg, Is shown to be displayed in the user interface 602. In some embodiments, search results (or stores) that match the voice request are automatically based on proximity, store rating, amount of review, number of times the user has visited the store, and / or other factors. Selected (eg, Java Haus). In FIG. 6U, an information box 669 corresponding to the automatically selected coffee shop 668a is also displayed in the user interface 602. The information box 669 corresponds to the name of the coffee shop (eg, Java Haus), the shop rating (eg, 4 out of 5 stars), the amount of user reviews for the shop (eg, 320 reviews), and the shop. Includes affordances 669a configured to display additional information. Providing additional information in the user interface 602 means that the passenger of the vehicle operating the device 100 provides the additional information to the driver of the vehicle and / or to the additional information provided in the user interface 602. It is possible to select the destination based on.

図6Uは、ユーザの音声要求(例えば、「近くのコーヒー店を教えて」)に応じて、デバイス100の現在位置608からコーヒー店668a(例えば、Java Haus)までの推奨ルート671をユーザインタフェース604内に表示することを更に示す。いくつかの実施形態では、自動的に選択された検索結果に対するルートがユーザインタフェース604内に表示される。図6Uでは、ユーザインタフェース604は、ルート671、ルート671上におけるユーザの第1の方向(又は進路変更点)及び目的地の名前(例えば、Java Haus)を示すターンバイターン指示ボックス670、及びターンバイターンモードを開始するように構成された「指示開始」アフォーダンス618を含む。図6Uは、ユーザインタフェース604内に表示される地図の向きを示すコンパス611も示す(例えば、ディスプレイ546−1の上部が北になるように地図が方向決めされる)。図6Uは、ディスプレイ546−1上の「指示開始」アフォーダンス618上でのユーザタッチ入力672を検出することを更に示す。   FIG. 6U shows a recommended route 671 from the current location 608 of the device 100 to the coffee shop 668a (eg, Java Haus) in response to the user's voice request (eg, “tell me a nearby coffee shop”). It further indicates that it is displayed inside. In some embodiments, routes for automatically selected search results are displayed in the user interface 604. In FIG. 6U, the user interface 604 includes a route 671, a turn-by-turn indication box 670 indicating the user's first direction (or course change point) on the route 671 and the name of the destination (e.g. Java Haus), and a turn. It includes a "Start Indication" affordance 618 that is configured to initiate the vital mode. FIG. 6U also shows a compass 611 indicating the orientation of the map displayed in the user interface 604 (eg, the map is oriented so that the top of the display 546-1 is north). FIG. 6U further illustrates detecting a user touch input 672 on the “Start indicating” affordance 618 on display 546-1.

図6Vは、図6Uにおいて「指示開始」アフォーダンス618上でのユーザタッチ入力672を検出したことに応じて、ルート671上におけるユーザの第1の方向(又は進路変更点)及び目的地の名前(例えば、Java Haus)を示すターンバイターン指示ボックス673をユーザインタフェース602内に表示することを示す。いくつかの実施形態では、ターンバイターン指示ボックス673がタッチスクリーン112全体を占有する。   FIG. 6V shows the user's first direction (or course change point) and destination name (on the route 671) in response to detecting the user touch input 672 on the “Start indication” affordance 618 in FIG. 6U. For example, it indicates that a turn-by-turn instruction box 673 indicating Java Haus) is displayed in the user interface 602. In some embodiments, the turn-by-turn indication box 673 occupies the entire touch screen 112.

図6Vは、図6Uにおいてディスプレイ546−1上の「指示開始」アフォーダンス662上でのユーザタッチ入力672を検出したことに応じて、ターンバイターン指示モードをユーザインタフェース604内に表示することを更に示す。図6Vでは、ターンバイターンモードの間、デバイス100の現在位置がマーカー674としてユーザインタフェース604内に表示される。いくつかの実施形態では、図6Vにおいて表示されるターンバイターン指示モードは、ユーザインタフェース604内に表示される地図を、図6Uに表示されるマップよりも更にズームインする。   FIG. 6V further illustrates displaying the turn-by-turn instruction mode in the user interface 604 in response to detecting the user touch input 672 on the “Start indication” affordance 662 on the display 546-1 in FIG. 6U. Show. In FIG. 6V, the current position of the device 100 is displayed in the user interface 604 as a marker 674 during turn-by-turn mode. In some embodiments, the turn-by-turn instruction mode displayed in FIG. 6V zooms in further on the map displayed in the user interface 604 than the map displayed in FIG. 6U.

図6W〜図6FFは、いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図9A〜9Cのプロセスを含めた、以下で説明されるプロセスを例示するために使用される。   6W-6FF illustrate exemplary user interfaces for sending update information to affected displays in accordance with some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the processes of FIGS. 9A-9C.

図6Wは、いくつかの実施形態に係る、ポータブル多機能デバイス100(本明細書では「デバイス100」と呼ばれることもある)に通信可能に結合された外部情報提供システム540(本明細書では「システム540」と呼ばれることもある)内に含まれる2つのディスプレイを示す。いくつかの実施形態では、外部情報提供システム540は、車両内に実装されたエンターテイメント及び/又はナビゲーションシステムである。いくつかの実施形態では、ディスプレイ546−1は第1の外部情報提供システム540−1に関連付けられ、ディスプレイ546−2は第2の外部情報提供システム540−2に関連付けられる。いくつかの実施形態では、ディスプレイ546−1は主要ディスプレイ(例えば、ダッシュボード又は車両ナビゲーションディスプレイ)であり、ディスプレイ546−2は補助ディスプレイ(例えば、後部座席又はエンターテイメントディスプレイ)である。いくつかの実施形態では、ディスプレイ546−1及びディスプレイ546−2は、ディスプレイ上にタッチ感知面を備え、かつ1つ以上のタッチ入力を受け取るように構成された、タッチ感知ディスプレイである。図6Wは、ディスプレイ546−1及びディスプレイ546−2のうちの1つ又は両方を制御するように構成されたシステム540に関連付けられたジョグダイヤル675(例えば、押下可能及び/又は回転可能な機械的ノブ又はダイヤル)も示す。   FIG. 6W illustrates an external information provision system 540 (herein “communicately” to a portable multifunction device 100 (sometimes referred to herein as “device 100”) according to some embodiments. Show two displays contained within the system 540). In some embodiments, the external information provision system 540 is an entertainment and / or navigation system implemented in a vehicle. In some embodiments, display 546-1 is associated with first external information provision system 540-1, and display 546-2 is associated with second external information provision system 540-2. In some embodiments, display 546-1 is a primary display (e.g., dashboard or vehicle navigation display) and display 546-2 is an auxiliary display (e.g., backseat or entertainment display). In some embodiments, display 546-1 and display 546-2 are touch-sensitive displays that include a touch-sensitive surface on the display and are configured to receive one or more touch inputs. FIG. 6W illustrates a jog dial 675 (eg, a pushable and / or rotatable mechanical knob associated with the system 540 configured to control one or both of the display 546-1 and the display 546-2. Or dial).

図6Wは、地図/ナビゲーションアプリケーションにおいてデバイス100の現在位置608の近傍にあるピン614a及び614bによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)を、ディスプレイ546−1のユーザインタフェース604内に表示することを示す。例えば、これらのピンは、検索クエリ(例えば、図6Cにおいて、デバイス100のユーザインタフェース602内にある検索ボックス609に入力された「ドライクリーニング」)に応じてユーザインタフェース604内に表示される。いくつかの実施形態では、ユーザの検索クエリに一致する検索結果(又は店)が、近接度、店の評価、レビューの量、ユーザが店を訪れた回数、及び他の要因に基づき自動的に選択される(例えば、ABC Cleaners)。図6Wでは、ピン614aによって表される自動的に選択されたドライクリーニング店に対応する目的地情報678も、ユーザインタフェース604内に表示される。目的地情報678は、ドライクリーニング店の名前(例えば、ABC Cleaners)、店の評価(例えば、星5つ中3つ)、店に対するユーザレビューの量(例えば、100件のレビュー)、及びデバイス100の現在位置608から店までの距離を含む。いくつかの実施形態では、ドライクリーニング店514aに対応する目的地情報678に関連付けられたダイアログボックス内の任意の場所に対するタッチ入力に応じて、現在選択されている検索結果(例えば、ピン614aによって表されるドライクリーニング店)までのターンバイターン指示がユーザインタフェース604内に表示される。いくつかの他の実施形態では、ジョグダイヤル675の押下に応じて、現在選択されている検索結果(例えば、ピン614aによって表されるドライクリーニング店)までのターンバイターン指示がユーザインタフェース604内に表示される。図6Wは、ユーザインタフェース604内に表示される地図の向きを示すコンパス611も示す(例えば、ディスプレイ546−1の上部が北になるように地図が方向決めされる)。   FIG. 6W illustrates a user interface object (eg, a pin) associated with the dry cleaner represented by pins 614a and 614b near the current position 608 of the device 100 in a map / navigation application, and the user of display 546-1. The display in the interface 604 is shown. For example, these pins are displayed in the user interface 604 in response to a search query (eg, “dry clean” entered in the search box 609 in the user interface 602 of the device 100 in FIG. 6C). In some embodiments, search results (or stores) that match the user's search query are automatically based on proximity, store rating, amount of review, number of times the user has visited the store, and other factors. Selected (eg, ABC Cleaners). In FIG. 6W, destination information 678 corresponding to the automatically selected dry cleaner represented by pin 614 a is also displayed in the user interface 604. Destination information 678 includes the name of the dry cleaner (e.g. ABC Cleaners), store rating (e.g. three out of five stars), the amount of user reviews for the store (e.g. 100 reviews), and the device 100 Including the distance from the current position 608 to the store. In some embodiments, in response to a touch input to any location within the dialog box associated with the destination information 678 corresponding to the dry cleaner 514a, the currently selected search result (e.g. Turn-by-turn instructions to the dry cleaning shop) are displayed in the user interface 604. In some other embodiments, in response to depression of the jog dial 675, turn-by-turn instructions to the currently selected search result (eg, the dry cleaner represented by pin 614a) are displayed in the user interface 604 Be done. FIG. 6W also shows a compass 611 indicating the orientation of the map displayed in the user interface 604 (eg, the map is oriented so that the top of display 546-1 is north).

図6Wは、ディスプレイ546−1上のユーザタッチ入力679及び680によるピンチジェスチャを検出することを示す。ユーザタッチ入力679及び680(又はピンチジェスチャ)を検出したことに応じて、ディスプレイ546−1(又はシステム540)は、ユーザタッチ入力679及び680(又はピンチジェスチャ)を示す入力情報をデバイス100に送信する。入力情報は、ディスプレイ546−1のタッチ感知面に関連付けられた識別子(例えば、ディスプレイ546−1のタッチ感知面に関連付けられた一意識別子)並びにユーザタッチ入力679及び680(又はピンチジェスチャ)を記述する入力記述情報を含む。いくつかの実施形態では、入力記述情報は、ユーザタッチ入力679及び680の位置、ユーザタッチ入力679及び680の移動の大きさ、ユーザタッチ入力679及び680が検出された時間の長さ、ユーザタッチ入力679及び680の表面積、及び/又はユーザタッチ入力679及び680を記述する他の情報などの、ユーザタッチ入力679及び680を記述する生データを含む。いくつかの他の実施形態では、入力記述情報は、実行されたジェスチャの種類、ジェスチャの位置、ジェスチャの移動の大きさ、及び/又はジェスチャを記述する他の情報などの、ピンチジェスチャを記述するデータを含む。   FIG. 6W illustrates detecting pinch gestures by user touch inputs 679 and 680 on display 546-1. In response to detecting user touch input 679 and 680 (or pinch gesture), display 546-1 (or system 540) sends input information indicating user touch input 679 and 680 (or pinch gesture) to device 100 Do. The input information describes an identifier associated with the touch sensitive surface of display 546-1 (eg, a unique identifier associated with the touch sensitive surface of display 546-1) as well as user touch inputs 679 and 680 (or pinch gestures) Contains input description information. In some embodiments, the input description information includes the position of the user touch input 679 and 680, the magnitude of movement of the user touch input 679 and 680, the length of time the user touch input 679 and 680 is detected, the user touch It includes raw data describing user touch inputs 679 and 680, such as the surface area of inputs 679 and 680 and / or other information describing user touch inputs 679 and 680. In some other embodiments, the input description information describes a pinch gesture, such as the type of gesture performed, the position of the gesture, the magnitude of movement of the gesture, and / or other information that describes the gesture. Contains data.

ユーザタッチ入力679及び680(又はピンチジェスチャ)に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへのマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−1に関連付けられていると判定する(例えば、タッチイベント(又はジェスチャ)をディスプレイ546−1のタッチ感知面に関連付ける)。図6Wにおいて検出されたタッチイベントがディスプレイ546−1(例えば、影響を受けるディスプレイ)に関連付けられていると判定した後、デバイス100は、図6Wに示すディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604が検索結果又は目的地選択モードになっている)も判定する。いくつかの実施形態では、デバイス100は、入力情報に含まれる情報に基づき、ディスプレイのディスプレイ状態を判定する。いくつかの他の実施形態では、デバイス100は、システム540にそのような情報を問い合わせることによって、ディスプレイのディスプレイ状態を判定する。   In response to receiving the input information associated with the user touch inputs 679 and 680 (or pinch gesture), the device 100 displays the identifier included in the input information on the display 546-based on the mapping of the input source to the display. Determine that it is associated with 1 (e.g., associate a touch event (or gesture) with the touch sensitive surface of display 546-1). After determining that the touch event detected in FIG. 6W is associated with the display 546-1 (eg, the affected display), the device 100 displays the display state of the display 546-1 (eg, a user shown in FIG. 6W). The interface 604 is also in a search result or destination selection mode). In some embodiments, device 100 determines the display state of the display based on the information contained in the input information. In some other embodiments, device 100 determines the display state of the display by querying system 540 for such information.

図6Wは、メディアプレーヤアプリケーション内のアルバムに対応する歌曲677のリストを、ディスプレイ546−2のユーザインタフェース676内に表示することを更に示す。   FIG. 6W further illustrates displaying a list of songs 677 corresponding to the album in the media player application within the user interface 676 of the display 546-2.

図6Xは、デバイス100の現在位置608の近傍にある、ピン614a、614b、614c、及び614dによって表されるドライクリーニング店に関連付けられたユーザインタフェースオブジェクト(例えば、ピン)を、ディスプレイ546−1のユーザインタフェース604内に表示することを示す。例えば、図6Xにおいてユーザインタフェース604内に表示される地図は、図6Wにおいてユーザインタフェース604内に表示される地図をズームアウトしたものである。ディスプレイ546−1は、図6Wにおいてディスプレイ546−1上で検出されたピンチジェスチャに対応する更新されたユーザインタフェース、及び図6Wにおけるユーザインタフェース604のディスプレイ状態(例えば、検索結果又は目的地選択モード)を含む更新情報をデバイス100から受信したことに応じて、図6Xにおいて、ズームアウトされた地図をユーザインタフェース604内に表示する。   FIG. 6X illustrates a user interface object (eg, a pin) associated with the dry cleaner represented by pins 614a, 614b, 614c, and 614d near the current position 608 of device 100 on display 546-1. The display in the user interface 604 is shown. For example, the map displayed in the user interface 604 in FIG. 6X is a zoom out of the map displayed in the user interface 604 in FIG. 6W. Display 546-1 is an updated user interface corresponding to the pinch gesture detected on display 546-1 in FIG. 6W, and the display state of user interface 604 in FIG. 6W (eg, search results or destination selection mode) In response to receiving update information from the device 100, the zoomed out map is displayed in the user interface 604 in FIG. 6X.

図6Xは、ジョグダイヤル675の回転681(例えば、約90度の時計回りの回転)を検出することも示す。回転681を検出したことに応じて、ジョグダイヤル675(又はシステム540)は、回転681を示す入力情報をデバイス100に送信する。入力情報は、ジョグダイヤル675に関連付けられた識別子(例えば、ジョグダイヤル675に関連付けられた一意識別子)及び回転681を記述する入力記述情報を含む。例えば、入力記述情報は、回転の大きさ(90度)及び方向(時計回り)などの、回転681を記述する生データを含む。回転681に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへのマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−1に関連付けられていると判定する(例えば、回転イベントを、現在ディスプレイ546−1にマップされているジョグダイヤル675に関連付ける)。図6Xにおいて検出された回転イベントがディスプレイ546−1に関連付けられていると判定した後、デバイス100は、図6Xに示すディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604が検索結果又は目的地選択モードになっている)も判定する。図6Xは、図6Wにおけるユーザインタフェース676内の歌曲677のリストの表示をディスプレイ546−2上で維持することを更に示す(例えば、ユーザインタフェース676が表示されるディスプレイにジョグダイヤル675が関連付けられていない場合、ユーザインタフェース676はジョグダイヤル675の回転に応じて更新されない)。   FIG. 6X also illustrates detecting rotation 681 of jog dial 675 (eg, approximately 90 degrees clockwise rotation). In response to detecting the rotation 681, the jog dial 675 (or the system 540) transmits input information indicating the rotation 681 to the device 100. The input information includes an identifier associated with the jog dial 675 (eg, a unique identifier associated with the jog dial 675) and input description information that describes the rotation 681. For example, the input description information includes raw data describing the rotation 681 such as the magnitude (90 degrees) and the direction (clockwise) of the rotation. In response to receiving the input information associated with rotation 681, device 100 determines based on the mapping of the input source to the display that the identifier contained within the input information is associated with display 546-1. (For example, associate a rotation event with the jog dial 675 currently mapped to the display 546-1). After determining that the detected rotation event in FIG. 6X is associated with the display 546-1, the device 100 displays the display state of the display 546-1 shown in FIG. 6X (e.g., search results or destination for the user interface 604). In the selection mode) is also determined. FIG. 6X further illustrates maintaining the display of the list of songs 677 in user interface 676 in FIG. 6W on display 546-2 (eg, jog dial 675 is not associated with the display on which user interface 676 is displayed). If the user interface 676 is not updated in response to the rotation of the jog dial 675).

図6Yは、ピン614dによって表される選択されたドライクリーニング店に対応する目的地情報682を、ディスプレイ546−1のユーザインタフェース604内に表示することを示す。図6Yでは、ディスプレイ546−1は、図6Xにおいてジョグダイヤル675によって検出された回転681に対応する更新されたユーザインタフェース、及び図6Xにおけるユーザインタフェース604のディスプレイ状態(例えば、検索結果又は目的地選択モード)を含む更新情報をデバイス100から受信したことに応じて、ピン614dによって表される選択されたドライクリーニング店(例えば、Suzie's Cleaners)に対応する目的地情報682を表示する。いくつかの実施形態では、目的地情報(ひいては選択された目的地)は、ジョグダイヤル675の回転の方向及び大きさに従ってスクロールされる。例えば、検索結果又は目的地選択モードが表示されているとき、ジョグダイヤル675の90度の回転は次の検索結果を選択し、時計回りの回転は検索結果を北から南へとスクロールし、反時計回りの回転は検索結果を南から北へとスクロールする。図6Yでは、図6Xにおいてジョグダイヤル675の回転681(例えば、90度の時計回りの回転)を検出したことに応じて、ピン614dによって表されるドライクリーニング店が選択され(又はその店までスクロールされ)、ピン614dによって表されるドライクリーニング店(例えば、図6Xにおいて表示されたピン614aによって表されるドライクリーニング店の南にある、次のドライクリーニング店)に対応する目的地情報682がユーザインタフェース604内に表示される。   FIG. 6Y illustrates displaying destination information 682 corresponding to the selected dry cleaner represented by pin 614 d in user interface 604 of display 546-1. In FIG. 6Y, the display 546-1 displays the updated user interface corresponding to the rotation 681 detected by the jog dial 675 in FIG. 6X and the display status of the user interface 604 in FIG. 6X (eg, search results or destination selection mode) And the destination information 682 corresponding to the selected dry cleaner (e.g., Suzie's Cleaners) represented by the pin 614d. In some embodiments, destination information (and thus the selected destination) is scrolled according to the direction and magnitude of rotation of the jog dial 675. For example, when a search result or destination selection mode is displayed, a 90 degree rotation of the jog dial 675 selects the next search result, a clockwise rotation scrolls the search result from north to south, an counterclockwise Rotation around scrolls the search results from south to north. In FIG. 6Y, in response to detecting rotation 681 (eg, a 90 degree clockwise rotation) of the jog dial 675 in FIG. 6X, the dry cleaner represented by pin 614d is selected (or scrolled to that store) , Destination information 682 corresponding to a dry cleaner represented by pin 614 d (eg, the next dry cleaner located south of the dry cleaner represented by pin 614 a shown in FIG. 6X) It is displayed in 604.

図6Yは、ジョグダイヤル675の回転683(例えば、約180度の反時計回りの回転)を検出することも示す。いくつかの実施形態では、回転683を検出したことに応じて、ジョグダイヤル675(又はシステム540)は、回転683を示す入力情報をデバイス100に送信する。入力情報は、ジョグダイヤル675に関連付けられた識別子(例えば、ジョグダイヤル675に関連付けられた一意識別子)及び回転683を記述する入力記述情報を含む。例えば、入力記述情報は、回転の大きさ(180度)及び方向(反時計回り)などの、回転683を記述する生データを含む。回転683に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへのマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−1に関連付けられていると判定する(例えば、回転イベントを、現在ディスプレイ546−1にマップされているジョグダイヤル675に関連付ける)。図6Yにおいて検出された回転イベントがディスプレイ546−1に関連付けられていると判定した後、デバイス100は、図6Yに示すディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604が検索結果又は目的地選択モードになっている)も判定する。図6Yは、図6Wにおけるユーザインタフェース676内の歌曲677のリストの表示をディスプレイ546−2上で維持することを更に示す。   FIG. 6Y also illustrates detecting rotation 683 of jog dial 675 (eg, about 180 degrees of counterclockwise rotation). In some embodiments, in response to detecting rotation 683, jog dial 675 (or system 540) sends input information indicative of rotation 683 to device 100. The input information includes an identifier associated with the jog dial 675 (e.g., a unique identifier associated with the jog dial 675) and input description information describing the rotation 683. For example, the input description information includes raw data describing the rotation 683 such as the magnitude (180 degrees) and the direction (counterclockwise) of the rotation. In response to receiving the input information associated with rotation 683, device 100 determines based on the mapping of the input source to the display that the identifier included in the input information is associated with display 546-1. (For example, associate a rotation event with the jog dial 675 currently mapped to the display 546-1). After determining that the detected rotation event in FIG. 6Y is associated with the display 546-1, the device 100 displays the display state of the display 546-1 shown in FIG. 6Y (e.g., search results or destinations for the user interface 604). In the selection mode) is also determined. FIG. 6Y further illustrates maintaining a display of the list of songs 677 in user interface 676 in FIG. 6W on display 546-2.

図6Zは、ピン614bによって表される選択されたドライクリーニング店(例えば、Mary Ann's Cleaners)に対応する目的地情報684を、ディスプレイ546−1のユーザインタフェース604内に表示することを示す。図6Zでは、ディスプレイ546−1は、図6Yにおいてジョグダイヤル675によって検出された回転683に対応する更新されたユーザインタフェース、及び図6Yにおけるユーザインタフェース604のディスプレイ状態(例えば、検索結果又は目的地選択モード)を含む更新情報をデバイス100から受信したことに応じて、ピン614bによって表される選択されたドライクリーニング店に対応する目的地情報684を表示する。図6Zでは、図6Yにおいてジョグダイヤル675の回転683(例えば、180度の反時計回りの回転)を検出したことに応じて、ピン614bによって表されるドライクリーニング店が選択され(又はその店までスクロールされ)、ピン614bによって表されるドライクリーニング店(例えば、図6Yにおいて表示されたピン614dによって表されるドライクリーニング店の北に2つのドライクリーニング店)に対応する目的地情報684がユーザインタフェース604内に表示される。   FIG. 6Z illustrates displaying destination information 684 corresponding to a selected dry cleaner (eg, Mary Ann's Cleaners) represented by pin 614b in user interface 604 of display 546-1. In FIG. 6Z, the display 546-1 displays the updated user interface corresponding to the rotation 683 detected by the jog dial 675 in FIG. 6Y and the display status of the user interface 604 in FIG. 6Y (e.g., search results or destination selection mode) In response to receiving update information from device 100, the destination information 684 corresponding to the selected dry cleaner represented by pin 614b is displayed. In FIG. 6Z, in response to detecting rotation 683 of jog dial 675 (eg, 180 degrees counterclockwise rotation) in FIG. 6Y, the dry cleaner represented by pin 614b is selected (or scrolls to that store) Destination information 684 corresponding to the dry cleaner represented by pin 614b (eg, two dry cleaners north of the dry cleaner represented by pin 614d shown in FIG. 6Y). It is displayed inside.

図6Zは、ユーザタッチ入力685によるジョグダイヤル675の押圧又は押下を検出することも示す。いくつかの実施形態では、ユーザタッチ入力685を検出したことに応じて、ジョグダイヤル675(又はシステム540)は、ユーザタッチ入力685を示す入力情報をデバイス100に送信する。入力情報は、ジョグダイヤル675に関連付けられた識別子(例えば、ジョグダイヤル675に関連付けられた一意識別子)及びユーザタッチ入力685を記述する入力記述情報を含む。例えば、入力記述情報は、入力の力及びジョグダイヤル675の押下の量などの、ユーザタッチ入力685を記述する生データを含む。ユーザタッチ入力685に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへのマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−1に関連付けられていると判定する(例えば、押圧又は押下イベントを、現在ディスプレイ546−1にマップされているジョグダイヤル675に関連付ける)。図6Zにおいて検出された押下イベントがディスプレイ546−1に関連付けられていると判定した後、デバイス100は、図6Zに示すディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604が検索結果又は目的地選択モードになっている)も判定する。図6Zは、図6Wにおけるユーザインタフェース676内の歌曲677のリストの表示をディスプレイ546−2上で維持することを更に示す。   FIG. 6Z also illustrates detecting a press or press of the jog dial 675 by the user touch input 685. In some embodiments, in response to detecting user touch input 685, jog dial 675 (or system 540) transmits input information indicative of user touch input 685 to device 100. The input information includes an identifier associated with the jog dial 675 (eg, a unique identifier associated with the jog dial 675) and input description information describing the user touch input 685. For example, the input description information includes raw data describing the user touch input 685, such as the force of the input and the amount of depression of the jog dial 675. In response to receiving the input information associated with the user touch input 685, the device 100 determines that the identifier included in the input information is associated with the display 546-1 based on the mapping of the input source to the display Determine (e.g., associate a press or press event with the jog dial 675 currently mapped to the display 546-1). After determining that the press event detected in FIG. 6Z is associated with the display 546-1, the device 100 displays the display state of the display 546-1 shown in FIG. 6Z (e.g., search results or a destination for the user interface 604). In the selection mode) is also determined. FIG. 6Z further illustrates maintaining a display of the list of songs 677 in the user interface 676 in FIG. 6W on display 546-2.

図6AAは、デバイス100の現在位置を示すマーカー664から、ピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までのターンバイターン指示モードを、ディスプレイ546−1のユーザインタフェース604内に表示することを示す。図6AAでは、ディスプレイ546−1は、図6Zにおいてジョグダイヤル675によって検出されたユーザタッチ入力685に対応する更新されたユーザインタフェース、及び図6Zにおけるユーザインタフェース604のディスプレイ状態(例えば、検索結果又は目的地選択モード)を含む更新情報をデバイス100から受信したことに応じて、ターンバイターン指示モードをユーザインタフェース604内に表示する。図6AAでは、図6Zにおいてジョグダイヤル675を押下するユーザタッチ入力685を検出したことに応じて、ルート659a上における、デバイス100の現在位置を示すマーカー664から、ピン614bによって表されるドライクリーニング店(例えば、図6Yにおいてジョグダイヤル675の回転683によって選択されたもの)までのターンバイターン指示が、ユーザインタフェース604のターンバイターン指示ボックス663内に表示される。図6AAは、ユーザインタフェース604内に表示される地図の向きを示すコンパス611も示す(例えば、ディスプレイ546−1の上部が東になるように地図が方向決めされる)。   FIG. 6AA shows a turn-by-turn instruction mode from the marker 664 indicating the current position of the device 100 to the dry cleaner (eg, Mary Ann's Cleaners) represented by the pin 614b, the user interface 604 of the display 546-1. Indicates to display within. 6AA, display 546-1 displays the updated user interface corresponding to user touch input 685 detected by jog dial 675 in FIG. 6Z and the display status of user interface 604 in FIG. 6Z (e.g., search results or destinations). In response to receiving update information including the selection mode) from the device 100, the turn-by-turn instruction mode is displayed in the user interface 604. In FIG. 6AA, in response to the detection of the user touch input 685 for pressing the jog dial 675 in FIG. 6Z, the dry cleaner store represented by the pin 614b from the marker 664 indicating the current position of the device 100 on the route 659a. For example, the turn-by-turn instruction to the one selected by the rotation 683 of the jog dial 675 in FIG. 6Y is displayed in the turn-by-turn instruction box 663 of the user interface 604. FIG. 6AA also shows a compass 611 indicating the orientation of the map displayed in the user interface 604 (eg, the map is oriented so that the top of display 546-1 is east).

図6AAは、ジョグダイヤル675の回転686(例えば、約90度の反時計回りの回転)を検出することも示す。回転686を検出したことに応じて、ジョグダイヤル675(又はシステム540)は、回転686を示す入力情報をデバイス100に送信する。入力情報は、ジョグダイヤル675に関連付けられた識別子(例えば、ジョグダイヤル675に関連付けられた一意識別子)及び回転686を記述する入力記述情報を含む。例えば、入力記述情報は、回転の大きさ(90度)及び方向(反時計回り)などの、回転686を記述する生データを含む。回転681に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへのマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−1に関連付けられていると判定する(例えば、回転イベントを、現在ディスプレイ546−1にマップされているジョグダイヤル675に関連付ける)。図6AAにおいて検出された回転イベントがディスプレイ546−1に関連付けられていると判定した後、デバイス100は、図6AAに示すディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604がターンバイターン指示モードになっている)も判定する。図6AAは、図6Wにおけるユーザインタフェース676内の歌曲677のリストの表示をディスプレイ546−2上で維持することを更に示す。   FIG. 6AA also illustrates detecting rotation 686 of jog dial 675 (eg, approximately 90 degrees of counterclockwise rotation). In response to detecting the rotation 686, the jog dial 675 (or system 540) transmits input information indicating the rotation 686 to the device 100. The input information includes an identifier associated with jog dial 675 (e.g., a unique identifier associated with jog dial 675) and input description information describing rotation 686. For example, the input description information includes raw data describing rotation 686, such as the magnitude (90 degrees) and direction (counterclockwise) of the rotation. In response to receiving the input information associated with rotation 681, device 100 determines based on the mapping of the input source to the display that the identifier contained within the input information is associated with display 546-1. (For example, associate a rotation event with the jog dial 675 currently mapped to the display 546-1). After determining that the detected rotation event in FIG. 6AA is associated with display 546-1, device 100 displays the display state of display 546-1 shown in FIG. 6AA (eg, turn-by-turn instruction mode in user interface 604) ) Is also determined. FIG. 6AA further illustrates maintaining a display of the list of songs 677 in user interface 676 in FIG. 6W on display 546-2.

図6BBは、ターンバイターン指示モードをディスプレイ546−1のユーザインタフェース604内に表示することを示す。例えば、図6BBにおいてユーザインタフェース604内に表示されるターンバイターン指示モードは、図6AAにおいてユーザインタフェース604内に表示されるターンバイターン指示モードをズームアウトしたものである。図6BBでは、ディスプレイ546−1は、図6AAにおいてジョグダイヤル675によって検出された回転686に対応する更新されたユーザインタフェース、及び図6AAにおけるユーザインタフェース604のディスプレイ状態(例えば、ターンバイターン指示モード)を含む更新情報をデバイス100から受信したことに応じて、ズームアウトされたターンバイターン指示モードを、図6BBにおけるユーザインタフェース604内に表示する。図6BBは、図6Wにおけるユーザインタフェース676内の歌曲677のリストの表示をディスプレイ546−2上で維持することを更に示す。   FIG. 6BB illustrates displaying a turn-by-turn instruction mode in the user interface 604 of the display 546-1. For example, the turn-by-turn instruction mode displayed in the user interface 604 in FIG. 6BB is a zoom out of the turn-by-turn instruction mode displayed in the user interface 604 in FIG. 6AA. 6BB, display 546-1 displays the updated user interface corresponding to rotation 686 detected by jog dial 675 in FIG. 6AA, and the display state (eg, turn-by-turn indication mode) of user interface 604 in FIG. 6AA. In response to receiving from the device 100 the update information that is included, the zoomed out turn-by-turn instruction mode is displayed in the user interface 604 in FIG. 6BB. FIG. 6BB further illustrates maintaining the display of the list of songs 677 in the user interface 676 in FIG. 6W on display 546-2.

図6CCは、車両後進モードをディスプレイ546−1のユーザインタフェース604内に表示することを示す。例えば、ユーザインタフェース604内に表示される車両後進モードは、車両内に実装された後進カメラからのビデオフィードを含む。いくつかの実施形態では、車両後進モードがディスプレイ546−1全体を占有する。システム540が車両内に実装された場合、ディスプレイ546−1は、車両が後進する間、車両後進モードをユーザインタフェース604内に表示する。いくつかの実施形態では、車両後進モードは、ディスプレイ546−1及び546−2によってデバイス100から受信された全ての更新情報に取って代わる。いくつかの実施形態では、車両後進モードはディスプレイのうちの1つ(例えば、ディスプレイ546−1)に表示され、他のディスプレイ(例えば、ディスプレイ546−2)には表示されない。   FIG. 6CC illustrates displaying the vehicle reverse mode in the user interface 604 of the display 546-1. For example, the vehicle reverse mode displayed in the user interface 604 includes a video feed from a reverse camera implemented in the vehicle. In some embodiments, the vehicle reverse mode occupies the entire display 546-1. When the system 540 is implemented in a vehicle, the display 546-1 displays the vehicle reverse mode in the user interface 604 while the vehicle reverses. In some embodiments, the vehicle reverse mode supersedes any update information received from device 100 by displays 546-1 and 546-2. In some embodiments, the vehicle reverse mode is displayed on one of the displays (e.g., display 546-1) and not on the other display (e.g., display 546-2).

同様に、図6CCは、車両後進モードをディスプレイ546−2のユーザインタフェース676内に表示することも示す。例えば、ユーザインタフェース676内に表示される車両後進モードは、車両内に実装された後進カメラからのビデオフィードを含む。いくつかの実施形態では、車両後進モードがディスプレイ546−2全体を占有する。システム540が車両内に実装された場合、ディスプレイ546−2は、車両が後進する間、車両後進モードをユーザインタフェース676内に表示する。いくつかの他の実施形態では、ディスプレイ546−2は、車両が後進する間、車両後進モードをユーザインタフェース676内に表示せず、インタフェース676の表示を維持する。   Similarly, FIG. 6 CC also shows displaying the vehicle reverse mode in the user interface 676 of the display 546-2. For example, the vehicle reverse mode displayed in the user interface 676 includes a video feed from a reverse camera implemented in the vehicle. In some embodiments, the vehicle reverse mode occupies the entire display 546-2. If the system 540 is implemented in a vehicle, the display 546-2 displays the vehicle reverse mode in the user interface 676 while the vehicle reverses. In some other embodiments, the display 546-2 does not display the vehicle reverse mode in the user interface 676 while the vehicle reverses, and maintains the display of the interface 676.

図6DDは、車両がそれ以上後進しなくなったときに、6BBにおけるユーザインタフェース604内のターンバイターン指示モードをディスプレイ546−1上に表示することを示す。   FIG. 6DD illustrates displaying the turn-by-turn instruction mode in the user interface 604 at 6BB on display 546-1 when the vehicle no longer reverses.

図6DDは、ジョグダイヤル675の回転688(例えば、約90度の時計回りの回転)を検出することも示す。回転688を検出したことに応じて、ジョグダイヤル675(又はシステム540)は、回転688を示す入力情報をデバイス100に送信する。入力情報は、ジョグダイヤル675に関連付けられた識別子(例えば、ジョグダイヤル675に関連付けられた一意識別子)及び回転688を記述する入力記述情報を含む。例えば、入力記述情報は、回転の大きさ(90度)及び方向(時計回り)などの、回転688を記述する生データを含む。   FIG. 6DD also illustrates detecting rotation 688 (eg, approximately 90 degrees clockwise) of jog dial 675. In response to detecting the rotation 688, the jog dial 675 (or the system 540) transmits input information indicating the rotation 688 to the device 100. The input information includes an identifier associated with jog dial 675 (e.g., a unique identifier associated with jog dial 675) and input description information describing rotation 688. For example, the input descriptive information includes raw data describing rotation 688, such as the magnitude (90 degrees) and direction (clockwise) of the rotation.

デバイス100は、ジョグダイヤル675をディスプレイ546−1ではなくディスプレイ546−2にマップする、入力ソースのディスプレイへのマッピングにおける変化を検出する。例えば、デバイス100は、外部情報提供システム540からの通信(例えば、後進カメラの出力を示すようにディスプレイを制御する)、又は、ユーザが、それぞれのコントロールが第1のディスプレイ内のユーザインタフェースを制御する第1のディスプレイモードから、それぞれのコントロールが第2のディスプレイ内のユーザインタフェースを制御する第2のディスプレイモードへと、それぞれのコントロールを切り替えるなどの、入力ソースマッピングの更新要求に基づき、入力ソースのディスプレイへのマッピングを変更する。回転688に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへの変更されたマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−2に関連付けられていると判定する(例えば、回転イベントを、現在ディスプレイ546−2にマップされているジョグダイヤル675に関連付ける)。図6DDにおいて検出された回転イベントがディスプレイ546−2に関連付けられていると判定した後、デバイス100は、図6DDに示すディスプレイ546−2のディスプレイ状態(例えば、ユーザインタフェース676がアルバム歌曲リストモードになっている)も判定する。   Device 100 detects a change in the mapping of the input source to the display that maps jog dial 675 to display 546-2 rather than display 546-1. For example, the device 100 may communicate with the external information providing system 540 (e.g., control the display to indicate the output of the backward camera), or the user controls the user interface in the first display with their respective controls. Input source based on the input source mapping update request, such as switching the respective control from the first display mode to the second display mode in which the respective control controls the user interface in the second display Change the mapping to the display of. In response to receiving the input information associated with rotation 688, device 100 may associate an identifier included in the input information with display 546-2 based on the modified mapping of the input source to the display. (E.g., associate a rotation event with the jog dial 675 currently mapped to the display 546-2). After determining that the rotational event detected in FIG. 6DD is associated with display 546-2, device 100 displays the display state of display 546-2 shown in FIG. 6DD (eg, user interface 676 is in album song list mode). Is also determined.

図6DDは、車両がそれ以上後進しなくなったときに、図6Wにおけるユーザインタフェース676内の歌曲677のリストをディスプレイ546−2上に表示する状態に戻ることを示す。   FIG. 6DD illustrates returning to displaying the list of songs 677 in the user interface 676 in FIG. 6W on the display 546-2 when the vehicle no longer reverses.

図6EEは、図6BBにおけるユーザインタフェース604内のターンバイターン指示モードをディスプレイ546−1上に表示することを示す。図6EEは、歌曲677の下方向にスクロールされたリストをディスプレイ546−2のユーザインタフェース676内に表示することも示す。図6EEでは、ディスプレイ546−2は、図6DDにおいてジョグダイヤル675によって検出された回転688に対応する更新されたユーザインタフェース、及び図6DDにおけるユーザインタフェース676のディスプレイ状態(例えば、アルバム歌曲リストモード)を含む更新情報をデバイス100から受信したことに応じて、歌曲677の下方向にスクロールされたリストをユーザインタフェース676内に表示する。図6EEでは、図6DDにおいてジョグダイヤル675の回転688(例えば、約90度の時計回りの回転)を検出したことに応じて、歌曲677のリストがユーザインタフェース604内において下方向にスクロールされる。   FIG. 6EE illustrates displaying the turn-by-turn instruction mode in user interface 604 in FIG. 6BB on display 546-1. FIG. 6EE also illustrates displaying the downward scrolled list of songs 677 in user interface 676 of display 546-2. In FIG. 6EE, display 546-2 includes an updated user interface corresponding to rotation 688 detected by jog dial 675 in FIG. 6DD, and a display state (eg, album song list mode) of user interface 676 in FIG. 6DD. In response to receiving the update information from the device 100, the downward scrolling list of songs 677 is displayed in the user interface 676. In FIG. 6EE, the list of songs 677 is scrolled down in the user interface 604 in response to detecting the rotation 688 (eg, approximately 90 degrees clockwise rotation) of the jog dial 675 in FIG. 6DD.

図6EEは、ディスプレイ546−2上の位置689aから位置689bへと移動するユーザタッチ入力689による上方向へのスワイプジェスチャ(本明細書では「ドラッグ」ジェスチャと呼ばれることもある)を検出することを更に示す。ユーザタッチ入力689(又はスワイプジェスチャ)を検出したことに応じて、ディスプレイ546−2(又はシステム540)は、タッチ入力689(又はスワイプジェスチャ)を示す入力情報をデバイス100に送信する。入力情報は、ディスプレイ546−2のタッチ感知面に関連付けられた識別子(例えば、ディスプレイ546−2のタッチ感知面に関連付けられた一意識別子)及びタッチ入力689(又はスワイプジェスチャ)を記述する入力記述情報を含む。タッチ入力689(又はスワイプジェスチャ)に関連付けられた入力情報を受信したことに応じて、デバイス100は、入力ソースのディスプレイへのマッピングに基づき、入力情報内に含まれる識別子がディスプレイ546−2に関連付けられていると判定する(例えば、タッチイベント(又はジェスチャ)をディスプレイ546−2のタッチ感知面に関連付ける)。図6EEにおいて検出されたタッチイベントがディスプレイ546−2に関連付けられていると判定した後、デバイス100は、図6EEに示すディスプレイ546−2のディスプレイ状態(例えば、ユーザインタフェース676がアルバム歌曲リストモードになっている)も判定する。   FIG. 6EE detects the upward swipe gesture (sometimes referred to herein as a “drag” gesture) by user touch input 689 moving from position 689a to position 689b on display 546-2. Show more. In response to detecting user touch input 689 (or a swipe gesture), display 546-2 (or system 540) transmits input information indicating touch input 689 (or a swipe gesture) to device 100. The input information describes the identifier associated with the touch sensitive surface of display 546-2 (e.g., a unique identifier associated with the touch sensitive surface of display 546-2) and input descriptive information describing touch input 689 (or a swipe gesture) including. In response to receiving the input information associated with the touch input 689 (or swipe gesture), the device 100 associates the identifier contained in the input information with the display 546-2 based on the mapping of the input source to the display (E.g., associating a touch event (or gesture) with the touch sensitive surface of display 546-2). After determining that the touch event detected in FIG. 6EE is associated with display 546-2, device 100 displays the display state of display 546-2 shown in FIG. 6EE (eg, user interface 676 is in album song list mode). Is also determined.

図6FFは、図6BBにおけるユーザインタフェース604内のターンバイターン指示モードをディスプレイ546−1上に表示することを示す。図6FFは、歌曲677の上方向にスクロールされたリストをディスプレイ546−2のユーザインタフェース676内に表示することも示す。図6FFでは、ディスプレイ546−2は、図6EEにおいてディスプレイ546−2上で検出されたスワイプジェスチャに対応する更新されたユーザインタフェース、及び図6EEにおけるユーザインタフェース676のディスプレイ状態(例えば、アルバム歌曲リストモード)を含む更新情報をデバイス100から受信したことに応じて、歌曲677の上方向にスクロールされたリストをユーザインタフェース604内に表示する。図6FFでは、図6EEにおいて上方向のスワイプジェスチャを検出したことに応じて、歌曲677のリストがユーザインタフェース604内において上方向にスクロールされる。   FIG. 6FF shows that the turn-by-turn instruction mode in the user interface 604 in FIG. 6BB is displayed on the display 546-1. FIG. 6FF also illustrates displaying the upwardly scrolled list of songs 677 in the user interface 676 of display 546-2. In FIG. 6FF, display 546-2 displays the updated user interface corresponding to the swipe gesture detected on display 546-2 in FIG. 6EE, and the display state of user interface 676 in FIG. 6EE (e.g., album song list mode). In response to receiving update information from the device 100, the upward scrolled list of the song 677 is displayed in the user interface 604. In FIG. 6FF, the list of songs 677 is scrolled upward in the user interface 604 in response to detecting the upward swipe gesture in FIG. 6EE.

図7A〜図7Dは、いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法700を示す流れ図である。方法700は、第1のディスプレイ及びタッチ感知面を備える第1の電子デバイス(例えば、デバイス300(図3)、又はポータブル多機能デバイス100(図1A))において実行される。いくつかの実施形態では、第1のディスプレイは、タッチスクリーンディスプレイ(例えば、タッチスクリーン112)であり、タッチ感知面は、第1のディスプレイ上にある。いくつかの実施形態では、第1のディスプレイはタッチ感知面から分離している。方法700におけるいくつかの動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、任意選択的に、変更される。   7A-7D are flow diagrams illustrating a method 700 for synchronizing two or more displays in accordance with some embodiments. Method 700 is performed at a first electronic device (e.g., device 300 (FIG. 3) or portable multifunction device 100 (FIG. 1A)) comprising a first display and a touch sensitive surface. In some embodiments, the first display is a touch screen display (eg, touch screen 112) and the touch sensitive surface is on the first display. In some embodiments, the first display is separate from the touch sensitive surface. Some operations in method 700 are optionally combined and / or the order of some operations is optionally changed.

後述するように、方法700は、2つ以上のディスプレイを同期させる直感的な方法を提供する。この方法は、2つ以上のディスプレイ上に情報を表示するときのユーザの認知負担を軽減し、それによって、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作電子デバイスに関しては、ユーザが、より速く、より効率的に、2つ以上のディスプレイ上に表示された情報を使用することが可能となることにより、電力が節約され、バッテリを充電する間隔が増大する。   As described below, method 700 provides an intuitive way to synchronize two or more displays. This method reduces the cognitive burden on the user when displaying information on more than one display, thereby creating a more efficient human-machine interface. For battery operated electronic devices, power can be saved and the interval between charging the battery by allowing the user to use the information displayed on two or more displays faster and more efficiently Increases.

第1の電子デバイスは、第1のユーザインタフェースを第1のディスプレイ上に表示する(702)。いくつかの実施形態では、第1の電子デバイスは、スマートフォン又はタブレットコンピュータなどのポータブル多機能コンピューティングデバイスである。例えば、図6A〜図6Vは、ユーザインタフェース602(例えば、第1のユーザインタフェース)をタッチスクリーン112上に表示するポータブル多機能デバイス100(本明細書では「デバイス100」と呼ばれることもある)を示す。   The first electronic device displays a first user interface on a first display (702). In some embodiments, the first electronic device is a portable multifunction computing device, such as a smartphone or a tablet computer. For example, FIGS. 6A-6V illustrate portable multifunction device 100 (sometimes referred to herein as “device 100”) displaying user interface 602 (eg, a first user interface) on touch screen 112. Show.

第1のユーザインタフェースは、複数の選択可能なオブジェクト(例えば、以前に実行した検索動作に対応する検索結果)間の選択を可能にする(704)。例えば、図6Dは、デバイス100のユーザインタフェース602内に表示されたピン614a及び614bによって表されるドライクリーニング店に対応するユーザインタフェースオブジェクト(例えば、ピン)を示す。図6Dでは、図6Cにおけるデバイス100の現在位置608の近傍にある「ドライクリーニング」に関する検索クエリに応じて、ピン614a及び614bによって表されるドライクリーニング店が、ユーザインタフェース602内に表示される。   The first user interface enables selection between multiple selectable objects (e.g., search results corresponding to previously performed search operations) (704). For example, FIG. 6D illustrates a user interface object (eg, a pin) corresponding to the dry cleaner represented by pins 614a and 614b displayed in the user interface 602 of the device 100. In FIG. 6D, the dry cleaner represented by pins 614a and 614b is displayed in the user interface 602 in response to a search query for "dry cleaning" near the current position 608 of the device 100 in FIG. 6C.

第1のユーザインタフェースは、第1のディスプレイと異なる第2のディスプレイ上に表示される第2のユーザインタフェースに対応する。いくつかの実施形態では、第1のユーザインタフェース及び第2のユーザインタフェースは、同じ対応するアプリケーション(例えば、第1の電子デバイス上で実行されているアプリケーション)に対するユーザインタフェースである。デバイス100のタッチスクリーン112上に表示されるユーザインタフェース602(例えば、第1のユーザインタフェース)は、外部情報提供システム540(本明細書では「システム540」と呼ばれることもある)のディスプレイ546−1(例えば、タッチスクリーンディスプレイ)上に表示されるユーザインタフェース604(例えば、第2のユーザインタフェース)に対応する。いくつかの実施形態では、ディスプレイ546−1は、システム540に関連付けられた複数のディスプレイの主要ディスプレイである。いくつかの実施形態では、ディスプレイ546−1は車両のダッシュボード内に実装され、車両の運転者及び/又は同乗者が視覚的にアクセス可能である。   The first user interface corresponds to a second user interface displayed on a second display different from the first display. In some embodiments, the first user interface and the second user interface are user interfaces to the same corresponding application (eg, an application running on the first electronic device). The user interface 602 (eg, the first user interface) displayed on the touch screen 112 of the device 100 is a display 546-1 of the external information providing system 540 (sometimes referred to herein as a "system 540"). It corresponds to a user interface 604 (for example, a second user interface) displayed on the (for example, touch screen display). In some embodiments, display 546-1 is a primary display of a plurality of displays associated with system 540. In some embodiments, display 546-1 is implemented within the dashboard of the vehicle and is visually accessible to the driver and / or passenger of the vehicle.

複数の選択可能なオブジェクトのうちの第1のオブジェクトは、選択されたオブジェクトとして第2のユーザインタフェース内に表示される(例えば、第1のユーザオブジェクトは、第2のユーザインタフェース内において現在選択されているオブジェクトである)。例えば、図6Dは、ユーザインタフェース602内に表示されたピン614aによって表されるドライクリーニング店に対応する情報ボックス613を示す。情報ボックス613は、ピン614aによって表されるドライクリーニング店が所定の基準に基づき自動的に選択されたという事実により、ユーザインタフェース602内に表示される。例えば、図6Dは、デバイス100の現在位置608から、ディスプレイ546−1のユーザインタフェース604内に表示されたピン614aによって表される、自動的に選択されたドライクリーニング店までのルート616を更に示す。   A first object of the plurality of selectable objects is displayed in the second user interface as the selected object (eg, the first user object is currently selected in the second user interface) Object)). For example, FIG. 6D shows an information box 613 corresponding to the dry cleaner represented by the pin 614a displayed in the user interface 602. An information box 613 is displayed in the user interface 602 due to the fact that the dry cleaner represented by the pin 614a has been automatically selected based on predetermined criteria. For example, FIG. 6D further illustrates the route 616 from the current position 608 of the device 100 to the automatically selected dry cleaner represented by the pin 614a displayed in the user interface 604 of the display 546-1. .

いくつかの実施形態では、第1のオブジェクトは、既定のオブジェクト選択基準に基づき、選択されたオブジェクトとして自動的に選択される(例えば、検索を開始し、1つ以上の検索結果のセットを受信した後、最も関連性の高い検索結果に対応する第1のオブジェクトが、ユーザの介在なしに、選択されたオブジェクトとして自動的に選択される)(706)。例えば、図6Dでは、ピン614aによって表されるドライクリーニング店は、近接度、店の評価、レビューの量、ユーザが店を訪れた回数、及び/又は他の要因に基づき自動的に選択される。   In some embodiments, the first object is automatically selected as the selected object based on predetermined object selection criteria (eg, initiate a search and receive one or more sets of search results) After that, the first object corresponding to the most relevant search result is automatically selected as the selected object without user intervention (706). For example, in FIG. 6D, the dry cleaner represented by pin 614a is automatically selected based on proximity, store rating, amount of review, number of times the user has visited the store, and / or other factors. .

いくつかの実施形態では、複数の選択可能なオブジェクトは、検索クエリ(例えば、タイプ入力又は音声による検索クエリ)に応じて生成される複数の検索結果に対応し、選択されたオブジェクトは現在選択されている検索結果に対応する(708)。例えば、図6Dでは、ピン614a及び614bによって表されるドライクリーニング店に対応するユーザインタフェースオブジェクト(例えば、ピン)は、図6Cにおいて検索ボックス609内に入力された検索クエリ「ドライクリーニング」に応じて、デバイス100のユーザインタフェース602内に表示される。いくつかの実施形態では、検索クエリは、タッチスクリーン112のユーザインタフェース602内に表示された仮想キーボードを使用して、検索ボックス609内に手動で入力される。いくつかの他の実施形態では、検索クエリは、デバイス100のユーザからの音声入力を介して、検索クエリボックス609内に音声によって入力される。例えば、図6Dでは、ピン614aによって表されるドライクリーニング店は、ピン614a及び614bによって表されるドライクリーニング店を含む複数の検索結果から自動的に選択される。また、図6Dでは、システム540のユーザインタフェース604は、ユーザデバイス100の現在位置608から、ピン614aによって表される選択されたドライクリーニング店までのルート616を表示する。   In some embodiments, the plurality of selectable objects correspond to a plurality of search results generated in response to a search query (e.g., typing or spoken search query) and the selected object is currently selected Corresponding to the search result (708). For example, in FIG. 6D, a user interface object (eg, a pin) corresponding to the dry cleaner represented by pins 614a and 614b is responsive to the search query “dry clean” entered in search box 609 in FIG. 6C. , Displayed in the user interface 602 of the device 100. In some embodiments, the search query is manually entered into the search box 609 using a virtual keyboard displayed within the user interface 602 of the touch screen 112. In some other embodiments, the search query is voiced into search query box 609 via voice input from the user of device 100. For example, in FIG. 6D, the dry cleaner represented by pin 614a is automatically selected from a plurality of search results including dry cleaners represented by pins 614a and 614b. Also in FIG. 6D, the user interface 604 of the system 540 displays the route 616 from the current position 608 of the user device 100 to the selected dry cleaner represented by the pin 614a.

いくつかの実施形態では、複数の選択可能なオブジェクトは複数の地図位置に対応し、選択されたオブジェクトは現在選択されている目的地に対応する(710)。例えば、図6Dでは、ピン614a及び614bによって表されるドライクリーニング店に対応するユーザインタフェースオブジェクト(例えば、ピン)は、デバイス100の現在位置608に対する地図位置である。また、図6Dでは、システム540のユーザインタフェース604は、ユーザデバイス100の現在位置608から、ピン614aによって表される選択されたドライクリーニング店に対する地図位置までのルート616を表示する。   In some embodiments, the plurality of selectable objects correspond to the plurality of map locations, and the selected objects correspond to the currently selected destination (710). For example, in FIG. 6D, a user interface object (eg, a pin) corresponding to the dry cleaner represented by pins 614a and 614b is a map position relative to the current position 608 of device 100. Also in FIG. 6D, the user interface 604 of the system 540 displays a route 616 from the current position 608 of the user device 100 to the map position for the selected dry cleaner represented by the pin 614a.

いくつかの実施形態では、複数の選択可能なオブジェクトは複数のナビゲーションルートに対応し、選択されたオブジェクトは現在選択されているナビゲーションルートに対応する(712)。例えば、図60は、ユーザデバイス100の現在位置608からピン614a及び614bによって表されるドライクリーニング店までのルート631a及び631bにそれぞれ対応する、「ルート1」アフォーダンス631b及び「ルート2」アフォーダンス632bを含む、複数の選択可能ユーザインタフェースオブジェクトを示す。また、図6Dでは、システム540のユーザインタフェース604は、ユーザデバイス100の現在位置608から、ピン614aによって表される選択されたドライクリーニング店までのユーザインタフェース602内で強調表示されたルート631aに対応するルート616を、表示する。   In some embodiments, the plurality of selectable objects correspond to the plurality of navigation routes, and the selected objects correspond to the currently selected navigation route (712). For example, FIG. 60 shows “route 1” affordance 631 b and “route 2” affordance 632 b corresponding to the routes 631 a and 631 b from the current position 608 of the user device 100 to the dry cleaner represented by pins 614 a and 614 b, respectively. Show multiple selectable user interface objects, including: Also, in FIG. 6D, the user interface 604 of the system 540 corresponds to the highlighted route 631a in the user interface 602 from the current position 608 of the user device 100 to the selected dry cleaner represented by the pin 614a. The route 616 to be displayed is displayed.

いくつかの実施形態では、複数の選択可能なオブジェクトは、デバイスを使用して再生(又は提供)され得る複数のコンテンツアイテムに対応し(例えば、複数の選択可能なオブジェクトは、歌曲、プレイリスト、オーディオブック、ラジオ放送局などである)、選択されたオブジェクトは、現在選択されているコンテンツアイテムに対応する(714)。例えば、歌曲のリスト内のそれぞれの歌曲は、それぞれの歌曲の再生量、アルバム内におけるそれぞれの歌曲の順序位置、最後に再生された歌曲、及び他の要因に少なくとも部分的に基づき、自動的に選択された歌曲として、デバイス100のタッチスクリーン112のユーザインタフェース上に表示される。この実施例では、自動的に選択されたそれぞれの歌曲は、現在再生中であるものとして、ディスプレイ546−1のユーザインタフェース上に表示される。   In some embodiments, the plurality of selectable objects correspond to a plurality of content items that may be played (or provided) using the device (e.g., the plurality of selectable objects may be songs, playlists, The selected object (audiobook, radio station, etc.) corresponds to the currently selected content item (714). For example, each song in the song list is automatically based at least in part on the playback volume of each song, the ordinal position of each song in the album, the last song played, and other factors. The selected song is displayed on the user interface of the touch screen 112 of the device 100. In this example, each automatically selected song is displayed on the user interface of display 546-1 as being currently played.

いくつかの実施形態では、複数の選択可能なオブジェクトは複数のアプリケーションに対応し、選択されたオブジェクトは現在選択されているアプリケーションに対応する(716)。   In some embodiments, the plurality of selectable objects correspond to the plurality of applications, and the selected objects correspond to the currently selected application (716).

いくつかの実施形態では、第2のディスプレイは、第1の電子デバイスと異なる第2の電子デバイスに結合された(例えば、第2の電子デバイスのネイティブGUIに代わる)ディスプレイである(718)。例えば、図6A〜図6Vは、デバイス100と異なる(かつ別個の)システム540(例えば、第2の電子デバイス)に結合されたディスプレイ546−1(例えば、第2のディスプレイ)を示す。   In some embodiments, the second display is a display coupled to a second electronic device different from the first electronic device (eg, replacing the native GUI of the second electronic device) (718). For example, FIGS. 6A-6V illustrate a display 546-1 (eg, a second display) coupled to a system 540 (eg, a second electronic device) that is different (and separate) from the device 100.

いくつかの実施形態では、第2の電子デバイスは、ネイティブグラフィカルユーザインタフェースを有する車両内エンターテイメントシステムを制御し、第2のユーザインタフェースは、第2の電子デバイスのネイティブグラフィカルユーザインタフェースの少なくとも一部の代わりに、第2のディスプレイ上に表示される(例えば、第2のユーザインタフェースは、第1の電子デバイス上で実行されるアプリケーションによって生成され、車両内エンターテイメントシステムのネイティブグラフィカルユーザインタフェースの一部又は全ての代わりに表示される)(720)。例えば、図6A〜図6Vでは、システム540は、ディスプレイ546−1を含む車両内エンターテイメントシステムを制御する。例えば、車両用の気候コントロールを含む、図6Aのユーザインタフェース604は、車両内エンターテイメントシステムのネイティブグラフィカルユーザインタフェースである。例えば、図6B〜図6Vは、図6Aに示されるようなネイティブグラフィカルユーザインタフェース(例えば、気候コントロール)の代わりにディスプレイ546−1上に表示される地図を含む、ユーザインタフェース604を示す。   In some embodiments, the second electronic device controls an in-vehicle entertainment system having a native graphical user interface, and the second user interface is at least a portion of the native graphical user interface of the second electronic device. Instead, it is displayed on the second display (e.g. the second user interface is generated by an application running on the first electronic device and is part of the in-vehicle entertainment system's native graphical user interface or Displayed in place of all) (720). For example, in FIGS. 6A-6V, system 540 controls an in-vehicle entertainment system that includes display 546-1. For example, the user interface 604 of FIG. 6A, which includes climate control for a vehicle, is the native graphical user interface of the in-vehicle entertainment system. For example, FIGS. 6B-6V illustrate a user interface 604 that includes a map displayed on display 546-1 instead of the native graphical user interface (eg, climate control) as shown in FIG. 6A.

いくつかの実施形態では、第1の電子デバイスは、車両内エンターテイメントシステムのコントロールからのそれぞれの入力(例えば、第2のディスプレイに関連付けられたタッチ感知面上のタップ又はスワイプジェスチャ、第2のディスプレイに関連付けられたボタンに対するボタン押圧動作、及び/又は第2のディスプレイに関連付けられたノブに対するノブ回転動作)に対応する情報を受信する(722)。例えば、図6Uは、システム540が、ディスプレイ546−1のユーザインタフェース604内の「指示開始」アフォーダンス618上でのユーザタッチ入力672を検出することを示す。この実施例では、システム540は、ディスプレイ546−1のユーザインタフェース604内の「指示開始」アフォーダンス672上でのユーザタッチ入力672が検出されたことを示す情報をデバイス100に送信する。   In some embodiments, the first electronic device receives the respective input from the control of the in-vehicle entertainment system (eg, a tap or swipe gesture on a touch sensitive surface associated with the second display, the second display Information corresponding to the button pressing operation on the button associated with the and / or the knob rotating operation on the knob associated with the second display) is received (722). For example, FIG. 6U illustrates that system 540 detects user touch input 672 on “Start Indication” affordance 618 in user interface 604 of display 546-1. In this example, system 540 sends information to device 100 indicating that user touch input 672 on “Start Indication” affordance 672 in user interface 604 of display 546-1 has been detected.

いくつかの実施形態では、それぞれの入力に対応する情報を受信したことに応じて、第1の電子デバイスは、第1のユーザインタフェース及び第2のユーザインタフェースを、それぞれの入力に従って更新する(724)。例えば、図6Vは、デバイス100が、ターンバイターン指示ボックス673をタッチスクリーン112上に表示するようにユーザインタフェース602を更新し、かつターンバイターンモードをディスプレイ546−1上に表示するようにユーザインタフェース604を更新することを示す。いくつかの実施形態では、ユーザインタフェース604がターンバイターンモードの間、ディスプレイ546−1上に表示される地図は、ユーザインタフェース604がターンバイターンモードでないときよりも、更にズームインされる。   In some embodiments, in response to receiving information corresponding to each input, the first electronic device updates the first user interface and the second user interface according to the respective input (724) ). For example, FIG. 6V shows the device 100 updating the user interface 602 to display the turn-by-turn indication box 673 on the touch screen 112 and the user to display the turn-by-turn mode on the display 546-1. It shows that the interface 604 is updated. In some embodiments, while the user interface 604 is in turn-by-turn mode, the map displayed on the display 546-1 is zoomed in further than when the user interface 604 is not in turn-by-turn mode.

いくつかの実施形態では、第1のユーザインタフェース及び第2のユーザインタフェースの両方が、第1の電子デバイス上で実行される同じアプリケーションによって生成される(例えば、スマートフォン上で実行されるアプリケーションが、電話用のユーザインタフェース、及び車両の車両内エンターテイメントシステムのディスプレイ上に表示するためのユーザインタフェースを生成する)(726)。例えば、図6Aは、ユーザインタフェース602内の地図アプリケーション436を選択するユーザタッチ入力606を示す。例えば、図6B〜図6Vは、デバイス100上で実行され、タッチスクリーン112上のユーザインタフェース602(例えば、第1のユーザインタフェース)及びディスプレイ546−1上のユーザインタフェース604(例えば、第2のユーザインタフェース)の両方を生成する地図アプリケーション436を示す。   In some embodiments, both the first user interface and the second user interface are generated by the same application running on the first electronic device (eg, the application running on the smartphone is Generate (726) a user interface for the phone and a user interface for display on the display of the in-vehicle entertainment system of the vehicle. For example, FIG. 6A shows user touch input 606 selecting map application 436 in user interface 602. For example, FIGS. 6B-6V are implemented on device 100 and include user interface 602 (eg, a first user interface) on touch screen 112 and user interface 604 (eg, a second user) on display 546-1. A map application 436 is shown that generates both interfaces).

第1のオブジェクトが選択されたオブジェクトとして第2のユーザインタフェース内に表示されている間(728)、第1の電子デバイスは、複数の選択可能なオブジェクトのうちの第2のオブジェクトに関する情報を第1のユーザインタフェース内に(例えば、第2のオブジェクトを選択されたオブジェクトとして選択することなく)表示するための要求に対応する、ユーザからの第1の入力(例えば、第1の電子デバイスの第1のタッチ感知面上のタップ又はスワイプジェスチャ)を検出する(730)。例えば、図6Lは、デバイス100が、ユーザインタフェース602内に表示された、ピン614a、614b、614c、614e、及び614fによって表されるドライクリーニング店を含む地図上で、ピン614bによって表されるドライクリーニング店に対応するユーザインタフェースオブジェクト(例えば、ピン)上でのユーザタッチ入力643を検出することを示す。例えば、図6Lは、ユーザシステム540が、マーカー636からピン614aによって表されるドライクリーニング店までのルート616を含むターンバイターン指示モードを、ディスプレイ546−1のユーザインタフェース604内に表示している一方で、デバイス100がユーザタッチ入力643を検出することを示す。   While the first object is displayed in the second user interface as the selected object (728), the first electronic device can generate information about the second one of the plurality of selectable objects. A first input from a user (e.g., the first of the first electronic devices) corresponding to a request to display in one of the user interfaces (e.g., without selecting the second object as the selected object) A tap or swipe gesture on one touch sensitive surface is detected (730). For example, FIG. 6L shows that the device 100 is dry represented by pin 614b on a map including dry cleaners represented by pins 614a, 614b, 614c, 614e, and 614f displayed in the user interface 602. 15 illustrates detecting a user touch input 643 on a user interface object (eg, a pin) corresponding to a cleaner. For example, FIG. 6L displays in the user interface 604 of the display 546-1 a turn-by-turn instruction mode that the user system 540 includes a route 616 from the marker 636 to the dry cleaner represented by the pin 614a. On the other hand, it shows that the device 100 detects the user touch input 643.

第1のオブジェクトが選択されたオブジェクトとして第2のユーザインタフェース内に表示されている間(728)、第1の入力を検出したことに応じて、第1の電子デバイスは、第2のユーザインタフェース内への第1のオブジェクトの選択されたオブジェクトとしての表示を維持しながら、第1の入力に従って、第2のオブジェクトに関する対応する情報を表示するように、第1のディスプレイ上の第1のユーザインタフェースを更新する(732)。例えば、図6Mは、デバイス100が、図6Lにおいて、ピン614bによって表されるドライクリーニング店に対応するユーザインタフェースオブジェクト(例えば、ピン)上でのユーザタッチ入力643を検出したことに応じて、ピン614bによって表されるドライクリーニング店に対応する情報ボックス644を表示するように、ユーザインタフェース602を更新することを示す。図6Mにおいてユーザインタフェース602が更新されている間、ユーザインタフェース604は、図6Lにおいてユーザタッチ入力643を検出する前に示されたように、図6Mのディスプレイ546−1上で維持される。   In response to detecting the first input while the first object is displayed in the second user interface as the selected object (728), the first electronic device receives the second user interface A first user on the first display to display corresponding information about the second object according to the first input, while maintaining the display of the first object therein as the selected object Update the interface (732). For example, FIG. 6M shows that device 100 has detected a user touch input 643 on a user interface object (eg, a pin) corresponding to the dry cleaner represented by pin 614b in FIG. 6L. The user interface 602 may be updated to display an information box 644 corresponding to the dry cleaner represented by 614 b. While the user interface 602 is being updated in FIG. 6M, the user interface 604 is maintained on the display 546-1 of FIG. 6M as shown prior to detecting the user touch input 643 in FIG. 6L.

いくつかの実施形態では、第1の入力を検出したことに応じて、第2のオブジェクトに関する対応する情報を第2のユーザインタフェース内に表示するように、第2のディスプレイ上の第2のユーザインタフェースを更新することを可能にする情報を第2のディスプレイに提供することなく、第1のユーザインタフェースが更新される(例えば、第1の電子デバイスは、第1の入力に応じて、対応する情報を第2の電子デバイス又は第2のディスプレイに送信しない)(734)。例えば、図6Mは、デバイス100が、図6Lにおいてユーザタッチ入力643を検出したことに応じて、ディスプレイ546−1上のユーザインタフェース604を更新することを可能にする情報をディスプレイ546−1(又はシステム540)に提供することなく、タッチスクリーン112上のユーザインタフェース602を更新することを示す。図6Mにおいてユーザインタフェース602が更新されている間、ユーザインタフェース604は、図6Lにおいてユーザタッチ入力643を検出する前に示されたように、図6Mのディスプレイ546−1上で維持される。   In some embodiments, a second user on the second display to display corresponding information regarding the second object in the second user interface in response to detecting the first input. The first user interface is updated without providing information to the second display that allows the interface to be updated (e.g. the first electronic device responds in response to the first input) Do not send information to the second electronic device or the second display) (734). For example, FIG. 6M shows information 546-1 (or information that allows device 100 to update user interface 604 on display 546-1 in response to detecting user touch input 643 in FIG. 6L). 14 illustrates updating the user interface 602 on the touch screen 112 without providing to the system 540). While the user interface 602 is being updated in FIG. 6M, the user interface 604 is maintained on the display 546-1 of FIG. 6M as shown prior to detecting the user touch input 643 in FIG. 6L.

いくつかの実施形態では、第2のユーザインタフェース内への第1のオブジェクトの選択されたオブジェクトとしての表示を維持しながら、第2のオブジェクトに関する対応する情報を表示するように、第1の入力に従って第1のディスプレイ上の第1のユーザインタフェースを更新することは、第2のユーザインタフェース全体を、第1の入力を検出する直前に表示されたように第2のディスプレイ上で維持しながら、第2のオブジェクトに関する対応する情報を表示するように、第1の入力に従って第1のディスプレイ上の第1のユーザインタフェースを更新することを含む(例えば、第2のユーザインタフェースは、第1の更新に応じて更新されない)(736)。例えば、図6Mは、デバイス100が、図6Lにおいてユーザタッチ入力643を検出したことに応じて、ピン614bによって表されるドライクリーニング店に対応する情報ボックス644を表示するように、タッチスクリーン112上のユーザインタフェース602を更新することを示す。図6Mにおいてユーザインタフェース602が更新されている間、ユーザインタフェース604は、図6Lにおいてユーザタッチ入力643を検出する前に示されたように、図6Mのディスプレイ546−1上で維持される。   In some embodiments, the first input is to display corresponding information about the second object while maintaining the display of the first object in the second user interface as the selected object. Updating the first user interface on the first display according to the while maintaining the entire second user interface on the second display as it was displayed immediately before detecting the first input, Updating the first user interface on the first display according to the first input to display corresponding information regarding the second object (e.g., the second user interface updates the first Not updated according to) (736). For example, FIG. 6M displays on touch screen 112 such that device 100 displays information box 644 corresponding to the dry cleaner store represented by pin 614 b in response to detecting user touch input 643 in FIG. 6L. To update the user interface 602 of While the user interface 602 is being updated in FIG. 6M, the user interface 604 is maintained on the display 546-1 of FIG. 6M as shown prior to detecting the user touch input 643 in FIG. 6L.

第1のオブジェクトが選択されたオブジェクトとして第2のユーザインタフェース内に表示されている間(728)、第1の入力に従って第1のユーザインタフェースを更新した後、第1の電子デバイスは、第2のオブジェクトを選択されたオブジェクトとして選択するための要求に対応する、ユーザからの第2の入力を検出する(738)。例えば、図6Qは、デバイス100が、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までのルート659aに対するターンバイターン指示を表示するための要求に対応する、ユーザタッチ入力661を検出することを示す。   After updating the first user interface according to the first input while the first object is displayed in the second user interface as the selected object (728), the first electronic device is configured to: A second input from the user is detected 738 corresponding to the request to select the object of s as the selected object. For example, FIG. 6Q shows the request for the device 100 to display a turn-by-turn indication for the route 659a from the current position 608 of the device 100 to the dry cleaner represented by the pin 614b (eg, Mary Ann's Cleaners). To indicate that the user touch input 661 is to be detected.

第2の入力を検出したことに応じて(740)、第1の電子デバイスは、第2の入力に従って、第2のオブジェクトを選択されたオブジェクトとして表示するように、第1のディスプレイ上の第1のユーザインタフェースを更新する(742)。例えば、図6Rは、デバイス100が、図6Qにおいてユーザタッチ入力661を検出したことに応じて、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までのターンバイターン指示ボックス662を表示するように、ユーザインタフェース602を更新することを示す。   In response to detecting the second input (740), the first electronic device displays a second object on the first display such that the second object is displayed as the selected object according to the second input. Update 1 the user interface (742). For example, FIG. 6R shows that the device 100 detects the user touch input 661 in FIG. 6Q, the dry cleaner represented by the pin 614b from the current position 608 of the device 100 (eg, Mary Ann's Cleaners) It is shown that the user interface 602 is updated to display the turn-by-turn instruction box 662.

第2の入力を検出したことに応じて(740)、第1の電子デバイスは、第2のオブジェクトを選択されたオブジェクトとして第1のオブジェクトの代わりに表示するように、第2のディスプレイ上の第2のユーザインタフェースを更新することを可能にする情報を第2のディスプレイに提供する(744)。図6Qにおいてユーザタッチ入力661を検出したことに応じて、デバイス100は、システム540がディスプレイ546−1上のユーザインタフェース604を更新することを可能にするための情報を、システム540に送信する。例えば、図6Rは、デバイス100の現在位置を示すマーカー664、ピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までのルート659a、及びルート659a上におけるユーザの第1の方向(又は進路変更点)を示すターンバイターン指示ボックス663を含む、ターンバイターン指示モード(例えば、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店まで)がディスプレイ546−1のユーザインタフェース604内に表示される、更新されたユーザインタフェース604を示す。   In response to detecting the second input (740), the first electronic device causes the second object to be displayed on behalf of the first object as the selected object, on the second display. Information is provided 744 to the second display that enables the second user interface to be updated. In response to detecting user touch input 661 in FIG. 6Q, device 100 sends information to system 540 to enable system 540 to update user interface 604 on display 546-1. For example, FIG. 6R shows a marker 664 indicating the current position of the device 100, a route 659a to a dry cleaner (eg, Mary Ann's Cleaners) represented by the pin 614b, and a first direction of the user on the route 659a The user of display 546-1 is a turn-by-turn instruction mode (eg, from the current position 608 of device 100 to the dry cleaner represented by pin 614b) including a turn-by-turn instruction box 663 indicating (or a turn change point) The updated user interface 604 is shown displayed within the interface 604.

いくつかの実施形態では、第2のオブジェクトを選択されたオブジェクトとして第1のオブジェクトの代わりに表示するように、第2のディスプレイ上の第2のユーザインタフェースを更新することを可能にする情報を提供した後(746)、第1の電子デバイスは、ディスプレイ同期モードに入る(例えば、プレイリスト再生モード又は運転方向モードに入る)(748)。例えば、図6Rは、デバイス100が、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店までのターンバイターン指示ボックス662を、タッチスクリーン112のユーザインタフェース602内に表示する(例えば、ディスプレイ同期モード)ことを示す。いくつかの実施形態では、ディスプレイ同期モードの間(750)、第1の電子デバイスは、第1のユーザインタフェースを、時間の経過と共に定期的に更新する(例えば、第1の電子デバイスがプレイリスト内の一連の歌曲全体を再生するにしたがって、表示されるカバーアートを更新するか、又はナビゲーションルートに沿って移動する車両の進行状況を示すように、表示される地図を更新する)(752)。例えば、デバイス100が、図6Rに示されるようにターンバイターン指示ボックス662を表示している間、デバイス100は、デバイス100が目的地(例えば、Mary Ann's Cleanersに対応するピン614bによって表されるドライクリーニング店)に近付くにしたがって、ルート659a上における更新された次の方向(又は進路変更点)、並びに更新された残り距離及び残り時間をターンバイターン指示ボックス662内に示すように、ユーザインタフェース602を定期的に更新する。いくつかの実施形態では、ディスプレイ同期モードの間(750)、第1の電子デバイスは、第1のユーザインタフェースが時間の経過と共に更新されるにしたがって、第2のディスプレイ上の第2のユーザインタフェースを第1のユーザインタフェースと同期させることを可能にする情報を提供する(例えば、第1の電子デバイスがプレイリスト全体を再生するか、又は車両がナビゲーションルートに沿って移動するにしたがって、更新されたカバーアート又は地図画像を提供する)(754)。例えば、デバイス100が、図6Rに示されるようにターンバイターン指示ボックス662を表示している間、デバイス100は、デバイス100が目的地(例えば、Mary Ann's Cleanersに対応するピン614bによって表されるドライクリーニング店)に近付くにしたがって、ターンバイターン指示ボックス663内の、ルート659a上における更新された次の方向(又は進路変更点)、更新された残り距離及び残り時間、並びにマーカー664(例えば、デバイス100の現在位置)を含む、更新されたユーザインタフェース604を、システム540が表示することを可能にする情報を、システム540に提供する。   In some embodiments, information enabling the second user interface on the second display to be updated to display the second object as a selected object instead of the first object After providing (746), the first electronic device enters display sync mode (eg, enters playlist play mode or driving direction mode) (748). For example, FIG. 6R displays in the user interface 602 of the touch screen 112 a turn-by-turn indication box 662 from the current position 608 of the device 100 to the dry cleaner represented by the pin 614b (eg, Display sync mode). In some embodiments, during display synchronization mode (750), the first electronic device periodically updates the first user interface over time (eg, the first electronic device is a playlist) Update the displayed cover art as you play the entire series of songs within, or update the displayed map to show the progress of the vehicle moving along the navigation route) (752) . For example, while the device 100 is displaying the turn-by-turn indication box 662 as shown in FIG. 6R, the device 100 may display a table 614b corresponding to the destination (eg, Mary Ann's Cleaners). As the updated next direction (or course change point) on route 659a, and the updated remaining distance and time are shown in the turn-by-turn instruction box 662, The user interface 602 is periodically updated. In some embodiments, during display synchronization mode (750), the first electronic device is configured to display the second user interface on the second display as the first user interface is updated over time. Provide information that allows the user to synchronize with the first user interface (eg, updated as the first electronic device plays the entire playlist, or as the vehicle travels along the navigation route) Provide cover art or map images) (754). For example, while the device 100 is displaying the turn-by-turn indication box 662 as shown in FIG. 6R, the device 100 may display a table 614b corresponding to the destination (eg, Mary Ann's Cleaners). As the dry cleaner shop is approached, the updated next direction (or turning point) on route 659a, the updated remaining distance and time, and the marker 664 (turn-by-turn instruction box 663) For example, information is provided to system 540 that enables system 540 to display updated user interface 604, including the current location of device 100).

いくつかの実施形態では、第1の入力を検出する前に、第1のユーザインタフェースは第2のユーザインタフェースと同期させられ(例えば、第1のオブジェクトが、選択されたオブジェクトとして第1のユーザインタフェース内及び第2のユーザインタフェース内の両方に表示される)、第1の入力に応じた後であり、かつ第2の入力を検出する前に、第1のユーザインタフェースは第2のユーザインタフェースと同期させられず(例えば、第2のオブジェクトが、選択されたオブジェクトとして第1のユーザインタフェース内に表示され、それと同時に、第2のオブジェクトが、選択されたオブジェクトとして第2のユーザインタフェース内に表示されたままになる)、第2の入力に応じた後、第1のユーザインタフェースは、第2のユーザインタフェースと同期させられる(例えば、第2のオブジェクトが、選択されたオブジェクトとして第1のユーザインタフェース内及び第2のユーザインタフェース内の両方に表示される)(756)。   In some embodiments, prior to detecting the first input, the first user interface is synchronized with the second user interface (e.g., the first object as the selected object). After being responsive to the first input and displayed in both the interface and in the second user interface, and prior to detecting the second input, the first user interface is the second user interface Not synchronized (eg, the second object is displayed in the first user interface as a selected object, and at the same time the second object is displayed in the second user interface as the selected object). After responding to the second input (which remains displayed), the first user interface It is synchronized with The interface (e.g., a second object is displayed in both in the first user interface as the selected object and the second user interface) (756).

図6Hでは、第1のユーザインタフェース602及び第2のユーザインタフェース604は同期させられる。例えば、図6Hは、デバイス100の現在位置608からピン614aによって表されるドライクリーニング店(例えば、選択された第1のオブジェクト)までのルート631a上におけるユーザの第1の方向(又は進路変更点)、及び選択された第1のオブジェクト又は目的地の名前(例えば、ABC Cleaners)を示す、ターンバイターン指示ボックス634を表示する、タッチスクリーン112上のユーザインタフェース602を示す。例えば、図6Hは、デバイス100の現在位置608からピン614aによって表されるドライクリーニング店(例えば、第1の選択されたオブジェクト)までのルート616を使用したターンバイターン指示モードを表示する、ディスプレイ546−1上のユーザインタフェース604も示す。   In FIG. 6H, the first user interface 602 and the second user interface 604 are synchronized. For example, FIG. 6H illustrates a user's first direction (or turn around point) on route 631a from current position 608 of device 100 to a dry cleaner (eg, a selected first object) represented by pin 614a. And a user interface 602 on the touch screen 112 displaying a turn-by-turn instruction box 634 indicating the name of the selected first object or destination (e.g. ABC Cleaners). For example, FIG. 6H displays a turn-by-turn instruction mode using route 616 from current position 608 of device 100 to a dry cleaner (eg, a first selected object) represented by pin 614a. Also shown is the user interface 604 on 546-1.

図6Mでは、第1のユーザインタフェース602及び第2のユーザインタフェース604は同期させられない。例えば、図6Mは、ピン614bによって表されるドライクリーニング店(例えば、選択された第2のオブジェクト)に対応する情報ボックス644を表示する、タッチスクリーン112上のユーザインタフェース602を示す。例えば、図6Mは、デバイス100の現在位置608からピン614aによって表されるドライクリーニング店(例えば、選択された第1のオブジェクト)までのルート616を表示する、ディスプレイ546−1上のユーザインタフェース604も示す。   In FIG. 6M, the first user interface 602 and the second user interface 604 are not synchronized. For example, FIG. 6M shows a user interface 602 on touch screen 112 displaying an information box 644 corresponding to the dry cleaner store (eg, the selected second object) represented by pin 614b. For example, FIG. 6M shows a user interface 604 on display 546-1 displaying a route 616 from the current position 608 of the device 100 to the dry cleaner (eg, the selected first object) represented by the pin 614a. Also show.

図6Rでは、第1のユーザインタフェース602及び第2のユーザインタフェース604は同期させられる。例えば、図6Rは、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店(例えば、選択された第2のオブジェクト)までのルート659a上におけるユーザの第1の方向(又は進路変更点)、及び選択された第2のオブジェクト又は目的地の名前(例えば、Mary Ann's Cleaners)を示す、ターンバイターン指示ボックス662を表示する、タッチスクリーン112上のユーザインタフェース602を示す。例えば、図6Rは、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店(例えば、選択された第2のオブジェクト)までのルート659aを使用したターンバイターン指示モードを表示する、ディスプレイ546−1上のユーザインタフェース604も示す。   In FIG. 6R, the first user interface 602 and the second user interface 604 are synchronized. For example, FIG. 6R illustrates a user's first direction (or turnaround point) on route 659a from current position 608 of device 100 to a dry cleaner (eg, selected second object) represented by pin 614b. And a user interface 602 on the touch screen 112 displaying a turn-by-turn instruction box 662 indicating the name of the selected second object or destination (e.g., Mary Ann's Cleaners). For example, FIG. 6R displays a turn-by-turn instruction mode using route 659a from current position 608 of device 100 to a dry cleaner (eg, a selected second object) represented by pins 614b. Also shown is the user interface 604 on 546-1.

したがって、上述のように、タッチスクリーンディスプレイ112及びディスプレイ546−1上に表示されたユーザインタフェースは、断続的に同期させられる。タッチスクリーンディスプレイ112及びディスプレイ546−1上に表示されたユーザインタフェースを断続的に同期させることは、運転者から見えるディスプレイ(例えば、ディスプレイ546−1)上に表示されたユーザインタフェースを、同乗者の操作に応じて常に更新することなく、車両内の同乗者がタッチスクリーンディスプレイ112上に表示された情報を閲覧すること(例えば、連絡先情報、レビュー、説明などを含む、異なる目的地候補を調べること)を可能にする。ただし、同乗者が、タッチスクリーンディスプレイ112上に表示されたユーザインタフェース内において操作を確定(例えば、目的地を選択)したら、ディスプレイ上のユーザインタフェースは同期させられ、それによって、運転者が選択された目的地まで運転し、かつユーザが、選択された目的地までの移動を支援することができる。る。同様に、運転者が、運転者から見えるディスプレイ(例えば、ディスプレイ546−1)上に表示されたユーザインタフェース内の目的地を選択した場合、タッチスクリーンディスプレイ112上に表示されたユーザインタフェースは、同乗者が、運転者が選択された目的地まで移動するのを支援することができるように、運転者の選択を反映するように更新される。上述のユーザインタフェースの断続的な同期は、2つのディスプレイ上に表示されたユーザインタフェースが、連続的に同期させられる状況に対する改善である(例えば、運転者に対して表示される情報を繰り返し変更せずに、同乗者が追加情報を見ることができるため)。更に、上述のユーザインタフェースの断続的な同期は、2つのディスプレイ上に表示されたユーザインタフェースが、決して同期させられない状況に対する改善でもある(例えば、同乗者が、デバイス100上で住所を検索した後、自動車ナビゲーションシステム内の目的地の住所を更新するという追加手順を実行する必要がないため)。   Thus, as described above, the touch screen display 112 and the user interface displayed on the display 546-1 are intermittently synchronized. Intermittently synchronizing the touch screen display 112 and the user interface displayed on the display 546-1 may be performed by the user interface displayed on the display (eg, the display 546-1) seen by the driver. The passenger in the vehicle browses the information displayed on the touch screen display 112 without constantly updating according to the operation (for example, examines different destination candidates including contact information, reviews, explanations, etc. Make it possible). However, if the passenger determines the operation (eg, select a destination) within the user interface displayed on the touch screen display 112, the user interface on the display is synchronized, thereby selecting the driver. The user can drive to the destination and assist the user to move to the selected destination. Ru. Similarly, if the driver selects a destination in the user interface displayed on the display (eg, display 546-1) viewed by the driver, the user interface displayed on the touch screen display 112 Are updated to reflect the driver's choice so that the driver can assist the driver in moving to the selected destination. The intermittent synchronization of the user interface described above is an improvement over the situation in which the user interface displayed on the two displays is continuously synchronized (e.g. repeatedly changing the information displayed to the driver) Without allowing the passenger to see additional information). Furthermore, the intermittent synchronization of the user interface described above is also an improvement over the situation where the user interface displayed on the two displays is never synchronized (e.g. the passenger has retrieved an address on the device 100) Later, because there is no need to perform the additional step of updating the destination address in the car navigation system).

図7A〜図7Dにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者には、本明細書で説明される動作を再順序付けするための、様々な方法が認識されるであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法800及び900)は、また、図7A〜図7Dに関連して上述されている方法700に類似の方法で適用可能であることを留意されたい。例えば、方法700に関連して上述されている接触、ジェスチャ、ユーザインタフェースオブジェクトは、本明細書で説明されている他の方法に関連して本明細書で説明されている接触、ジェスチャ、ユーザインタフェースオブジェクト(例えば、方法800及び900)の特性のうちの1つ以上を、任意選択的に、有する。簡潔性のために、これらの詳細は、ここでは繰り返されない。   The particular order described for the operations in FIGS. 7A-7D is exemplary only, and the order described is not intended to indicate that it is the only order in which the operations can be performed. I want you to understand. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, other process details described herein (e.g., methods 800 and 900) with respect to the other methods described herein are also described above in connection with FIGS. 7A-7D. It should be noted that the method 700 can be applied in a similar manner. For example, the contacts, gestures, user interface objects described above in connection with method 700 may be the contacts, gestures, user interface described herein in connection with other methods described herein. Optionally, one or more of the properties of the object (e.g., methods 800 and 900) are included. For the sake of brevity, these details are not repeated here.

図8A〜図8Bは、いくつかの実施形態に係る、2つ以上のディスプレイを同期させる方法800を示す流れ図である。方法800は、車両の車両ディスプレイと通信するポータブル電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)において実行される。ポータブル電子デバイスは、ポータブルデバイスディスプレイ及びタッチ感知面を備える。いくつかの実施形態では、ポータブルデバイスディスプレイは、タッチスクリーンディスプレイであり、タッチ感知面は、ポータブルデバイス上にある。いくつかの実施形態では、ポータブルデバイスはタッチ感知面から分離している。方法800におけるいくつかの動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、任意選択的に、変更される。   8A-8B are flow diagrams illustrating a method 800 for synchronizing two or more displays in accordance with some embodiments. The method 800 is implemented at a portable electronic device (eg, the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A) in communication with a vehicle display of a vehicle. The portable electronic device comprises a portable device display and a touch sensitive surface. In some embodiments, the portable device display is a touch screen display and the touch sensitive surface is on the portable device. In some embodiments, the portable device is separate from the touch sensitive surface. Some operations in method 800 are optionally combined and / or the order of some operations is optionally changed.

後述するように、方法800は、2つ以上のディスプレイを同期させる直感的な方法を提供する。この方法は、2つ以上のディスプレイを使用するときのユーザの認知負担を軽減し、それによって、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作電子デバイスに関しては、ユーザが、より速く、より効率的に、2つ以上のディスプレイを同期させることが可能となることにより、電力が節約され、バッテリを充電する間隔が増大する。   As described below, the method 800 provides an intuitive way to synchronize two or more displays. This method reduces the user's cognitive burden when using more than one display, thereby creating a more efficient human-machine interface. With respect to battery operated electronic devices, by allowing the user to synchronize two or more displays faster and more efficiently, power is saved and the interval for charging the battery is increased.

ポータブル電子デバイスは、複数の目的地候補を含む地図検索結果のセットを取得する(802)。例えば、図6Cは、タッチスクリーン112のユーザインタフェース602内の検索ボックス609に表示されたユーザ検索クエリ(例えば、ドライクリーニング)を示す。検索クエリに応じて、デバイス100は、デバイス100に固有のメモリ、デバイス100の外部のメモリ、インターネット、又はこれらの組み合わせを検索することによって、複数の目的地候補を含む地図検索結果のセットを取得する。   The portable electronic device obtains (802) a set of map search results including a plurality of potential destinations. For example, FIG. 6C illustrates a user search query (eg, dry cleaning) displayed in search box 609 in user interface 602 of touch screen 112. In response to the search query, device 100 obtains a set of map search results including multiple potential destinations by searching memory unique to device 100, memory external to device 100, the Internet, or a combination thereof. Do.

ポータブル電子デバイスは、ポータブルデバイスナビゲーションインタフェースをポータブルデバイスディスプレイ上に表示し、ポータブルデバイスナビゲーションインタフェースは、複数の目的地候補(例えば、以前に実行した検索動作に対応する検索結果)からの目的地の選択を可能にする(804)。例えば、図6Dは、図6Cにおいてタッチスクリーン112上に表示された検索クエリボックス609内に入力された検索クエリ「ドライクリーニング」に対応するポータブルデバイスナビゲーションインタフェース(例えば、ユーザインタフェース602)を示す。図6Dでは、ユーザインタフェース602は、デバイス100の現在位置608の近傍にあるピン614a及び614bによって表されるドライクリーニング店に対応する、選択可能なユーザインタフェースオブジェクト(例えば、ピン)又はアフォーダンスを含む。   The portable electronic device displays a portable device navigation interface on the portable device display, and the portable device navigation interface selects a destination from a plurality of potential destinations (e.g., search results corresponding to previously performed search operations) Enable (804). For example, FIG. 6D illustrates a portable device navigation interface (e.g., user interface 602) corresponding to the search query "dry clean" entered in the search query box 609 displayed on the touch screen 112 in FIG. 6C. In FIG. 6D, the user interface 602 includes selectable user interface objects (eg, pins) or affordances corresponding to the dry cleaners represented by pins 614a and 614b near the current position 608 of the device 100.

ポータブル電子デバイスは、車両ディスプレイが車両ナビゲーションインタフェースを表示することを可能にする情報を車両ディスプレイに送信し、複数の目的地候補のうちの第1の目的地は、車両ナビゲーションインタフェース内の選択された目的地である(806)。例えば、図6Dは、システム540のディスプレイ546−1上に表示された車両ナビゲーションインタフェース(例えば、ユーザインタフェース604)を示す。図6Dでは、ピン614aによって表されるドライクリーニング店(例えば、ABC Cleaners)が、選択された目的地としてディスプレイ546−1のユーザインタフェース604内に表示され、デバイス100の現在位置608からピン614aによって表されるドライクリーニング店までのルート616も、ディスプレイ546−1のユーザインタフェース604内に表示される。いくつかの実施形態では、ディスプレイ546−1はタッチスクリーンディスプレイである。いくつかの実施形態では、ディスプレイ546−1は、システム540に関連付けられた複数のディスプレイの主要ディスプレイである。いくつかの実施形態では、ディスプレイ546−1は車両のダッシュボード内に実装され、車両の運転者及び/又は同乗者が視覚的にアクセス可能である。   The portable electronic device transmits information to the vehicle display enabling the vehicle display to display the vehicle navigation interface, wherein a first destination of the plurality of possible destinations is selected in the vehicle navigation interface It is a destination (806). For example, FIG. 6D shows a vehicle navigation interface (eg, user interface 604) displayed on display 546-1 of system 540. In FIG. 6D, the dry cleaners represented by pins 614a (eg, ABC Cleaners) are displayed in the user interface 604 of the display 546-1 as the selected destination, from the current position 608 of the device 100 to the pins 614a. The route 616 to the dry cleaners represented is also displayed in the user interface 604 of the display 546-1. In some embodiments, display 546-1 is a touch screen display. In some embodiments, display 546-1 is a primary display of a plurality of displays associated with system 540. In some embodiments, display 546-1 is implemented within the dashboard of the vehicle and is visually accessible to the driver and / or passenger of the vehicle.

第1の目的地が選択された目的地として車両ナビゲーションインタフェース内に表示されている間(808)に、ポータブル電子デバイスは、第1の目的地と異なる複数の目的地候補のうちの1つ以上の目的地候補に関する情報を(例えば、第2のオブジェクトを選択されたオブジェクトとして選択することなく)表示するための要求に対応する、ユーザからの第1の入力(例えば、第1の電子デバイスのタッチ感知面上のタップ又はスワイプジェスチャ)を検出する(810)。例えば、図6Lは、デバイス100が、ユーザインタフェース602内に表示される地図上で、ピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)に対応するユーザインタフェースオブジェクト(例えば、ピン)上でのユーザタッチ入力643を検出することを示す。図6Lでは、ユーザインタフェース内に表示される地図は、ピン614a、614b、614c、614e、及び614fによって表されるドライクリーニング店を含む。例えば、図6Lでは、ピン614aによって表されるドライクリーニング店(例えば、ABC Cleaners)が、選択された目的地としてディスプレイ546−1のユーザインタフェース604内に表示される。   While the first destination is being displayed in the vehicle navigation interface as the selected destination (808), the portable electronic device is configured to select one or more of a plurality of possible destination destinations different from the first destination. A first input from a user (e.g., of the first electronic device) corresponding to a request to display information relating to a candidate of the destination (e.g. without selecting the second object as the selected object) A tap or swipe gesture on the touch sensitive surface is detected 810. For example, FIG. 6L illustrates a user interface object (e.g., a pin corresponding to a dry cleaner (e.g., Mary Ann's Cleaners) represented by pin 614b on a map where device 100 is displayed in user interface 602). ) To detect the user touch input 643 above. In FIG. 6L, the maps displayed in the user interface include the dry cleaners represented by pins 614a, 614b, 614c, 614e, and 614f. For example, in FIG. 6L, dry cleaners (eg, ABC Cleaners) represented by pins 614a are displayed in the user interface 604 of the display 546-1 as the selected destination.

第1の目的地が車両ナビゲーションインタフェース内の選択された目的地である間(808)に、第1の入力を検出したことに応じて、ポータブル電子デバイスは、車両ディスプレイ上の車両ナビゲーションインタフェースを更新することなく、第1の入力に従って、ポータブルデバイスディスプレイ上のポータブルデバイスナビゲーションインタフェースを更新する(812)。例えば、図6Mは、デバイス100が、図6Lにおいて、ピン614bによって表されるドライクリーニング店に対応するユーザインタフェースオブジェクト(例えば、ピン)上でのユーザタッチ入力643を検出したことに応じて、ピン614bによって表されるドライクリーニング店に対応する情報ボックス644を表示するように、ユーザインタフェース602を更新することを示す。図6Mでは、ディスプレイ546−1上のユーザインタフェース604を更新することを可能にする情報をディスプレイ546−1(又はシステム540)に提供することなく、ユーザインタフェース602は更新される。例えば、図6Mでは、ピン614aによって表されるドライクリーニング店が、選択された目的地としてディスプレイ546−1のユーザインタフェース604内に表示される。   In response to detecting the first input while the first destination is the selected destination in the vehicle navigation interface (808), the portable electronic device updates the vehicle navigation interface on the vehicle display Update 812 the portable device navigation interface on the portable device display according to the first input. For example, FIG. 6M shows that device 100 has detected a user touch input 643 on a user interface object (eg, a pin) corresponding to the dry cleaner represented by pin 614b in FIG. 6L. The user interface 602 may be updated to display an information box 644 corresponding to the dry cleaner represented by 614 b. In FIG. 6M, user interface 602 is updated without providing information to display 546-1 (or system 540) that enables user interface 604 on display 546-1 to be updated. For example, in FIG. 6M, the dry cleaner represented by pin 614a is displayed in the user interface 604 of the display 546-1 as the selected destination.

第1の目的地が選択された目的地として車両ナビゲーションインタフェース内に表示されている間(808)に、第1の入力に従ってポータブルデバイスナビゲーションインタフェースを更新した後、ポータブル電子デバイスは、複数の目的地候補のうちの第2の目的地を選択された目的地として選択するための要求に対応する、ユーザからの第2の入力を検出する(814)。例えば、図6Qは、デバイス100が、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までのルート659aに対するターンバイターン指示を表示するための要求に対応する、ユーザタッチ入力661を検出することを示す。   After updating the portable device navigation interface according to the first input while the first destination is displayed in the vehicle navigation interface as the selected destination (808), the portable electronic device is configured to have a plurality of destinations A second input from the user is detected 814 corresponding to the request to select the second destination of the candidates as the selected destination. For example, FIG. 6Q shows the request for the device 100 to display a turn-by-turn indication for the route 659a from the current position 608 of the device 100 to the dry cleaner represented by the pin 614b (eg, Mary Ann's Cleaners). To indicate that the user touch input 661 is to be detected.

第2の入力を検出したことに応じて(816)、ポータブル電子デバイスは、第2の入力に従って、第2の目的地を選択された目的地として表示するように、ポータブルデバイスディスプレイ上のポータブルデバイスナビゲーションインタフェースを更新する(818)。例えば、図6Rは、デバイス100が、図6Qにおいてユーザタッチ入力661を検出したことに応じて、ピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までの指示を含むターンバイターン指示ボックス662を表示するように、ユーザインタフェース602を更新することを示す。   In response to detecting the second input (816), the portable electronic device displays the second destination as the selected destination according to the second input, the portable device on the portable device display Update the navigation interface (818). For example, FIG. 6R shows that the device 100 is responsive to the user touch input 661 detected in FIG. 6Q to include a turn-by including instructions to a dry cleaner (eg, Mary Ann's Cleaners) represented by pin 614b. The user interface 602 may be updated to display the turn indication box 662.

第2の入力を検出したことに応じて(816)、ポータブル電子デバイスは、車両ディスプレイが、第2の入力に従って、第2の目的地を選択された目的地として表示するように、車両ナビゲーションインタフェースを更新することを可能にする情報を、車両ディスプレイに送信する(820)。図6Qにおいてユーザタッチ入力661を検出したことに応じて、デバイス100は、システム540がディスプレイ546−1上のユーザインタフェース604を更新することを可能にするための情報を、システム540に送信する。例えば、図6Rは、更新されたユーザインタフェース604を示し、デバイス100の現在位置を示すマーカー664、デバイス100の現在位置608からピン614bによって表されるドライクリーニング店(例えば、Mary Ann's Cleaners)までのルート659a、及びルート659a上におけるユーザの第1の方向(又は進路変更点)を示すターンバイターン指示ボックス663を含むターンバイターン指示モードが、ディスプレイ546−1のユーザインタフェース604内に表示される。   In response to detecting the second input (816), the portable electronic device causes the vehicle navigation interface to display the second destination as the selected destination according to the second input. Information to allow the vehicle display to be updated (820). In response to detecting user touch input 661 in FIG. 6Q, device 100 sends information to system 540 to enable system 540 to update user interface 604 on display 546-1. For example, FIG. 6R shows an updated user interface 604, and a marker 664 indicating the current position of the device 100, a dry cleaner represented by pins 614b from the current position 608 of the device 100 (eg, Mary Ann's Cleaners). A turn-by-turn instruction mode including a turn-by-turn instruction box 663 indicating the user's first direction (or course change point) on the route 659a and the route 659a is displayed in the user interface 604 of the display 546-1. Be done.

図8A〜図8Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者には、本明細書で説明される動作を再順序付けするための、様々な方法が認識されるであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法700及び900)は、また、図8A〜図8Bに関連して上述されている方法800に類似の方法で適用可能であることを留意されたい。例えば、方法800に関連して上述されている接触、ジェスチャ、ユーザインタフェースオブジェクトは、本明細書で説明されている他の方法に関連して本明細書で説明されている接触、ジェスチャ、ユーザインタフェースオブジェクト(例えば、方法700及び900)の特性のうちの1つ以上を、任意選択的に、有する。簡潔性のために、これらの詳細は、ここでは繰り返されない。   The particular order described for the operations in FIGS. 8A-8B is exemplary only, and the order described is not intended to indicate that it is the only order in which the operations can be performed. I want you to understand. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, other process details (eg, methods 700 and 900) described herein with respect to the other methods described herein are also described above in connection with FIGS. 8A-8B. It should be noted that the method 800 is applicable in a manner similar to the method 800. For example, the contacts, gestures, user interface objects described above in connection with method 800 may be the contacts, gestures, user interface described herein in connection with other methods described herein. Optionally, one or more of the properties of the object (e.g., methods 700 and 900) are included. For the sake of brevity, these details are not repeated here.

図9A〜図9Cは、いくつかの実施形態に係る、影響を受けるディスプレイに更新情報を送信する方法を示す流れ図である。方法900は、第1のディスプレイ及び第2のディスプレイを含む複数のディスプレイと通信する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、電子デバイスは、ディスプレイ及びタッチ感知面を備える。いくつかの実施形態では、ディスプレイは、タッチスクリーンディスプレイであり、タッチ感知面は、電子デバイス上にある。いくつかの実施形態では、電子デバイスはタッチ感知面から分離している。方法900におけるいくつかの動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、任意選択的に、変更される。   9A-9C are flow diagrams illustrating a method of sending update information to an affected display in accordance with some embodiments. The method 900 is performed at an electronic device (eg, the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A) in communication with a plurality of displays, including a first display and a second display. In some embodiments, the electronic device comprises a display and a touch sensitive surface. In some embodiments, the display is a touch screen display and the touch sensitive surface is on the electronic device. In some embodiments, the electronic device is separate from the touch sensitive surface. Some operations in method 900 are optionally combined and / or the order of some operations is optionally changed.

以下で説明されるように、方法900は、影響を受けるディスプレイに更新情報を送信するための効率的な方法を提供する。   As described below, the method 900 provides an efficient way to send update information to affected displays.

第1のディスプレイ及び第2のディスプレイを含む複数のディスプレイと通信する電子デバイスは、複数の入力ソースのうちの第1の入力ソースによって検出された第1の入力を示す第1の入力情報を受信し、第1の入力情報は、第1の入力ソースに対する第1の(一意)識別子と、第1の入力を記述する第1の入力記述と、を含む(902)。例えば、第1の入力ソース記述は、タッチ感知面上で検出された接触の位置及び移動量/方向、及び/又はタッチ感知面上で実行されたジェスチャの種類を記述するジェスチャデータなどの生入力データである。いくつかの実施形態では、デバイスは、複数の異なる入力ソース(例えば、1つ以上のボタン、ノブ、ジョグダイヤル、及び/又はタッチ感知面)と通信し、それぞれの入力ソースは特定のディスプレイと連動するようにマップされる。いくつかの実施形態では、以下で図6DD〜図6EEを参照してより詳細に説明されるように、マッピングは、任意選択的に、それぞれの入力ソースのマッピングが第1のディスプレイにマップされた状態から第2のディスプレイにマップされた状態へと変更されるように更新される。   An electronic device in communication with a plurality of displays, including a first display and a second display, receives first input information indicative of a first input detected by a first input source of the plurality of input sources The first input information includes 902 a first (unique) identifier for the first input source and a first input description describing the first input. For example, the first input source description may be a raw input, such as gesture data describing the location and movement / direction of a touch detected on the touch sensitive surface, and / or the type of gesture performed on the touch sensitive surface. It is data. In some embodiments, the device communicates with a plurality of different input sources (eg, one or more buttons, knobs, jog dials, and / or touch sensitive surfaces), each input source being associated with a particular display To be mapped. In some embodiments, as described in more detail below with reference to FIGS. 6DD to 6EE, the mapping optionally maps the mapping of each input source to the first display Updated to be changed from the state to the state mapped to the second display.

例えば、図6W〜図6FFは、ディスプレイ546−1及び546−2と通信するデバイス100を示す。例えば、ディスプレイ546−1(例えば、主要ディスプレイ)及び546−2(例えば、補助ディスプレイ)は、車両内に実装されたシステム540に関連付けられる。例えば、ジョグダイヤル675はシステム540に関連付けられ、アクティブにされたときに、デバイスにディスプレイ546−1及びディスプレイ546−2のうちの一方又は両方を制御させる。例えば、図6Xは、ジョグダイヤル675が回転681(例えば、約90度の時計回りの回転)を検出することを示す。回転681を検出したことに応じて、ジョグダイヤル675(又はシステム540)は、回転681を示す入力情報をデバイス100に送信する。入力情報は、ジョグダイヤル675に関連付けられた識別子(例えば、ジョグダイヤル675に関連付けられた一意識別子)及び回転681を記述する入力記述情報を含む。例えば、入力記述情報は、回転の大きさ(90度)及び方向(時計回り)などの、回転681を記述する生データを含む。   For example, FIGS. 6W-6FF illustrate device 100 in communication with displays 546-1 and 546-2. For example, displays 546-1 (e.g., primary display) and 546-2 (e.g., auxiliary display) are associated with system 540 implemented in the vehicle. For example, jog dial 675 is associated with system 540 and, when activated, causes the device to control one or both of display 546-1 and display 546-2. For example, FIG. 6X shows that the jog dial 675 detects rotation 681 (eg, approximately 90 degrees clockwise rotation). In response to detecting the rotation 681, the jog dial 675 (or the system 540) transmits input information indicating the rotation 681 to the device 100. The input information includes an identifier associated with the jog dial 675 (eg, a unique identifier associated with the jog dial 675) and input description information that describes the rotation 681. For example, the input description information includes raw data describing the rotation 681 such as the magnitude (90 degrees) and the direction (clockwise) of the rotation.

デバイスは、第1の識別子と、入力ソースを対応するディスプレイにマップする入力ソースマッピングと、に基づき、第1の影響を受けるディスプレイを複数のディスプレイから選択する(904)。例えば、図6Xにおいて、回転681に対応する入力情報をジョグダイヤル675から受信したことに応じて、デバイス100は、入力ソースをディスプレイにマップする入力ソースマッピングに基づき、入力情報内に含まれる(例えば、入力ソースをジョグダイヤル675と特定する)識別子をディスプレイ(例えば、ディスプレイ546−1)に関連付けることによって、影響を受けるディスプレイを選択(又は判定)する。   The device selects a first affected display from the plurality of displays based on the first identifier and the input source mapping that maps the input source to the corresponding display (904). For example, in FIG. 6X, in response to receiving input information corresponding to rotation 681 from jog dial 675, device 100 is included in the input information based on input source mapping that maps the input source to the display (eg, The affected display is selected (or determined) by associating an identifier identifying the input source with the jog dial 675) with the display (e.g., display 546-1).

いくつかの実施形態では、第1の影響を受けるディスプレイを選択することは、入力ソースマッピングにおいて、第1の入力ソースが第1のディスプレイに割り当てられているという判定に従って、第1のディスプレイを、第1の入力による影響を受ける、第1の影響を受けるディスプレイとして選択することと、入力ソースマッピングにおいて、第1の入力ソースが第1のディスプレイと異なる第2のディスプレイに割り当てられているという判定に従って、第2のディスプレイを、第1の入力による影響を受ける、第1の影響を受けるディスプレイとして選択することと、を含む(906)。例えば、図6Wにおいて、ピンチジェスチャに対応する入力情報を、ディスプレイ546−1に関連付けられたタッチ感知面から受信したことに応じて、デバイス100は、入力ソースをディスプレイにマップする入力ソースマッピングに基づき、入力情報内に含まれる(例えば、入力ソースをディスプレイ546−1に関連付けられたタッチ感知面と特定する)識別子をディスプレイ(例えば、ディスプレイ546−1)に関連付けることによって、影響を受けるディスプレイを選択(又は判定)する。別の実施例では、図6EEにおいて、上方向のスワイプジェスチャに対応する入力情報を、ディスプレイ546−2に関連付けられたタッチ感知面から受信したことに応じて、デバイス100は、入力ソースをディスプレイにマップする入力ソースマッピングに基づき、入力情報内に含まれる(例えば、入力ソースをディスプレイ546−2に関連付けられたタッチ感知面と特定する)識別子をディスプレイ(例えば、ディスプレイ546−2)に関連付けることによって、影響を受けるディスプレイを選択(又は判定)する。   In some embodiments, selecting the first affected display comprises, in the input source mapping, the first display according to the determination that the first input source is assigned to the first display, Selecting as the first affected display affected by the first input and determining that in the input source mapping, the first input source is assigned to a second display different from the first display Selecting the second display as a first affected display, affected by the first input (906). For example, in FIG. 6W, in response to receiving input information corresponding to a pinch gesture from a touch sensitive surface associated with display 546-1, device 100 may be based on input source mapping that maps the input source to the display. Select the affected display by associating with the display (eg, display 546-1) an identifier contained within the input information (eg, identifying the input source to the touch sensitive surface associated with the display 546-1) (Or judge) In another example, in FIG. 6EE, in response to receiving input information corresponding to the upward swipe gesture from the touch sensitive surface associated with display 546-2, device 100 causes the input source to be displayed. By associating an identifier contained within the input information (e.g. identifying the input source with the touch sensitive surface associated with display 546-2) based on the input source mapping to map with the display (e.g. display 546-2) , Select (or determine) the affected display.

いくつかの実施形態では、第1の影響を受けるディスプレイを選択した後、デバイスは、第1の影響を受けるディスプレイ上に表示されたユーザインタフェース(例えば、第1の入力情報が受信される直前に、第1の影響を受けるディスプレイ上に表示されたユーザインタフェース)のそれぞれの状態を判定し、第1の入力記述及び第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態に基づき、更新情報を生成する(908)。例えば、図6Xにおいて、回転681に対応する入力情報をジョグダイヤル675から受信したことに応じて、デバイス100は、入力ソースをディスプレイにマップする入力ソースマッピングに基づき、入力情報内に含まれる(例えば、入力ソースをジョグダイヤル675と特定する)識別子をディスプレイ(例えば、ディスプレイ546−1)に関連付けることによって、影響を受けるディスプレイを選択(又は判定)する。この実施例では、図6Xにおいて検出された回転イベントがディスプレイ546−1に関連付けられていると判定した後、デバイス100は、図6Xに示すディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604が検索結果又は目的地選択モードになっている)も判定する。この実施例では、デバイス100は、図6Xに示す入力記述情報(例えば、約90度の時計回りの回転)及びディスプレイ546−1のディスプレイ状態(例えば、ユーザインタフェース604が検索結果又は目的地選択モードになっている)に基づき、更新情報(例えば、図6Yにおいてディスプレイ546−1上に表示される、更新されたユーザインタフェース)を生成する。   In some embodiments, after selecting the first affected display, the device displays a user interface displayed on the first affected display (eg, immediately before the first input information is received). , The respective state of the user interface displayed on the first affected display), and based on the respective states of the first input description and the first user interface displayed on the first display. , Generate update information (908). For example, in FIG. 6X, in response to receiving input information corresponding to rotation 681 from jog dial 675, device 100 is included in the input information based on input source mapping that maps the input source to the display (eg, The affected display is selected (or determined) by associating an identifier identifying the input source with the jog dial 675) with the display (e.g., display 546-1). In this example, after determining that the rotational event detected in FIG. 6X is associated with display 546-1, device 100 may display the display state of display 546-1 (eg, user interface 604 shown in FIG. 6X). It also determines the search result or the destination selection mode). In this example, the device 100 may have the input description information (eg, approximately 90 degrees clockwise rotation) shown in FIG. (E.g., an updated user interface displayed on display 546-1 in FIG. 6Y).

いくつかの実施形態では、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態が第1の状態であるという判定に従って、更新情報は、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態に対して第1の動作を実行することに対応し(例えば、それぞれの状態は、再生中のオーディオに対して「再生中」インタフェースを表示することであり、対応する動作は、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースに関連付けられたオーディオ再生の音量レベルを、ノブの回転の量に従って調節することを含む)、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態が、第1の状態と異なる第2の状態であるという判定に従って、更新情報は、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態に対して、第1の動作と異なる第2の動作を実行することに対応する(例えば、それぞれの状態は、オーディオコンテンツアイテムなどの選択可能なアイテムのリストを表示することであり、対応する動作は、第1の影響を受けるディスプレイ上で、選択可能なアイテムのリスト内をノブの回転の量に従ってナビゲートすることを含む)(910)。例えば、図6Y〜図6Zは、ディスプレイ546−1が、図6Yにおいてジョグダイヤル675の回転683(例えば、約180度の反時計回りの回転)を検出したことに応じて、図6Yにおけるユーザインタフェース604のディスプレイ状態(例えば、検索結果又は目的地選択モード)に従って、ユーザインタフェース604内の選択された検索結果(例えば、ドライクリーニング店)間を、南から北へとスクロール移動することを示す。例えば、図6AA〜図6BBは、ディスプレイ546−1が、図6AAにおいてジョグダイヤル675の回転686(例えば、約180度の反時計回りの回転)を検出したことに応じて、図6AAにおけるユーザインタフェース604のディスプレイ状態(例えば、ターンバイターン指示モード)に従って、ターンバイターン指示モードをユーザインタフェース604内においてズームアウトすることを示す。   In some embodiments, the update information is displayed on the first affected display in accordance with the determination that the state of each of the user interfaces displayed on the first affected display is the first state. Corresponding to performing the first operation for each state of the user interface (eg, each state is to display an "on playback" interface for the audio being (E.g., adjusting the volume level of audio playback associated with the user interface displayed on the first affected display according to the amount of rotation of the knob), on the first affected display That each state of the user interface displayed in the second state is a second state different from the first state. According to the determination, the update information corresponds to performing, for each state of the user interface displayed on the first affected display, a second operation different from the first operation (e.g. The state of is to display a list of selectable items, such as an audio content item, and the corresponding action is to rotate the knob within the list of selectable items on the first affected display. To navigate according to) (910). For example, FIGS. 6Y-6Z show the user interface 604 in FIG. 6Y in response to the display 546-1 detecting rotation 683 of the jog dial 675 (eg, about 180 degrees of counterclockwise rotation) in FIG. 6Y. To scroll from the south to the north between selected search results (e.g., dry cleaning shop) in the user interface 604 according to the display state (e.g., the search results or the destination selection mode) of FIG. For example, FIGS. 6AA-6BB illustrate that user interface 604 in FIG. 6AA may be responsive to display 546-1 detecting rotation 686 of jog dial 675 (eg, about 180 degrees of counterclockwise rotation) in FIG. 6AA. To indicate that the turn-by-turn instruction mode is to be zoomed out in the user interface 604 according to the display state (eg, the turn-by-turn instruction mode).

いくつかの実施形態では、第1の入力情報を受信する前に、それぞれのユーザインタフェースは以前の状態を有し、デバイスは、第1の入力及びそれぞれのユーザインタフェースの以前の状態に基づき、ユーザインタフェースを以前の状態と異なる更新された状態へと更新する(例えば、タッチ感知面上のスワイプジェスチャ又はノブの回転に応じて、地図ユーザインタフェースは、スワイプジェスチャの大きさ及び方向、あるいはノブの回転の大きさに従ってスクロールされる)(912)。例えば、図6EE〜図6FFは、ディスプレイ546−2が、図6EEにおいて、ディスプレイ546−2上のユーザタッチ入力689による上方向のスワイプジェスチャを検出したことに応じて、図6EEにおけるユーザインタフェース676のディスプレイ状態(例えば、アルバム歌曲リストモード)に従って、ユーザインタフェース676内の歌曲のリスト677を上にスクロールすることを示す。   In some embodiments, prior to receiving the first input information, each user interface has a previous state, and the device is configured to receive the user based on the first input and the previous state of each user interface. Update the interface to an updated state different from the previous state (eg, in response to a swipe gesture or knob rotation on the touch sensitive surface, the map user interface may rotate the swipe gesture's size and direction, or the knob) Is scrolled according to the size of (912). For example, FIGS. 6EE-6FF illustrate that, in response to display 546-2 detecting an upward swipe gesture by user touch input 689 on display 546-2 in FIG. 6EE, user interface 676 in FIG. A scrolling list of songs 677 in the user interface 676 is shown to be scrolled up according to the display state (eg, album song list mode).

いくつかの実施形態では、更新情報を第1の影響を受けるディスプレイに送信する前に、デバイスは第1の入力情報に基づき更新情報を生成し、第1の入力記述が第1の入力特性を記述するという判定に従って、デバイスは第1の更新情報を生成し、第1の入力記述が第1の入力特性と異なる第2の入力特性を記述するという判定に従って、デバイスは第1の更新情報と異なる第2の更新情報を生成する(914)。例えば、リストが第1の影響を受けるディスプレイ上に表示されている間に、第1の入力情報がノブの回転に対応するとき、第1の入力記述が、第1の入力がノブの時計回りの回転を含むことを示す場合、デバイスは、影響を受けるディスプレイ上においてリストを下方向にスクロールする。対照的に、第1の入力記述が、第1の入力がノブの反時計回りの回転を含むことを示す場合、デバイスは、影響を受けるディスプレイ上においてリストを上方向にスクロールする。   In some embodiments, prior to sending the update information to the first affected display, the device generates the update information based on the first input information, and the first input description generates the first input characteristic. According to the determination to describe, the device generates the first update information, and according to the determination that the first input description describes a second input characteristic different from the first input characteristic, the device is updated with the first update information. Generate different second update information (914). For example, while the list is being displayed on the first affected display, when the first input information corresponds to the rotation of the knob, the first input description is the first input being a clockwise rotation of the knob The device scrolls the list down on the affected display if indicated to include a rotation of. In contrast, if the first input description indicates that the first input includes counterclockwise rotation of the knob, the device scrolls the list upward on the affected display.

別の実施例では、検索結果又は目的地選択モードが表示されているとき、ジョグダイヤル675の90度の回転は次の検索結果を選択し、時計回りの回転は検索結果を北から南へとスクロールし、反時計回りの回転は検索結果を南から北へとスクロールする。例えば、図6X〜図6Yは、ディスプレイ546−1が、図6Xにおいてジョグダイヤル675の回転681(例えば、約90度の時計回りの回転)を検出したことに応じて、選択された検索結果(例えば、ドライクリーニング店)間を、北から南へとスクロール移動することを示す。対照的に、例えば、図6Y〜図6Zは、ディスプレイ546−1が、図6Yにおいてジョグダイヤル675の回転683(例えば、約180度の反時計回りの回転)を検出したことに応じて、選択された検索結果(例えば、ドライクリーニング店)間を、南から北へとスクロール移動することを示す。   In another example, when a search result or destination selection mode is displayed, a 90 degree rotation of the jog dial 675 selects the next search result, and a clockwise rotation scrolls the search result from north to south And counterclockwise rotation scrolls the search results from south to north. For example, FIGS. 6X-6Y show that the display 546-1 has selected search results (eg, approximately 90 degrees clockwise rotation) detected in FIG. 6X (eg, approximately 90 degrees clockwise rotation). Indicates to scroll from north to south between the dry cleaners). In contrast, for example, FIGS. 6Y-6Z are selected in response to display 546-1 detecting rotation 683 of jog dial 675 (eg, approximately 180 degrees of counterclockwise rotation) in FIG. 6Y. It shows scrolling from south to north between search results (for example, dry cleaners).

デバイスは、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を、第1の影響を受けるディスプレイに送信する(916)。例えば、図6Xにおいて、回転681に対応する入力情報をジョグダイヤル675から受信したことに応じて、デバイス100は、入力ソースマッピングに基づき、入力情報内に含まれる(例えば、入力ソースをジョグダイヤル675と特定する)識別子をディスプレイ546−1に関連付けることによって、ディスプレイ546−1を影響を受けるディスプレイとして選択する。ディスプレイを影響を受けるディスプレイとして選択した後、デバイス100は、影響を受けるディスプレイ546−1を更新することを可能にする更新情報を、影響を受けるディスプレイ546−1に送信する。   The device sends update information to the first affected display that enables the first affected display to be updated according to the first input (916). For example, in FIG. 6X, in response to receiving, from the jog dial 675, input information corresponding to the rotation 681, the device 100 is included in the input information based on the input source mapping (e.g. And select the display 546-1 as the affected display by associating the identifier with the display 546-1. After selecting a display as the affected display, the device 100 sends updated information to the affected display 546-1 that allows the affected display 546-1 to be updated.

いくつかの実施形態では、更新情報は、第1の入力に対応する情報(例えば、タッチ感知面上で検出された接触の位置及び移動量/方向、及び/又はタッチ感知面上で実行されたジェスチャの種類を記述するジェスチャデータなどの生入力データ)を含む(918)。いくつかの実施形態では、更新情報は第1の入力記述を含む。いくつかの実施形態では、更新情報は第1の入力記述に基づき生成される(例えば、第1の入力記述は生タッチ入力データであり、更新情報は生タッチ入力データに対応するジェスチャを含む)。   In some embodiments, the update information is performed on the information corresponding to the first input (eg, the position and movement amount / direction of the touch detected on the touch sensitive surface, and / or the touch sensitive surface) Raw input data such as gesture data that describes the type of gesture) (918). In some embodiments, the update information includes a first input description. In some embodiments, the update information is generated based on the first input description (eg, the first input description is raw touch input data and the update information includes a gesture corresponding to the raw touch input data) .

いくつかの実施形態では、更新情報は、第1の影響を受けるディスプレイにおいて表示するための更新されたユーザインタフェース(例えば、複数のユーザインタフェースオブジェクトを含む、第1のディスプレイ上に表示するための画像)を含む(920)。図6Xにおいて、ディスプレイ546−1を、回転681に対応する影響を受けるディスプレイとして選択した後、デバイス100は、図6Xにおけるジョグダイヤル675の回転681の大きさ(90度)及び方向(時計回り)に従って、影響を受けるディスプレイ546−1を更新することを可能にする更新情報を、影響を受けるディスプレイ546−1に送信する。例えば、更新情報は、ピン614aによって表されるドライクリーニング店に対応するABC Cleanersから南にある次のドライクリーニング店(例えば、ピン614dによって表されるドライクリーニング店に対応するSuzie's Cleaners)が、図6Yにおいて、選択された検索結果としてユーザインタフェース604内に表示されるように検索結果(例えば、ドライクリーニング店)をスクロールする、更新されたユーザインタフェースを含む。   In some embodiments, the updated information is an updated user interface for display on the first affected display (eg, an image for display on the first display including a plurality of user interface objects) ) (920). In FIG. 6X, after selecting display 546-1 as the affected display corresponding to rotation 681, device 100 follows the magnitude (90 degrees) and direction (clockwise) of rotation 681 of jog dial 675 in FIG. 6X. Update information that allows the affected display 546-1 to be updated is sent to the affected display 546-1. For example, the update information may be the next dry cleaner store south of ABC Cleaners corresponding to the dry cleaner store represented by pin 614a (e.g. Suzie's Cleaners corresponding to the dry cleaner store represented by pin 614d) 6Y includes an updated user interface that scrolls search results (eg, a dry cleaning store) to be displayed in the user interface 604 as selected search results.

いくつかの実施形態では、デバイスは、複数のディスプレイのうちの2つ以上のディスプレイに対するユーザインタフェースを生成し、それぞれのユーザインタフェースを対応するディスプレイに提供する(922)。例えば、デバイス100は、車両エンターテイメント又はナビゲーションシステムなどの車両情報表示システム(例えば、システム540)の第1のディスプレイ(例えば、主要ディスプレイ546−1又はダッシュボードナビゲーションディスプレイ)上に表示するための、第1の地図/ナビゲーションユーザインタフェースを表す画像を送信し、構造的にデバイスと一体化した第2の異なるディスプレイ(例えば、デバイス100又は別のポータブル電子デバイスのタッチスクリーン112)のための第2の異なる地図/ナビゲーションユーザインタフェースを生成する。いくつかの実施形態では、デバイスは、車両情報表示システム(例えば、システム540)の車両内の第3のディスプレイ(例えば、補助ディスプレイ546−2又は後部座席のエンターテイメントディスプレイ)上に表示するための異なるユーザインタフェースを表す画像を送信する。   In some embodiments, the device generates user interfaces to two or more of the plurality of displays and provides each user interface to a corresponding display (922). For example, device 100 may be displayed on a first display (eg, main display 546-1 or dashboard navigation display) of a vehicle information display system (eg, system 540), such as a vehicle entertainment or navigation system A second, different, for a second different display (eg, touch screen 112 of device 100 or another portable electronic device) that transmits an image representing one map / navigation user interface and is structurally integrated with the device Generate a map / navigation user interface. In some embodiments, the device is different for displaying on a third display (eg, auxiliary display 546-2 or backseat entertainment display) in a vehicle of a vehicle information display system (eg, system 540) Send an image representing the user interface.

いくつかの実施形態では、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を送信した後(924)、デバイスは、第1の入力ソースと異なる、複数の入力ソースのうちの第2の入力ソースによって検出された第2の入力を示す、第2の入力情報を受信し、第2の入力情報は、第2の入力ソースに対する第2の(一意)識別子と、第2の入力を記述する第2の入力記述と、を含む(926)。例えば、第2の入力記述は、タッチ感知面上で検出された接触の位置及び移動量/方向、及び/又はタッチ感知面上で実行されたジェスチャの種類を記述するジェスチャデータなどの生入力データである。図6Xにおいて、ディスプレイ546−1を、回転681に対応する第1の影響を受けるディスプレイとして選択した後、デバイス100は、図6Yに示されるように第1の影響を受けるディスプレイ546−1を更新することを可能にする更新情報を、第1の影響を受けるディスプレイ546−1に送信する。例えば、図6EEは、引き続いて、ディスプレイ546−2に関連付けられたタッチ感知面が、ユーザタッチ入力689による上方向のスワイプジェスチャを検出することを示す。上方向のスワイプジェスチャを検出したことに応じて、ディスプレイ546−2(又はシステム540)に関連付けられたタッチ感知面は、ユーザタッチ入力689(又は上方向のスワイプジェスチャ)を示す入力情報をデバイス100に送信する。入力情報は、ディスプレイ546−2に関連付けられたタッチ感知面に関連付けられた識別子(例えば、ディスプレイ546−2のタッチ感知面に関連付けられた一意識別子)及びユーザタッチ入力689(又は上方向のスワイプジェスチャ)を記述する入力記述情報を含む。   In some embodiments, after sending (924) the update information that enables the first affected display to be updated according to the first input, the device is different than the first input source, Receiving second input information indicating a second input detected by the second one of the input sources, the second input information being a second (unique) identifier for the second input source And a second input description describing a second input (926). For example, the second input description may be raw input data, such as gesture data that describes the location and movement / direction of the touch detected on the touch sensitive surface, and / or the type of gesture performed on the touch sensitive surface. It is. In FIG. 6X, after selecting display 546-1 as the first affected display corresponding to rotation 681, device 100 updates the first affected display 546-1 as shown in FIG. 6Y. Update information that allows to be sent to the first affected display 546-1. For example, Figure 6EE continues to show that the touch sensitive surface associated with display 546-2 detects an upward swipe gesture due to user touch input 689. In response to detecting the upward swipe gesture, the touch-sensitive surface associated with display 546-2 (or system 540) displays input information indicative of user touch input 689 (or upward swipe gesture) to device 100. Send to The input information may be an identifier associated with the touch sensitive surface associated with display 546-2 (eg, a unique identifier associated with the touch sensitive surface of display 546-2) and user touch input 689 (or an upward swipe gesture). Contains input description information describing.

いくつかの実施形態では、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を送信した後(924)、デバイスは、第2の識別子及び入力ソースマッピングに基づき、第2の影響を受けるディスプレイを複数のディスプレイから選択する(928)。図6EEにおいて、上方向のスワイプジェスチャに対応する入力情報を、ディスプレイ546−2に関連付けられたタッチ感知面から受信したことに応じて、デバイス100は、入力ソースをディスプレイにマップする入力ソースマッピングに基づき、入力情報内に含まれる(例えば、入力ソースをディスプレイ546−2に関連付けられたタッチ感知面と特定する)識別子をディスプレイ(例えば、ディスプレイ546−2)に関連付けることによって、ディスプレイ546−2を第2の影響を受けるディスプレイとして選択する。   In some embodiments, after sending (924) the update information that enables the first affected display to be updated according to the first input, the device is based on the second identifier and the input source mapping. , Select a second affected display from the plurality of displays (928). In FIG. 6EE, in response to receiving input information corresponding to the upward swipe gesture from the touch sensitive surface associated with display 546-2, device 100 maps input source to input source mapping to the display. By associating an identifier contained within the input information (eg, identifying the input source with the touch sensitive surface associated with display 546-2) with the display (eg, display 546-2). Select as the second affected display.

いくつかの実施形態では、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を送信した後(924)、デバイスは、第2の入力に従って第2の影響を受けるディスプレイを更新することを可能にする更新情報を、第2の影響を受けるディスプレイに送信する(930)。いくつかの(例えば、第1の入力ソース及び第2の入力ソースの両方が同じディスプレイにマップされる)実施形態では、第1の影響を受けるディスプレイは、第2の影響を受けるディスプレイと同じである。いくつかの(例えば、第1の入力ソース及び第2の入力ソースが異なるディスプレイにマップされる)実施形態では、第1の影響を受けるディスプレイは、第2の影響を受けるディスプレイと異なる。ディスプレイ546−2を第2の影響を受けるディスプレイとして選択した後、デバイス100は、影響を受けるディスプレイ546−2を更新することを可能にする更新情報を、第2の影響を受けるディスプレイ546−2に送信する。例えば、図6FFでは、更新情報は、ディスプレイ546−2が上方向にスクロールされたリスト677をユーザインタフェース676内に表示することを可能にした、更新されたユーザインタフェースを含む。   In some embodiments, after sending 924 the update information that enables the first affected display to be updated according to the first input (924), the device performs the second influence according to the second input. Update information that allows the receiving display to be updated is sent 930 to the second affected display. In some embodiments (eg, where both the first input source and the second input source are mapped to the same display), the first affected display is the same as the second affected display is there. In some embodiments (e.g., where the first input source and the second input source are mapped to different displays), the first affected display is different than the second affected display. After selecting the display 546-2 as the second affected display, the device 100 can update the second affected display 546-2 with information that enables the affected display 546-2 to be updated. Send to For example, in FIG. 6FF, the update information includes an updated user interface that allows the display 546-2 to display the upwardly scrolled list 677 in the user interface 676.

いくつかの実施形態では、デバイスは、複数のディスプレイのうちのそれぞれのディスプレイの可用性の変更を検出し、それぞれのディスプレイの可用性の変更を検出したことに応じて、デバイスは、それぞれのディスプレイの可用性の変更を示すために、入力ソースマッピングを更新する(932)。いくつかの実施形態では、それぞれのディスプレイの可用性の変更は、電子デバイスと異なるコンピュータシステム(例えば、ナビゲーション又はエンターテイメントシステムなどの車両情報表示システム)がそれぞれのディスプレイを制御することを含む。いくつかの実施形態では、それぞれのディスプレイの可用性の変更は、電子デバイスと異なるコンピュータシステムが、それぞれのディスプレイの制御を電子デバイスに渡す(又は戻す)ことを含む(例えば、車両が後進している間、車両情報表示システムは、後進カメラからのビデオフィードを車両情報表示システムのディスプレイ上に表示し、車両が後進を停止した後、車両情報表示システムは、電子デバイスが、電子デバイスによって提供されたユーザインタフェースを、車両情報表示システムのディスプレイ上に再度表示することを可能にする)。   In some embodiments, the device detects a change in availability of each of the plurality of displays, and in response to detecting a change in availability of each of the devices, the device determines the availability of each of the displays Update the input source mapping to indicate a change in (932). In some embodiments, changing the availability of the respective displays includes the computer system different from the electronic device (eg, a vehicle information display system such as a navigation or entertainment system) controlling the respective displays. In some embodiments, changing the availability of the respective display includes passing (or returning) control of the respective display to the electronic device different from the electronic device (e.g., the vehicle is moving backward) The vehicle information display system displays the video feed from the reverse camera on the display of the vehicle information display system, and the vehicle information display system provides the electronic device by the electronic device after the vehicle stops the reverse movement. Allow the user interface to be displayed again on the display of the vehicle information display system).

例えば、図6W〜図6FFは、車両内に実装されたシステム540に関連付けられた、ディスプレイ546−1及びディスプレイ546−2を示す。例えば、図6CCは、車両が後進する間、ディスプレイ546−1が後進カメラからのビデオフィードを含む車両後進モードをユーザインタフェース604内に表示することと、ディスプレイ546−2が後進カメラからのビデオフィードを含む車両後進モードをユーザインタフェース676内に表示することと、を示す。車両が後進する間、車両後進モードが、ディスプレイ546−1及び546−2によってデバイス100から受信された全ての更新情報に取って代わる。   For example, FIGS. 6W-6FF illustrate displays 546-1 and 546-2 associated with a system 540 implemented in a vehicle. For example, FIG. 6 CC shows that the display 546-1 displays the vehicle reverse mode in the user interface 604 while the vehicle reverses, and the display 546-2 is video feed from the reverse camera. Displaying in the user interface 676 a vehicle reverse mode including: While the vehicle reverses, the vehicle reverse mode replaces any updated information received from the device 100 by the displays 546-1 and 546-2.

いくつかの実施形態では、それぞれの入力ソースが第1のディスプレイに割り当てられている間、デバイスは、複数の入力ソースのうちのそれぞれの入力ソースに対する、第1のディスプレイから第2のディスプレイへのディスプレイ割り当ての変更を検出し、それぞれの入力ソースに対するディスプレイ割り当ての変更を検出したことに応じて、デバイスは、それぞれの入力ソースに関連付けられた入力を示す入力情報が、第1のディスプレイ上に表示されたユーザインタフェースを更新するために使用される代わりに、第2のディスプレイ上に表示されたユーザインタフェースを更新するために使用されるように、それぞれの入力ソースに対するディスプレイ割り当ての変更を示すために、入力ソースマッピングを更新する(934)。例えば、車両内の同乗者は、車両情報表示システムの主要ディスプレイ内のユーザインタフェースを制御するために第1のノブを使用する状態から、車両情報表示システムの補助ディスプレイ(例えば、後部座席のエンターテイメントディスプレイ)内のユーザインタフェースを制御するために第1のノブを使用する状態へと切り替え、第1のノブに対する識別子を含む入力情報は、主要ディスプレイ上に表示されたユーザインタフェースを更新するために使用される代わりに、補助ディスプレイ上に表示されたユーザインタフェースを更新するために使用される。   In some embodiments, while each input source is assigned to the first display, the device is configured to transmit from the first display to the second display for each input source of the plurality of input sources. In response to detecting a change in display assignment and detecting a change in display assignment for each input source, the device displays on the first display input information indicative of the input associated with each input source. To indicate a change in display assignment for each input source, as used to update the user interface displayed on the second display instead of being used to update the selected user interface , Update input source mapping (934). For example, from the situation where the passenger in the vehicle uses the first knob to control the user interface in the main display of the vehicle information display system, the auxiliary display of the vehicle information display system (e.g. Switching to the state of using the first knob to control the user interface in) and the input information including the identifier for the first knob is used to update the user interface displayed on the main display Instead, it is used to update the user interface displayed on the auxiliary display.

図6W〜図6CCでは、ジョグダイヤル675は、アクティブにされたときに、デバイスにディスプレイ546−1を制御させる。したがって、図6W〜図6CCでは、ジョグダイヤル675は、入力ソースのディスプレイへのマッピングにおいて、ディスプレイ546−1に関連付けられる。例えば、図6AA〜図6BBは、ディスプレイ546−1が、図6AAにおいてジョグダイヤル675の回転686(例えば、約90度の反時計回りの回転)を検出したことに応じて、ジョグダイヤル675がディスプレイ546−1にマップされているという判定に従って、ターンバイターン指示モードをユーザインタフェース604内においてズームアウトすることを示す。   6W-6CC, the jog dial 675, when activated, causes the device to control the display 546-1. Thus, in FIGS. 6W-6CC, the jog dial 675 is associated with the display 546-1 in mapping the input source to the display. For example, FIGS. 6AA-6BB illustrate that, in response to display 546-1 detecting rotation 686 of jog dial 675 (eg, approximately 90 degrees of counterclockwise rotation) in FIG. 15 illustrates zooming out of the turn-by-turn instruction mode in the user interface 604 according to the determination that it is mapped to one.

対象的に、図6DD〜図6EEでは、ジョグダイヤル675は、アクティブにされたときに、デバイスにディスプレイ546−2を制御させる。したがって、図6DD〜図6EEでは、ジョグダイヤル675は、入力ソースのディスプレイへの変更されたマッピングにおいて、ディスプレイ546−2に関連付けられる。別の実施例では、図6DD〜図6EEは、ディスプレイ546−2が、図6DDにおいてジョグダイヤル675の回転688(例えば、約90度の時計回りの回転)を検出したことに応じて、ジョグダイヤル675がディスプレイ546−2にマップされているという判定に従って、リスト677をユーザインタフェース676内において下にスクロールすることを示す。   In contrast, in FIGS. 6DD-6EE, the jog dial 675, when activated, causes the device to control the display 546-2. Thus, in FIGS. 6DD-6EE, the jog dial 675 is associated with the display 546-2 in a modified mapping of the input source to the display. In another embodiment, FIGS. 6DD-6EE are responsive to the display 546-2 detecting rotation 688 (eg, approximately 90 degrees clockwise rotation) of the jog dial 675 in FIG. 6DD. Shown is a scrolling down of the list 677 within the user interface 676 in accordance with the determination that it is mapped to the display 546-2.

図9A〜9Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者には、本明細書で説明される動作を再順序付けするための、様々な方法が認識されるであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法700及び800)は、また、図9A〜図9Cに関連して上述されている方法900に類似の方法で適用可能であることを留意されたい。例えば、方法900に関連して上述されている接触、ジェスチャ、ユーザインタフェースオブジェクトは、本明細書で説明されている他の方法に関連して本明細書で説明されている接触、ジェスチャ、ユーザインタフェースオブジェクト(例えば、方法700及び800)の特性のうちの1つ以上を、任意選択的に、有する。簡潔性のために、これらの詳細は、ここでは繰り返されない。   It is understood that the specific order described for the operations in FIGS. 9A-9C is merely exemplary and that the described order is not intended to indicate that it is the only order in which the operations can be performed. I want to be Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, other process details described herein (eg, methods 700 and 800) with respect to the other methods described herein are also described above in connection with FIGS. 9A-9C. It should be noted that it is applicable in a manner similar to the existing method 900. For example, the contacts, gestures, user interface objects described above in connection with method 900 may be the contacts, gestures, user interface described herein in connection with other methods described herein. Optionally, one or more of the properties of the object (e.g., methods 700 and 800). For the sake of brevity, these details are not repeated here.

いくつかの実施形態によれば、図10は、説明される様々な実施形態の原理に従って構成された第1の電子デバイス1000の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図10で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。   According to some embodiments, FIG. 10 shows a functional block diagram of a first electronic device 1000 configured in accordance with the principles of the various described embodiments. The functional blocks of this device are optionally implemented by hardware, software or a combination of hardware and software to carry out the principles of the various described embodiments. Those skilled in the art will appreciate that the functional blocks described in FIG. 10 are optionally combined or separated into sub-blocks to implement the principles of the various described embodiments. Thus, the description herein optionally supports any possible combination or division or further definition of the functional blocks described herein.

図10に示されるように、第1の電子デバイス1000は、第1のユーザインタフェースを表示するように構成された第1のディスプレイユニット1002を含み、第1のユーザインタフェースは複数の選択可能なオブジェクト間の選択を可能にし、第1のユーザインタフェースは第1のディスプレイユニットと異なる第2のディスプレイユニット上に表示された第2のユーザインタフェースに対応し、複数の選択可能なオブジェクトのうちの第1のオブジェクトは、選択されたオブジェクトとして第2のユーザインタフェース内に表示される。任意選択的に、第1の電子デバイス1000はまた、第2の電子デバイスと通信するように構成された通信インタフェースユニット1004と、1つ以上のタッチ入力を受け取るように構成された第1のタッチ感知面ユニット1006と、を含む。第1の電子デバイス1000は、第1のディスプレイユニット1002に結合され、及び任意選択的に、通信インタフェースユニット1004及び第1のタッチ感知面ユニット1006に結合された、処理ユニット1008を更に含む。いくつかの実施形態では、処理ユニット1008は、検出ユニット1010と、更新ユニット1012と、提供ユニット1014と、同期ユニット1016と、受信ユニット1018と、を含む。   As shown in FIG. 10, the first electronic device 1000 includes a first display unit 1002 configured to display a first user interface, the first user interface comprising a plurality of selectable objects A first user interface corresponding to a second user interface displayed on a second display unit different from the first display unit, the first of the plurality of selectable objects Objects are displayed in the second user interface as selected objects. Optionally, the first electronic device 1000 is also a communication interface unit 1004 configured to communicate with the second electronic device, and a first touch configured to receive one or more touch inputs. And a sensing surface unit 1006. The first electronic device 1000 further includes a processing unit 1008 coupled to the first display unit 1002, and optionally coupled to the communication interface unit 1004 and the first touch sensitive surface unit 1006. In some embodiments, processing unit 1008 includes a detection unit 1010, an update unit 1012, a provision unit 1014, a synchronization unit 1016, and a reception unit 1018.

第1のオブジェクトが選択されたオブジェクトとして第2のユーザインタフェース内に表示されている間、処理ユニット1008は、複数の選択可能なオブジェクトのうちの第2のオブジェクトに関する情報の第1のユーザインタフェース内への表示を可能にするための要求に対応する、ユーザからの第1の入力を(例えば、検出ユニット1010を使用して)検出し、第1の入力を検出したことに応じて、第2のユーザインタフェース内への第1のオブジェクトの選択されたオブジェクトとしての表示を維持しながら、第2のオブジェクトに関する対応する情報の表示を可能にするように、第1の入力に従って第1のディスプレイユニット1002上の第1のユーザインタフェースを(例えば、更新ユニット1012を使用して)更新し、第1の入力に従って第1のユーザインタフェースを更新した後、第2のオブジェクトを選択されたオブジェクトとして選択するための要求に対応する、ユーザからの第2の入力を(例えば、検出ユニット1010を使用して)検出するように構成される。処理ユニット1008は、第2の入力を検出したことに応じて、第2の入力に従って、選択されたオブジェクトとしての第2のオブジェクトの表示を可能にするように、第1のディスプレイユニット1002上の第1のユーザインタフェースを(例えば、更新ユニット1012を使用して)更新し、第1のオブジェクトに代わる選択されたオブジェクトとしての第2のオブジェクトの表示を可能にするように、第2のディスプレイユニット上の第2のユーザインタフェースを更新することを可能にする情報を、第2のディスプレイユニットに(例えば、提供ユニット1014を使用して)提供するように更に構成される。   While the first object is displayed in the second user interface as the selected object, the processing unit 1008 may be configured to generate information in the first user interface of information about the second one of the plurality of selectable objects. Detecting a first input from the user (e.g., using detection unit 1010) corresponding to the request to enable display on the second, and in response to detecting the first input, the second A first display unit according to a first input to enable display of corresponding information about a second object while maintaining display of the first object as a selected object in the user interface of Update the first user interface on 1002 (eg, using update unit 1012), After updating the first user interface according to the one input, the second input from the user corresponding to the request for selecting the second object as the selected object (for example using the detection unit 1010 Is configured to detect. The processing unit 1008 is responsive to detecting the second input to allow display of the second object as the selected object according to the second input, on the first display unit 1002 The second display unit to update the first user interface (e.g. using the update unit 1012) and allow the display of the second object as a selected object instead of the first object. It is further configured to provide information on the second display unit (e.g. using the providing unit 1014) that enables updating the upper second user interface.

いくつかの実施形態では、第1の入力を検出したことに応じて、第2のオブジェクトに関する対応する情報の第2のユーザインタフェース内への表示を可能にするように、第2のディスプレイユニット上の第2のユーザインタフェースを更新することを可能にする情報を第2のディスプレイユニットに提供することなく、第1のユーザインタフェースが更新される。   In some embodiments, on the second display unit, to enable display of corresponding information regarding the second object in the second user interface in response to detecting the first input. The first user interface is updated without providing the second display unit with information enabling updating the second user interface of the second.

いくつかの実施形態では、第2のユーザインタフェース内への第1のオブジェクトの選択されたオブジェクトとしての表示を維持しながら、第2のオブジェクトに関する対応する情報の表示を可能にするように、第1の入力に従って第1のディスプレイユニット1002上の第1のユーザインタフェースを更新することは、第2のユーザインタフェース全体を、第1の入力を検出する直前に表示されたように第2のディスプレイユニット上で維持しながら、第2のオブジェクトに関する対応する情報の表示を可能にするように、第1の入力に従って第1のディスプレイユニット1002上の第1のユーザインタフェースを更新することを含む。   In some embodiments, to allow the display of corresponding information regarding the second object while maintaining the display of the first object as a selected object in the second user interface, Updating the first user interface on the first display unit 1002 according to an input of 1 causes the entire second user interface to be displayed as it was displayed just before detecting the first input. Updating the first user interface on the first display unit 1002 in accordance with the first input to allow display of corresponding information regarding the second object while maintaining the above.

いくつかの実施形態では、複数の選択可能なオブジェクトは複数の地図位置に対応し、選択されたオブジェクトは現在選択されている目的地に対応する。   In some embodiments, the plurality of selectable objects correspond to the plurality of map locations, and the selected objects correspond to the currently selected destination.

いくつかの実施形態では、複数の選択可能なオブジェクトは複数のナビゲーションルートに対応し、選択されたオブジェクトは現在選択されているナビゲーションルートに対応する。   In some embodiments, the plurality of selectable objects correspond to the plurality of navigation routes, and the selected object corresponds to the currently selected navigation route.

いくつかの実施形態では、複数の選択可能なオブジェクトは第1の電子デバイス1000を使用して再生し得る複数のコンテンツアイテムに対応し、選択されたオブジェクトは現在選択されているコンテンツアイテムに対応する。   In some embodiments, the plurality of selectable objects correspond to the plurality of content items that may be played using the first electronic device 1000, and the selected objects correspond to the currently selected content item .

いくつかの実施形態では、複数の選択可能なオブジェクトは複数のアプリケーションに対応し、選択されたオブジェクトは現在選択されているアプリケーションに対応する。   In some embodiments, the plurality of selectable objects correspond to the plurality of applications, and the selected objects correspond to the currently selected application.

いくつかの実施形態では、複数の選択可能なオブジェクトは検索クエリに応じて生成された複数の検索結果に対応し、選択されたオブジェクトは現在選択されている検索結果に対応する。   In some embodiments, the plurality of selectable objects correspond to the plurality of search results generated in response to the search query, and the selected object corresponds to the currently selected search result.

いくつかの実施形態では、第1のオブジェクトは、既定のオブジェクト選択基準に基づき、選択されたオブジェクトとして自動的に選択される。   In some embodiments, the first object is automatically selected as the selected object based on predetermined object selection criteria.

いくつかの実施形態では、第1の入力を検出する前に、第1のユーザインタフェースは第2のユーザインタフェースと同期させられ、第1の入力に応じた後で、かつ第2の入力を検出する前には、第1のユーザインタフェースは第2のユーザインタフェースと同期させられず、第2の入力に応じた後に、第1のユーザインタフェースは第2のユーザインタフェースと同期させられる。   In some embodiments, before detecting the first input, the first user interface is synchronized with the second user interface, and responsive to the first input, and detects the second input. Before doing so, the first user interface is not synchronized with the second user interface, and after responding to the second input, the first user interface is synchronized with the second user interface.

いくつかの実施形態では、処理ユニット1008は、第1のオブジェクトに代えて選択されたオブジェクトとして第2のオブジェクトを表示することを可能にするように、第2のディスプレイユニット上の第2のユーザインタフェースを更新することを可能にする情報を提供した後に、(例えば、同期ユニット1016を使用して)ディスプレイ同期モードに入り、ディスプレイ同期モードの間、第1のユーザインタフェースを時間の経過と共に(例えば、更新ユニット1012を使用して)定期的に更新し、第1のユーザインタフェースが時間の経過と共に更新されるにしたがって、第2のディスプレイユニット上の第2のユーザインタフェースを第1のユーザインタフェースと同期させることを可能にする情報を(例えば、提供ユニット1014を使用して)提供するように構成される。   In some embodiments, the processing unit 1008 may cause the second user on the second display unit to enable displaying the second object as the selected object instead of the first object. After providing information enabling the interface to be updated, the display synchronization mode is entered (e.g. using synchronization unit 1016) and the first user interface is displayed over time during the display synchronization mode (e.g. Periodically update using the update unit 1012, and as the first user interface is updated with the passage of time, the second user interface on the second display unit is updated with the first user interface Information that makes it possible to synchronize (eg 014 Use) configured to provide.

いくつかの実施形態では、第2の電子デバイスは、ネイティブグラフィカルユーザインタフェースを有する車両内エンターテイメントシステムを制御し、第2のユーザインタフェースは、第2の電子デバイスのネイティブグラフィカルユーザインタフェースの少なくとも一部の代わりに、第2のディスプレイユニット上に表示される。   In some embodiments, the second electronic device controls an in-vehicle entertainment system having a native graphical user interface, and the second user interface is at least a portion of the native graphical user interface of the second electronic device. Instead, it is displayed on the second display unit.

いくつかの実施形態では、処理ユニット1008は、それぞれの入力に対応する情報を車両内エンターテイメントシステムのコントロールから(例えば、受信ユニット1018を使用して)受信し、それぞれの入力に対応する情報を受信したことに応じて、それぞれの入力に従って第1のユーザインタフェース及び第2のユーザインタフェースを(例えば、更新ユニット1012を使用して)更新するように構成される。   In some embodiments, processing unit 1008 receives information corresponding to each input from the control of the in-vehicle entertainment system (e.g., using receiving unit 1018) and receives information corresponding to each input In response, the first user interface and the second user interface are configured to update (eg, using the update unit 1012) according to the respective inputs.

いくつかの実施形態によれば、図11は、説明される様々な実施形態の原理に従って構成されたポータブル電子デバイス1100の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図11で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。   According to some embodiments, FIG. 11 shows a functional block diagram of a portable electronic device 1100 configured in accordance with the principles of the various described embodiments. The functional blocks of this device are optionally implemented by hardware, software or a combination of hardware and software to carry out the principles of the various described embodiments. Those skilled in the art will appreciate that the functional blocks described in FIG. 11 are optionally combined or separated into sub-blocks to implement the principles of the various described embodiments. Thus, the description herein optionally supports any possible combination or division or further definition of the functional blocks described herein.

図11に示されるように、ポータブル電子デバイス1100は、ポータブルデバイスナビゲーションインタフェースを表示するように構成されたポータブルデバイスディスプレイユニット1102と、車両の車両ディスプレイユニットと通信するように構成された通信インタフェースユニット1104と、任意選択的に、1つ以上のタッチ入力を受け取るように構成されたタッチ感知面ユニット1106と、ポータブルデバイスディスプレイユニット1102、通信インタフェースユニット1104、及び任意選択的に、タッチ感知面ユニット1106に結合された処理ユニット1108と、を含む。いくつかの実施形態では、処理ユニット1108は、取得ユニット1110と、表示可能化ユニット1112と、送信ユニット1114と、検出ユニット1116と、更新ユニット1118と、を含む。   As shown in FIG. 11, the portable electronic device 1100 is configured to communicate with a portable device display unit 1102 configured to display a portable device navigation interface and a vehicle display unit of a vehicle. And optionally, a touch sensitive surface unit 1106 configured to receive one or more touch inputs, a portable device display unit 1102, a communication interface unit 1104, and optionally, a touch sensitive surface unit 1106. And a combined processing unit 1108. In some embodiments, processing unit 1108 includes an acquisition unit 1110, a display enablement unit 1112, a transmission unit 1114, a detection unit 1116, and an update unit 1118.

処理ユニット1108は、複数の目的地候補を含む地図検索結果のセットを(例えば、取得ユニット1110を使用して)取得し、複数の目的地候補からの目的地の選択を可能にするポータブルデバイスナビゲーションインタフェースをポータブルデバイスディスプレイユニット1102上に表示することを(例えば、表示可能化ユニット1112を使用して)可能にし、車両ディスプレイユニットが車両ナビゲーションインタフェースの表示を可能にすることを可能にする情報を車両ディスプレイユニットに(例えば、送信ユニット1114を使用して)送信し、複数の目的地候補のうちの第1の目的地は車両ナビゲーションインタフェース内の選択された目的地である、ように構成される。処理ユニット1108は、第1の目的地が車両ナビゲーションインタフェース内の選択された目的地である間に、第1の目的地と異なる、複数の目的地候補のうちの1つ以上の目的地候補に関する情報の表示を可能にするための要求に対応する、ユーザからの第1の入力を(例えば、検出ユニット1116を使用して)検出し、第1の入力を検出したことに応じて、車両ディスプレイユニット上の車両ナビゲーションインタフェースを更新することなく、第1の入力に従ってポータブルデバイスディスプレイユニット1102上のポータブルデバイスナビゲーションインタフェースを(例えば、更新ユニット1118を使用して)更新し、第1の入力に従ってポータブルデバイスナビゲーションインタフェースを更新した後、複数の目的地候補のうちの第2の目的地を選択された目的地として選択するための要求に対応する、ユーザからの第2の入力を(例えば、検出ユニット1116を使用して)検出するようにも構成される。   The processing unit 1108 is a portable device navigation that obtains a set of map search results including multiple destination candidates (e.g., using the acquisition unit 1110) and allows selection of destinations from multiple destination candidates. A vehicle that allows information to be displayed on the portable device display unit 1102 (eg, using a display enable unit 1112) and allows the vehicle display unit to display a vehicle navigation interface The first destination of the plurality of potential destinations is configured to be transmitted to the display unit (e.g., using the transmitting unit 1114) and to be the selected destination in the vehicle navigation interface. The processing unit 1108 relates to one or more destination candidates out of a plurality of destination candidates different from the first destination while the first destination is a selected destination in the vehicle navigation interface. In response to detecting a first input from the user (e.g., using detection unit 1116) corresponding to the request to enable display of the information and detecting the first input, the vehicle display Update the portable device navigation interface on the portable device display unit 1102 according to the first input (for example using the update unit 1118) without updating the vehicle navigation interface on the unit, and according to the first input the portable device After updating the navigation interface, multiple destinations Are also configured to detect a second input from the user (eg, using detection unit 1116), corresponding to a request to select a second destination of the selected destinations as the selected destination. Ru.

いくつかの実施形態によれば、図12は、説明される様々な実施形態の原理に従って構成されたポータブル電子デバイス1200の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図12で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。   According to some embodiments, FIG. 12 shows a functional block diagram of a portable electronic device 1200 configured in accordance with the principles of the various described embodiments. The functional blocks of this device are optionally implemented by hardware, software or a combination of hardware and software to carry out the principles of the various described embodiments. Those skilled in the art will appreciate that the functional blocks described in FIG. 12 are optionally combined or separated into sub-blocks to implement the principles of the various described embodiments. Thus, the description herein optionally supports any possible combination or division or further definition of the functional blocks described herein.

図12に示されるように、電子デバイス1200は、第1のディスプレイ及び第2のディスプレイを含む複数のディスプレイと通信するように構成された通信インタフェースユニット1202を含む。いくつかの実施形態では、電子デバイス1200は、任意選択的に、ユーザインタフェースを表示するように構成されたディスプレイユニット1204と、1つ以上のタッチ入力を受け取るように構成されたタッチ感知面ユニット1206と、を含む。電子デバイス1200は、通信インタフェースユニット1202に結合され、かつ任意選択的に、ディスプレイユニット1204及びタッチ感知面ユニット1206に結合された、処理ユニット1208を更に含む。いくつかの実施形態では、処理ユニット1208は、受信ユニット1210と、選択ユニット1212と、送信ユニット1214と、生成ユニット1216と、判定ユニット1218と、更新ユニット1220と、検出ユニット1222と、地図更新ユニット1224と、を含む。   As shown in FIG. 12, the electronic device 1200 includes a communication interface unit 1202 configured to communicate with a plurality of displays, including a first display and a second display. In some embodiments, the electronic device 1200 optionally includes a display unit 1204 configured to display a user interface and a touch sensitive surface unit 1206 configured to receive one or more touch inputs. And. Electronic device 1200 further includes a processing unit 1208 coupled to communication interface unit 1202 and optionally coupled to display unit 1204 and touch sensitive surface unit 1206. In some embodiments, the processing unit 1208 includes a receiving unit 1210, a selecting unit 1212, a transmitting unit 1214, a generating unit 1216, a determining unit 1218, an updating unit 1220, a detecting unit 1222, a map updating unit And 1224.

処理ユニット1208は、複数の入力ソースのうちの第1の入力ソースによって検出された第1の入力を示す第1の入力情報を(例えば、受信ユニット1210を使用して)受信するように構成され、第1の入力情報は、第1の入力ソースに対する第1の識別子と、第1の入力を記述する第1の入力記述と、を含む。処理ユニット1208はまた、第1の識別子と、入力ソースを対応するディスプレイにマップする入力ソースマッピングと、に基づき、第1の影響を受けるディスプレイを複数のディスプレイから(例えば、選択ユニット1212を使用して)選択するように構成される。処理ユニット1208は、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を、第1の影響を受けるディスプレイに(例えば、送信ユニット1214を使用して)送信するように更に構成される。   The processing unit 1208 is configured to receive (eg, using the receiving unit 1210) first input information indicative of a first input detected by a first input source of the plurality of input sources. The first input information includes a first identifier for the first input source and a first input description describing the first input. The processing unit 1208 may also use a first affected display from the plurality of displays (eg, using the selection unit 1212) based on the first identifier and the input source mapping that maps the input source to the corresponding display. Configuration) to select. Processing unit 1208 sends update information to the first affected display (eg, using transmitting unit 1214) that enables the first affected display to be updated according to the first input. And so on.

いくつかの実施形態では、第1の影響を受けるディスプレイを選択することは、入力ソースマッピングにおいて、第1の入力ソースが第1のディスプレイに割り当てられているという判定に従って、第1のディスプレイを、第1の入力の影響を受ける、第1の影響を受けるディスプレイとして(例えば、選択ユニット1212を使用して)選択することと、入力ソースマッピングにおいて、第1の入力ソースが第1のディスプレイと異なる第2のディスプレイに割り当てられているという判定に従って、第2のディスプレイを、第1の入力の影響を受ける、第1の影響を受けるディスプレイとして(例えば、選択ユニット1212を使用して)選択することと、を含む。   In some embodiments, selecting the first affected display comprises, in the input source mapping, the first display according to the determination that the first input source is assigned to the first display, Selecting as a first affected display (e.g. using selection unit 1212) affected by the first input, and in input source mapping, the first input source is different from the first display Selecting the second display as a first affected display (e.g. using selection unit 1212) according to the determination that it is assigned to a second display; And.

いくつかの実施形態では、更新情報は、第1の入力に対応する情報を含む。   In some embodiments, the update information includes information corresponding to the first input.

いくつかの実施形態では、更新情報は、第1の影響を受けるディスプレイにおいて表示するための更新されたユーザインタフェースを含む。   In some embodiments, the update information includes an updated user interface for display on the first affected display.

いくつかの実施形態では、デバイスは、複数のディスプレイのうちの2つ以上のディスプレイに対するユーザインタフェースを生成し、それぞれのユーザインタフェースを対応するディスプレイに提供する。   In some embodiments, the device generates a user interface to two or more of the plurality of displays and provides each user interface to a corresponding display.

いくつかの実施形態では、処理ユニット1208は、更新情報を第1の影響を受けるディスプレイに送信する前に、第1の入力情報に基づき更新情報を(例えば、生成ユニット1216を使用して)生成するように構成され、処理ユニット1208は、第1の入力記述が第1の入力特性を記述するという判定に従って、第1の更新情報を(例えば、生成ユニット1216を使用して)生成するように構成され、処理ユニット1208は、第1の入力記述が第1の入力特性と異なる第2の入力特性を記述するという判定に従って、第1の更新情報と異なる第2の更新情報を(例えば、生成ユニット1216を使用して)生成するように構成される。   In some embodiments, processing unit 1208 generates update information (eg, using generation unit 1216) based on the first input information prior to transmitting the update information to the first affected display. Configured to generate the first update information (eg, using generation unit 1216) according to the determination that the first input description describes the first input characteristic. Configured and the processing unit 1208 generates second update information different from the first update information according to the determination that the first input description describes a second input characteristic different from the first input characteristic (e.g. Are configured to generate (using unit 1216).

いくつかの実施形態では、処理ユニット1208は、第1の影響を受けるディスプレイを選択した後、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態を(例えば、判定ユニット1218を使用して)判定し、第1の入力記述及び第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態に基づき、更新情報を(例えば、生成ユニット1216を使用して)生成するように構成される。   In some embodiments, after selecting the first affected display, the processing unit 1208 determines the status of each of the user interfaces displayed on the first affected display (e.g. Using the determination and generating update information (eg, using generation unit 1216) based on the first input description and the respective state of the user interface displayed on the first affected display Configured as.

いくつかの実施形態では、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態が第1の状態であるという判定に従って、更新情報は、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態に対する第1の動作を実行することに対応し、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態が、第1の状態と異なる第2の状態であるという判定に従って、更新情報は、第1の影響を受けるディスプレイ上に表示されたユーザインタフェースのそれぞれの状態に対する、第1の動作と異なる第2の動作を実行することに対応する。   In some embodiments, the update information is displayed on the first affected display in accordance with the determination that the state of each of the user interfaces displayed on the first affected display is the first state. And second state of each of the user interface displayed on the first affected display being different from the first state, corresponding to performing a first operation for each state of the selected user interface. According to the determination that it is a state, the update information corresponds to performing a second operation different from the first operation for each state of the user interface displayed on the first affected display.

いくつかの実施形態では、第1の入力情報を受信する前に、それぞれのユーザインタフェースは以前の状態を有し、処理ユニット1208は、第1の入力及びそれぞれのユーザインタフェースの以前の状態に基づき、ユーザインタフェースを以前の状態と異なる更新された状態に(例えば、更新ユニット1220を使用して)更新するように構成される。   In some embodiments, prior to receiving the first input information, each user interface has a previous state, and processing unit 1208 is based on the first input and the previous state of each user interface. , Configured to update the user interface to an updated state different from the previous state (eg, using the update unit 1220).

いくつかの実施形態では、処理ユニット1208は、複数のディスプレイのうちのそれぞれのディスプレイの可用性の変更を(例えば、検出ユニット1220を使用して)検出し、それぞれのディスプレイの可用性の変更を検出したことに応じて、それぞれのディスプレイの可用性の変更を示すために、入力ソースマッピングを(例えば、地図更新ユニット1224を使用して)更新する。   In some embodiments, processing unit 1208 detects a change in availability of each of the plurality of displays (eg, using detection unit 1220) and detects a change in availability of each of the displays In response, the input source mapping is updated (eg, using map update unit 1224) to indicate changes in the availability of the respective displays.

いくつかの実施形態では、処理ユニット1208は、それぞれの入力ソースが第1のディスプレイに割り当てられている間、複数の入力ソースのうちのそれぞれの入力ソースに対する、第1のディスプレイから第2のディスプレイへのディスプレイ割り当ての変更を(例えば、検出ユニット1222を使用して)検出するように構成される。また、処理ユニット1208は、それぞれの入力ソースに対するディスプレイ割り当ての変更を検出したことに応じて、それぞれの入力ソースに対するディスプレイ割り当ての変更を示すために、入力ソースマッピングを(例えば、地図更新ユニット1224を使用して)更新するように構成され、それによって、それぞれの入力ソースに関連付けられた入力を示す入力情報が、第1のディスプレイ上に表示されたユーザインタフェースを更新するために使用される代わりに、第2のディスプレイ上に表示されたユーザインタフェースを更新するために使用される。   In some embodiments, the processing unit 1208 may, while the respective input source is assigned to the first display, from the first display to the second display for the respective input source of the plurality of input sources. It is configured to detect a change in display assignment to (eg, using detection unit 1222). Processing unit 1208 may also include input source mapping (e.g., map update unit 1224 to indicate a change in display assignment for each input source in response to detecting a change in display assignment for each input source. ) Configured to update, whereby instead of the input information indicating the input associated with each input source being used to update the user interface displayed on the first display , Used to update the user interface displayed on the second display.

いくつかの実施形態では、処理ユニット1208は、第1の入力に従って第1の影響を受けるディスプレイを更新することを可能にする更新情報を送信した後、第1の入力ソースと異なる、複数の入力ソースのうちの第2の入力ソースによって検出された第2の入力を示す、第2の入力情報を(例えば、受信ユニット1210を使用して)受信するように構成され、第2の入力情報は、第2の入力ソースに対する第2の識別子と、第2の入力を記述する第2の入力記述と、を含む。処理ユニット1208はまた、第2の識別子及び入力ソースマッピングに基づき、第2の影響を受けるディスプレイを複数のディスプレイから(例えば、選択ユニット1212を使用して)選択し、第2の入力に従って第2の影響を受けるディスプレイを更新することを可能にする更新情報を、第2の影響を受けるディスプレイに(例えば、送信ユニット1214を使用して)送信するように構成される。   In some embodiments, the processing unit 1208 transmits a plurality of inputs different from the first input source after sending the update information enabling the first affected display to be updated according to the first input. Configured to receive second input information (e.g., using receiving unit 1210) indicating a second input detected by a second input source of the sources, the second input information being , A second identifier for the second input source, and a second input description describing the second input. The processing unit 1208 also selects a second affected display from the plurality of displays (e.g., using the selection unit 1212) based on the second identifier and the input source mapping, the second affected according to the second input. The update information is configured to be sent to the second affected display (eg, using the transmission unit 1214) that enables the affected display to be updated.

上述の情報処理方法での動作は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。   Operation with the above-described information processing method may be performed by one or more functional modules in an information processing device, such as a general purpose processor (e.g., as described above in connection with FIGS. 1A and 3) or an application specific chip. Is optionally implemented.

図7A〜図7D、図8A〜図8B、及び図9A〜図9Cを参照して上述された動作は、図1A〜図1B又は図10〜図12に示される構成要素によって、任意選択的に実施される。例えば、表示動作702、受信動作722、検出動作730及び738、更新動作742、取得動作802、送信動作806及び820、検出動作810及び814、更新動作812及び818、受信動作902及び928、特定動作904及び930、送信動作918及び932、及び/又は検出動作934及び936は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170内のイベントモニタ171は、タッチ感知ディスプレイ112上での接触を検出し、イベントディスパッチャモジュール174は、そのイベント情報を、アプリケーション136−1に配信する。アプリケーション136−1の対応のイベント認識部180は、そのイベント情報を対応のイベント定義186と照会し、タッチ感知面上の第1の場所での第1の接触(又は、デバイスの回転)が、ユーザインタフェース上のオブジェクトの選択、又は1つの向きから別の向きへのデバイスの回転などの、既定のイベント又はサブイベントに対応するか否かを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を、任意選択的に用いるか又は呼び出す。いくつかの実施形態では、イベントハンドラ190は、アプリケーションによって表示されるものを更新するために、対応するGUIアップデータ178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。   The operations described above with reference to FIGS. 7A-7D, 8A-8B, and 9A-9C are optionally performed by the components shown in FIGS. 1A-1B or 10-12. To be implemented. For example, display operation 702, reception operation 722, detection operation 730 and 738, update operation 742, acquisition operation 802, transmission operation 806 and 820, detection operation 810 and 814, update operation 812 and 818, reception operation 902 and 928, specific operation 904 and 930, send operations 918 and 932, and / or detection operations 934 and 936 are optionally implemented by event sorter 170, event recognizer 180, and event handler 190. An event monitor 171 in the event sorter 170 detects a touch on the touch sensitive display 112 and the event dispatcher module 174 delivers the event information to the application 136-1. The corresponding event recognizer 180 of the application 136-1 queries its event information with the corresponding event definition 186, and the first contact (or device rotation) at the first location on the touch sensitive surface is: It is determined whether it corresponds to a predetermined event or sub-event, such as selection of an object on the user interface or rotation of the device from one orientation to another. When a corresponding predefined event or sub-event is detected, the event recognizer 180 activates an event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally uses or invokes data updater 176 or object updater 177 to update application internal state 192. In some embodiments, event handler 190 accesses corresponding GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes are implemented based on the components shown in FIGS. 1A-1B.

前述の説明は、説明の目的上、特定の実施形態を参照して説明されている。しかしながら、上記の例示的な論考は、網羅的であること、又は本発明を、開示される厳密な形態に限定することを意図するものではない。上記の教示を鑑みて、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、及び想到される特定の用途に好適な様々な改良で本発明及び様々な実施形態を最良な形で使用することを可能とするために、これらの実施形態を選択し説明した。   The foregoing description, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussions above are not intended to be exhaustive or to limit the invention to the precise forms disclosed. Many modifications and variations are possible in view of the above teachings. The principles of the present invention and its practical applications are best described and the present invention and various embodiments are best described herein by various modifications suitable for the particular application envisaged by the skilled artisan and others. These embodiments have been selected and described to enable their use in form.

Claims (12)

車両の車両ディスプレイと通信する、携帯デバイス・ディスプレイを備える携帯電子デバイスにおいて、
複数の目的地候補を含む地図検索結果のセットを取得することと、
前記複数の目的地候補から目的地を選択可能な携帯デバイス・ナビゲーション・インタフェースを、前記携帯デバイス・ディスプレイ上に表示することと、
前記複数の目的地候補の中から第1の目的地を選択することと、
前記車両ディスプレイに車両ナビゲーション・インタフェースであって、前記複数の目的地候補のうち前記第1の目的地が、前記車両ナビゲーション・インタフェース内の選択された目的地である前記車両ナビゲーション・インタフェースを表示させることを可能とする情報を、前記車両ディスプレイに送信することと、
前記第1の目的地が前記車両ナビゲーション・インタフェース内の前記選択された目的地である間に、
前記複数の目的地候補のうちの前記第1の目的地以外の1つ以上の目的地候補に関する情報を表示するための要求に対応する、ユーザからの第1の入力を検出することと、
前記第1の入力を検出したことに応じて、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースが更新されること無しに、前記第1の入力に従って、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新することと、
前記第1の入力に従って前記携帯デバイス・ナビゲーション・インタフェースを更新した後、前記複数の目的地候補のうち第2の目的地を前記選択された目的地として選択するための要求に対応する、ユーザからの第2の入力を検出することと、
前記第2の入力を検出したことに応じて、
前記第2の入力に従って、前記第2の目的地を前記選択された目的地として表示するように、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新することと、
前記第2の目的地を前記選択された目的地として表示するように、前記車両ディスプレイが前記第2の入力に従って前記車両ナビゲーション・インタフェースを更新することを可能にする情報を前記車両ディスプレイに送信することと
前記第2の目的地を前記選択された目的地として前記第1の目的地の代わりに表示するように、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースを更新することを可能にする前記情報を送信した後、
ディスプレイ同期モードに入ることと、
前記ディスプレイ同期モードの間に、
前記携帯デバイス・ナビゲーション・インタフェースを時間の経過と共に定期的に更新することと、
前記携帯デバイス・ナビゲーション・インタフェースが時間の経過と共に更新されるにしたがって、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースを前記携帯デバイス・ナビゲーション・インタフェースと同期させることを可能にする情報を提供することと、
を含むことを特徴とする、方法。
A portable electronic device comprising a portable device display in communication with a vehicle display of a vehicle
Obtaining a set of map search results including multiple destination candidates;
Displaying a portable device navigation interface capable of selecting a destination from the plurality of candidate destinations on the portable device display;
Selecting a first destination from the plurality of destination candidates;
A vehicle navigation interface is displayed on the vehicle display, wherein the first destination of the plurality of destination candidates is the vehicle navigation interface which is a selected destination in the vehicle navigation interface Sending information to the vehicle display that enables the
While the first destination is the selected destination in the vehicle navigation interface,
Detecting a first input from a user corresponding to a request to display information about one or more destination candidates other than the first destination among the plurality of destination candidates;
The portable device navigation on the portable device display according to the first input, without the vehicle navigation interface on the vehicle display being updated in response to detecting the first input Updating the interface,
After updating the portable device navigation interface according to the first input, the user responds to a request for selecting a second destination of the plurality of destination candidates as the selected destination. Detecting the second input of the
In response to detecting the second input,
Updating the portable device navigation interface on the portable device display to display the second destination as the selected destination according to the second input;
Transmitting, to the vehicle display, information enabling the vehicle display to update the vehicle navigation interface according to the second input to display the second destination as the selected destination and that,
Transmitting the information enabling the vehicle navigation interface on the vehicle display to be updated to display the second destination as the selected destination instead of the first destination After
Entering display sync mode and
During the display sync mode,
Updating the mobile device navigation interface periodically over time;
Providing information enabling the vehicle navigation interface on the vehicle display to be synchronized with the mobile device navigation interface as the mobile device navigation interface is updated over time. ,
Method, characterized in that it comprises.
前記第1の入力を検出したことに応じて、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースが前記複数の目的地候補のうちの前記第1の目的地以外の1つ以上の目的地候補に関する情報を表示するように更新されることを可能にする情報を前記車両ディスプレイに提供することなく、前記携帯デバイス・ナビゲーション・インタフェースが更新されることを特徴とする、請求項1に記載の方法。   In response to the detection of the first input, the vehicle navigation interface on the vehicle display is information on one or more destination candidates other than the first destination among the plurality of destination candidates. The method according to claim 1, characterized in that the portable device navigation interface is updated without providing the vehicle display with information enabling it to be updated to display. 前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースが更新されること無しに、前記第1の入力に従って、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新することは、
前記車両ナビゲーション・インタフェース全体を前記第1の入力を検出する直前に表示されたように前記車両ディスプレイ上で維持しながら、前記第1の入力に従って、前記第2の目的地に関する情報を表示するように、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新することを含むことを特徴とする、請求項1又は2に記載の方法。
Updating the portable device navigation interface on the portable device display according to the first input without the vehicle navigation interface on the vehicle display being updated;
Displaying information about the second destination according to the first input while maintaining the entire vehicle navigation interface on the vehicle display as displayed immediately before detecting the first input The method according to claim 1 or 2, comprising updating the portable device navigation interface on the portable device display.
前記複数の目的地候補の中から前記第1の目的地を選択することでは、前記第1の目的地は、所定の目的地選択基準に基づき自動的に選択されることを特徴とする、請求項1から3のいずれか一項に記載の方法。   In selecting the first destination from the plurality of destination candidates, the first destination is automatically selected based on a predetermined destination selection criterion. The method according to any one of Items 1 to 3. 前記第1の入力を検出する前に、前記携帯デバイス・ナビゲーション・インタフェースは前記車両ナビゲーション・インタフェースと同期され、
前記第1の入力に応答した後で、かつ、前記第2の入力を検出する前は、前記携帯デバイス・ナビゲーション・インタフェースは前記車両ナビゲーション・インタフェースと同期されず、
前記第2の入力に応答した後、前記携帯デバイス・ナビゲーション・インタフェースは前記車両ナビゲーション・インタフェースと同期されることを特徴とする、請求項1から4のいずれか一項に記載の方法。
Before detecting the first input, the portable device navigation interface is synchronized with the vehicle navigation interface,
After responding to the first input and before detecting the second input, the portable device navigation interface is not synchronized with the vehicle navigation interface,
5. A method according to any one of the preceding claims, characterized in that the portable device navigation interface is synchronized with the vehicle navigation interface after responding to the second input.
前記車両ディスプレイは、前記携帯電子デバイスと異なる第2の電子デバイスに結合されたディスプレイであることを特徴とする、請求項1からのいずれか一項に記載の方法。 The vehicle display is characterized in that the a portable electronic device different from the second display coupled to the electronic device, the method according to any one of claims 1 to 5. 前記第2の電子デバイスは、ネイティブグラフィカルユーザインタフェースを有する車載エンターテイメントシステムを制御し、
前記車両ナビゲーション・インタフェースは、前記第2の電子デバイスの前記ネイティブグラフィカルユーザインタフェースの少なくとも一部の代わりに前記車両ディスプレイ上に表示されることを特徴とする、請求項に記載の方法。
The second electronic device controls an in-vehicle entertainment system having a native graphical user interface;
The method of claim 6 , wherein the vehicle navigation interface is displayed on the vehicle display in place of at least a portion of the native graphical user interface of the second electronic device.
前記携帯デバイス・ナビゲーション・インタフェース及び前記車両ナビゲーション・インタフェースの両方は、前記携帯電子デバイス上で実行されている同じアプリケーションによって生成されることを特徴とする、請求項に記載の方法。 The method according to claim 6 , characterized in that both the mobile device navigation interface and the vehicle navigation interface are generated by the same application running on the mobile electronic device. 携帯電子デバイスであって、
携帯デバイス・ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは、前記メモリ内に記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
複数の目的地候補を含む地図検索結果のセットを取得し、
前記複数の目的地候補から目的地を選択可能な携帯デバイス・ナビゲーション・インタフェースを、前記携帯デバイス・ディスプレイ上に表示し、
前記複数の目的地候補の中から第1の目的地を選択し、
前記携帯電子デバイスが通信している車両の車両ディスプレイに、前記車両ディスプレイが車両ナビゲーション・インタフェースであって、前記複数の目的地候補のうち前記第1の目的地が、前記車両ナビゲーション・インタフェース内の選択された目的地である前記車両ナビゲーション・インタフェースを表示することを可能にする情報を送信し、
前記第1の目的地が前記車両ナビゲーション・インタフェース内の前記選択された目的地である間に、
前記複数の目的地候補のうちの前記第1の目的地以外の1つ以上の目的地候補に関する情報を表示するための要求に対応する、ユーザからの第1の入力を検出し、
前記第1の入力を検出したことに応じて、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースが更新されること無しに、前記第1の入力に従って、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新し、
前記第1の入力に従って前記携帯デバイス・ナビゲーション・インタフェースを更新した後、前記複数の目的地候補のうち第2の目的地を前記選択された目的地として選択するための要求に対応する、ユーザからの第2の入力を検出し、
前記第2の入力を検出したことに応じて、
前記第2の入力に従って、前記第2の目的地を前記選択された目的地として表示するように、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新し、
前記第2の目的地を前記選択された目的地として表示するように、前記車両ディスプレイが前記第2の入力に従って前記車両ナビゲーション・インタフェースを更新することを可能にする情報を前記車両ディスプレイに送信
前記第2の目的地を前記選択された目的地として前記第1の目的地の代わりに表示するように、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースを更新することを可能にする前記情報を送信した後、
ディスプレイ同期モードに入り、
前記ディスプレイ同期モードの間に、
前記携帯デバイス・ナビゲーション・インタフェースを時間の経過と共に定期的に更新し、
前記携帯デバイス・ナビゲーション・インタフェースが時間の経過と共に更新されるにしたがって、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースを前記携帯デバイス・ナビゲーション・インタフェースと同期させることを可能にする情報を提供する
ための命令群を含むことを特徴とする、携帯電子デバイス。
A portable electronic device,
Mobile device display,
With one or more processors,
With memory
And one or more programs, wherein the one or more programs are stored in the memory and are configured to be executed by the one or more processors, the one or more programs are:
Get a set of map search results including multiple destination candidates,
A portable device navigation interface capable of selecting a destination from the plurality of destination candidates is displayed on the portable device display,
Select a first destination from the plurality of destination candidates;
In a vehicle display of a vehicle with which the portable electronic device is in communication, the vehicle display is a vehicle navigation interface, and the first destination among the plurality of destination candidates is within the vehicle navigation interface Transmitting information enabling to display the vehicle navigation interface which is the selected destination;
While the first destination is the selected destination in the vehicle navigation interface,
Detecting a first input from a user corresponding to a request to display information about one or more destination candidates other than the first destination among the plurality of destination candidates;
The portable device navigation on the portable device display according to the first input, without the vehicle navigation interface on the vehicle display being updated in response to detecting the first input・ Update the interface,
After updating the portable device navigation interface according to the first input, the user responds to a request for selecting a second destination of the plurality of destination candidates as the selected destination. Detects the second input of
In response to detecting the second input,
Updating the portable device navigation interface on the portable device display to display the second destination as the selected destination according to the second input;
The second destination to display as the selected destination, and transmits the information to the vehicle display makes it possible to update the vehicle navigation interface in accordance with said second input to the vehicle display ,
Transmitting the information enabling the vehicle navigation interface on the vehicle display to be updated to display the second destination as the selected destination instead of the first destination After
Enter display sync mode,
During the display sync mode,
Periodically updating the portable device navigation interface over time;
Providing information enabling the vehicle navigation interface on the vehicle display to be synchronized with the mobile device navigation interface as the mobile device navigation interface is updated over time <br A portable electronic device, characterized in that it comprises instructions for />.
前記1つ以上のプログラムは、請求項2からのいずれか一項に記載された方法を実行するための命令群を含むことを特徴とする、請求項9に記載の携帯電子デバイス。 10. A portable electronic device according to claim 9, wherein the one or more programs comprise instructions for performing the method according to any one of claims 2 to 8 . コンピュータ・プログラムであって、前記コンピュータ・プログラムは命令群を含み、前記命令群は、携帯デバイス・ディスプレイを備え、車両の車両ディスプレイと通信する携帯電子デバイスによって実行されると、前記携帯電子デバイスに、
複数の目的地候補を含む地図検索結果のセットを取得させ、
前記複数の目的地候補から目的地を選択可能な携帯デバイス・ナビゲーション・インタフェースを、前記携帯デバイス・ディスプレイ上に表示させ、
前記複数の目的地候補の中から第1の目的地を選択させ、
前記車両ディスプレイに車両ナビゲーション・インタフェースであって、前記複数の目的地候補のうち前記第1の目的地が、前記車両ナビゲーション・インタフェース内の選択された目的地である前記車両ナビゲーション・インタフェースを表示させることを可能とする情報を、前記車両ディスプレイに送信させ、
前記第1の目的地が前記車両ナビゲーション・インタフェース内の前記選択された目的地である間に、
前記複数の目的地候補のうちの前記第1の目的地以外の1つ以上の目的地候補に関する情報を表示するための要求に対応する、ユーザからの第1の入力を検出させ、
前記第1の入力を検出したことに応じて、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースが更新されること無しに、前記第1の入力に従って、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新させ、
前記第1の入力に従って前記携帯デバイス・ナビゲーション・インタフェースを更新した後、前記複数の目的地候補のうち第2の目的地を前記選択された目的地として選択するための要求に対応する、ユーザからの第2の入力を検出させ、
前記第2の入力を検出したことに応じて、
前記第2の入力に従って、前記第2の目的地を前記選択された目的地として表示するように、前記携帯デバイス・ディスプレイ上の前記携帯デバイス・ナビゲーション・インタフェースを更新させ、
前記第2の目的地を前記選択された目的地として表示するように、前記車両ディスプレイが前記第2の入力に従って前記車両ナビゲーション・インタフェースを更新することを可能にする情報を前記車両ディスプレイに送信させ
前記第2の目的地を前記選択された目的地として前記第1の目的地の代わりに表示するように、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースを更新することを可能にする前記情報を送信させた後、
ディスプレイ同期モードに入らせ、
前記ディスプレイ同期モードの間に、
前記携帯デバイス・ナビゲーション・インタフェースを時間の経過と共に定期的に更新させ、
前記携帯デバイス・ナビゲーション・インタフェースが時間の経過と共に更新されるにしたがって、前記車両ディスプレイ上の前記車両ナビゲーション・インタフェースを前記携帯デバイス・ナビゲーション・インタフェースと同期させることを可能にする情報を提供させる
ことを特徴とする、コンピュータ・プログラム。
A computer program, said computer program comprising instructions, said instructions comprising a portable device display, said instruction being executed by a portable electronic device in communication with a vehicle display of a vehicle, said portable electronic device ,
Get a set of map search results including multiple destination candidates,
A portable device navigation interface capable of selecting a destination from the plurality of destination candidates is displayed on the portable device display,
Select a first destination from the plurality of destination candidates,
A vehicle navigation interface is displayed on the vehicle display, wherein the first destination of the plurality of destination candidates is the vehicle navigation interface which is a selected destination in the vehicle navigation interface Sending information to the vehicle display to enable
While the first destination is the selected destination in the vehicle navigation interface,
Detecting a first input from the user corresponding to a request for displaying information on one or more destination candidates other than the first destination among the plurality of destination candidates,
The portable device navigation on the portable device display according to the first input, without the vehicle navigation interface on the vehicle display being updated in response to detecting the first input・ Update the interface,
After updating the portable device navigation interface according to the first input, the user responds to a request for selecting a second destination of the plurality of destination candidates as the selected destination. Detect the second input of
In response to detecting the second input,
Updating the portable device navigation interface on the portable device display to display the second destination as the selected destination according to the second input;
Transmitting to the vehicle display information enabling the vehicle display to update the vehicle navigation interface according to the second input to display the second destination as the selected destination ,
Transmitting the information enabling the vehicle navigation interface on the vehicle display to be updated to display the second destination as the selected destination instead of the first destination After
Enter display sync mode,
During the display sync mode,
Updating the portable device navigation interface periodically over time,
Provide information enabling the vehicle navigation interface on the vehicle display to be synchronized with the mobile device navigation interface as the mobile device navigation interface is updated over time <br A computer program characterized by
前記1つ以上のプログラムは、請求項2からのいずれか一項に記載された方法を実行するための命令群を含むことを特徴とする、請求項11に記載の、コンピュータ・プログラム。 A computer program according to claim 11 , characterized in that the one or more programs comprise instructions for performing the method according to any one of claims 2 to 8 .
JP2016518365A 2013-06-08 2014-05-30 Device, method and graphical user interface for synchronizing two or more displays Active JP6545155B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361832842P 2013-06-08 2013-06-08
US61/832,842 2013-06-08
US14/291,970 2014-05-30
US14/291,970 US9965035B2 (en) 2008-05-13 2014-05-30 Device, method, and graphical user interface for synchronizing two or more displays
PCT/US2014/040415 WO2014197339A1 (en) 2013-06-08 2014-05-30 Device, method, and graphical user interface for synchronizing two or more displays

Publications (2)

Publication Number Publication Date
JP2016529580A JP2016529580A (en) 2016-09-23
JP6545155B2 true JP6545155B2 (en) 2019-07-17

Family

ID=51228623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016518365A Active JP6545155B2 (en) 2013-06-08 2014-05-30 Device, method and graphical user interface for synchronizing two or more displays

Country Status (9)

Country Link
US (3) US11002558B2 (en)
EP (2) EP4009166A1 (en)
JP (1) JP6545155B2 (en)
KR (1) KR101947229B1 (en)
CN (2) CN105283840B (en)
AU (7) AU2014275224B2 (en)
DE (1) DE202014004560U1 (en)
HK (1) HK1219144A1 (en)
WO (1) WO2014197339A1 (en)

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
DE212014000045U1 (en) 2013-02-07 2015-09-24 Apple Inc. Voice trigger for a digital assistant
JP6545155B2 (en) 2013-06-08 2019-07-17 アップル インコーポレイテッドApple Inc. Device, method and graphical user interface for synchronizing two or more displays
JP2015007949A (en) * 2013-06-26 2015-01-15 ソニー株式会社 Display device, display controlling method, and computer program
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
EP3605286B1 (en) 2013-09-03 2021-02-17 Apple Inc. User interface for manipulating user interface objects
US10924603B1 (en) * 2014-03-01 2021-02-16 sigmund lindsay clements Phone map used to find and operate multiuser devices
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
CN116301544A (en) 2014-06-27 2023-06-23 苹果公司 Reduced size user interface
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016036415A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic message user interface
CN110072131A (en) 2014-09-02 2019-07-30 苹果公司 Music user interface
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
US10082892B2 (en) 2014-09-02 2018-09-25 Apple Inc. Button functionality
TWI676127B (en) 2014-09-02 2019-11-01 美商蘋果公司 Method, system, electronic device and computer-readable storage medium regarding electronic mail user interface
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
KR102458444B1 (en) * 2016-01-05 2022-10-25 삼성전자주식회사 Electronic device and method for operating thereof
CA3005631C (en) * 2016-03-30 2022-04-26 Google Llc Secondary computing device assistant
US10198072B2 (en) * 2016-06-08 2019-02-05 Immersion Corporation Haptic feedback for opportunistic displays
EP4134799A1 (en) * 2016-06-12 2023-02-15 Apple Inc. User interface for managing controllable external devices
CN115167745A (en) * 2016-09-06 2022-10-11 苹果公司 Apparatus and method for processing and disambiguating touch input
US10652337B2 (en) * 2016-09-07 2020-05-12 Thundar Power New Energy Vehicle Developmont Company Limited Passenger side display via a user portable device
AU2017101426B4 (en) * 2016-10-25 2018-03-15 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
US11237709B2 (en) 2016-10-25 2022-02-01 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
DK179492B1 (en) 2016-10-25 2019-01-08 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
KR20180071049A (en) * 2016-12-19 2018-06-27 삼성전자주식회사 Electronic device and image synchronizing method therof
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US10237209B2 (en) * 2017-05-08 2019-03-19 Google Llc Initializing a conversation with an automated agent via selectable graphical element
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. Low-latency intelligent automated assistant
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. Multi-modal interfaces
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
CN111343060B (en) 2017-05-16 2022-02-11 苹果公司 Method and interface for home media control
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN113311974B (en) * 2017-05-16 2024-09-06 苹果公司 Voice communication method
KR102395289B1 (en) * 2017-05-24 2022-05-09 현대자동차주식회사 Apparatus for managing display of vehicle
CN107415691B (en) * 2017-07-28 2020-11-20 上海仪电汽车电子系统有限公司 Centralized vehicle-mounted display control system
CN111031958B (en) * 2017-08-16 2023-09-15 柯惠有限合伙公司 Synthesizing spatially aware transitions between multiple camera viewpoints during minimally invasive surgery
EP4273696A3 (en) * 2017-10-03 2024-01-03 Google LLC Multiple digital assistant coordination in vehicular environments
JP6940365B2 (en) * 2017-10-12 2021-09-29 日立Astemo株式会社 Information updater
CN108163216B (en) * 2017-11-03 2022-06-28 中航通飞研究院有限公司 Low-cost avionics system
US10732916B2 (en) * 2017-11-28 2020-08-04 Ncr Corporation Multi-device display processing
EP3714356B1 (en) * 2018-01-04 2024-07-10 Harman International Industries, Incorporated Contextual and aware button-free screen articulation
EP3783903A1 (en) * 2018-04-27 2021-02-24 Spotify AB Media playback actions based on knob rotation
CN117376505A (en) 2018-05-07 2024-01-09 苹果公司 User interface for viewing live video feeds and recording video
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. Virtual assistant operation in multi-device environments
JP7176011B2 (en) * 2018-06-26 2022-11-21 グーグル エルエルシー Interfacing between digital assistant applications and navigation applications
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
DK179888B1 (en) 2018-09-11 2019-08-27 Apple Inc. CONTENT-BASED TACTICAL OUTPUTS
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN111107518A (en) * 2018-10-25 2020-05-05 上海博泰悦臻电子设备制造有限公司 Display method, vehicle-mounted terminal, display system and computer-readable storage medium
US10878805B2 (en) * 2018-12-06 2020-12-29 Microsoft Technology Licensing, Llc Expediting interaction with a digital assistant by predicting user responses
CN111309414B (en) * 2018-12-12 2023-07-18 荷兰移动驱动器公司 User interface integration method and vehicle-mounted device
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109976861B (en) * 2019-03-28 2023-01-10 北京小米移动软件有限公司 Interactive interface display method and device and storage medium
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
CN113748408A (en) 2019-05-31 2021-12-03 苹果公司 User interface for audio media controls
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
EP4004702A1 (en) * 2019-09-09 2022-06-01 Apple Inc. Research study user interfaces
US11455180B2 (en) 2019-10-11 2022-09-27 Google Llc Extensible computing architecture for vehicles
US11899757B2 (en) * 2019-12-02 2024-02-13 Cox Automotive, Inc. Systems and methods for temporary digital content sharing
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
CN111857910A (en) * 2020-06-28 2020-10-30 维沃移动通信有限公司 Information display method and device and electronic equipment
JP7527866B2 (en) * 2020-07-01 2024-08-05 キヤノン株式会社 PROGRAM, INFORMATION PROCESSING APPARATUS AND CONTROL METHOD
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
CN113961157B (en) * 2020-07-21 2023-04-07 华为技术有限公司 Display interaction system, display method and equipment
CN117215697A (en) * 2020-07-21 2023-12-12 联想(北京)有限公司 Control method and device
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN112181249A (en) * 2020-09-25 2021-01-05 北京字节跳动网络技术有限公司 Play control method and device, electronic equipment and storage medium
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
CN114764316A (en) * 2020-12-31 2022-07-19 华为技术有限公司 Focus synchronization method and electronic device
CN114816158A (en) * 2021-01-11 2022-07-29 华为技术有限公司 Interface control method and device, electronic equipment and readable storage medium
CN114765700B (en) * 2021-01-13 2023-07-14 腾讯科技(深圳)有限公司 Information interaction method and device, storage medium and electronic equipment
CN114793295B (en) * 2021-01-25 2023-07-07 腾讯科技(深圳)有限公司 Video processing method and device, electronic equipment and computer readable storage medium
CN112612570B (en) * 2021-03-08 2021-06-22 全时云商务服务股份有限公司 Method and system for viewing shielded area of application program
CN113094135B (en) * 2021-04-06 2023-05-30 北京字跳网络技术有限公司 Page display control method, device, equipment and storage medium
CN114302248B (en) * 2021-04-30 2024-04-12 海信视像科技股份有限公司 Display equipment and multi-window voice broadcasting method
CN116257196A (en) * 2021-12-09 2023-06-13 华为技术有限公司 Navigation information sharing method, electronic equipment and system
CN113997786B (en) * 2021-12-30 2022-03-25 江苏赫奕科技有限公司 Instrument interface display method and device suitable for vehicle
CN114379573B (en) * 2022-01-10 2024-05-24 海信集团控股股份有限公司 Vehicle and control method thereof
USD1042489S1 (en) * 2022-03-28 2024-09-17 Subaru Corporation Display screen or portion thereof with graphical user interface for automobile air-conditioning control
WO2024010109A1 (en) * 2022-07-06 2024-01-11 엘지전자 주식회사 Display device for vehicle and method for controlling same
CN115334293B (en) * 2022-07-11 2023-10-13 岚图汽车科技有限公司 Display system, projection control method thereof and main and auxiliary display systems
US11960668B1 (en) * 2022-11-10 2024-04-16 Honeywell International Inc. Cursor management methods and systems for recovery from incomplete interactions
US11954325B1 (en) 2023-04-05 2024-04-09 Honeywell International Inc. Methods and systems for assigning text entry components to cursors
CN116424243B (en) * 2023-04-12 2023-12-19 深圳市比纳瑞科技有限公司 Intelligent vehicle-mounted multimedia system control method and device

Family Cites Families (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3687840B2 (en) * 2000-06-29 2005-08-24 マツダ株式会社 Information processing apparatus for vehicle and information communication method for vehicle
US8380630B2 (en) * 2000-07-06 2013-02-19 David Paul Felsher Information record infrastructure, system and method
JP3980844B2 (en) * 2001-05-31 2007-09-26 富士通株式会社 GUIDANCE INFORMATION REQUEST DEVICE AND GUIDANCE INFORMATION PROVIDING DEVICE
JP4860847B2 (en) * 2001-09-03 2012-01-25 パイオニア株式会社 Communication navigation system and method, and computer program
JP4737900B2 (en) * 2001-09-28 2011-08-03 クラリオン株式会社 Mobile object approach warning system and method, and use side mobile terminal of mobile object approach warning system
JP2004028909A (en) * 2002-06-27 2004-01-29 Victor Co Of Japan Ltd In-vehicle radio communication system
US20040021681A1 (en) * 2002-07-30 2004-02-05 Liao Chin-Hua Arthur Dual-touch-screen mobile computer
US20040260438A1 (en) * 2003-06-17 2004-12-23 Chernetsky Victor V. Synchronous voice user interface/graphical user interface
US7689394B2 (en) * 2003-08-26 2010-03-30 Siemens Industry, Inc. System and method for remotely analyzing machine performance
JP2005140521A (en) * 2003-11-04 2005-06-02 Pioneer Electronic Corp Traffic situation informing system, its system, method, program, and recoding medium stored with program
US7035734B2 (en) * 2003-12-10 2006-04-25 Cisco Technology, Inc. Method and system for communicating navigation information
DE602004003789T2 (en) * 2004-02-26 2007-04-05 Alcatel Method for entering destination information via a mobile terminal
US7440290B2 (en) * 2004-05-17 2008-10-21 Qualcomm Incorporated Control systems
US20050281414A1 (en) * 2004-06-18 2005-12-22 Simon Gregory R Method and apparatus for control of personal digital media devices using a vehicle audio system
US8407347B2 (en) * 2004-11-19 2013-03-26 Xiao Qian Zhang Method of operating multiple input and output devices through a single computer
US8606516B2 (en) 2004-11-30 2013-12-10 Dash Navigation, Inc. User interface system and method for a vehicle navigation device
US20060123359A1 (en) * 2004-12-03 2006-06-08 Schatzberger Richard J Portable electronic device having user interactive visual interface
EP1828887A1 (en) * 2004-12-14 2007-09-05 Bayerische Motoren Werke Aktiengesellschaft System for using at least one mobile terminal in a motor vehicle using an updating device
JP2006246113A (en) 2005-03-04 2006-09-14 Matsushita Electric Ind Co Ltd Operating system and terminal to be operated
US7953513B2 (en) * 2005-03-15 2011-05-31 Siemens Industry, Inc. Systems, devices, and methods for automation control
US7552009B2 (en) 2005-07-14 2009-06-23 Honda Motor Co., Ltd. System and method for synchronizing data for use in a navigation system
CA2559684C (en) * 2005-09-16 2013-12-31 User-Centric Enterprises, Inc. User-centric event reporting
US8136138B2 (en) * 2005-12-15 2012-03-13 Visteon Global Technologies, Inc. Display replication and control of a portable device via a wireless interface in an automobile
WO2007098585A1 (en) * 2006-02-28 2007-09-07 Phenomenome Discoveries Inc. Methods for the diagnosis of dementia and other neurological disorders
US7669142B2 (en) 2006-02-28 2010-02-23 Microsoft Corporation Viewable and actionable search results
WO2007114226A1 (en) 2006-03-31 2007-10-11 Pioneer Corporation Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device
TW200808076A (en) * 2006-07-26 2008-02-01 Mitac Int Corp Method and portable electronic device for automatically switching loudspeaker output
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7877204B2 (en) 2006-11-24 2011-01-25 Qualcomm Incorporated System and method for sending destination locations to navigation devices
ATE543691T1 (en) * 2006-12-20 2012-02-15 Johnson Controls Tech Co REMOTE DISPLAY PLAYBACK SYSTEM AND METHOD
JP2008170157A (en) * 2007-01-05 2008-07-24 United Video Properties Inc Electronic program guide for mobile navigation apparatus, destination information providing method, and device
JPWO2008117586A1 (en) 2007-03-28 2010-07-15 株式会社Access Content reproduction system, content reproduction / control apparatus, and computer program
US7881744B2 (en) * 2007-04-10 2011-02-01 Research In Motion Limited Media transfer and control system
US8265617B2 (en) * 2007-04-10 2012-09-11 Research In Motion Limited Media transfer and control system
US8180379B2 (en) 2007-06-28 2012-05-15 Apple Inc. Synchronizing mobile and vehicle devices
US8024511B2 (en) * 2007-08-31 2011-09-20 Siemens Industry, Inc. Systems, devices, and/or methods to access synchronous RAM in an asynchronous manner
RU2010114738A (en) * 2007-09-14 2011-10-20 Томтом Интернэшнл Б.В. (Nl) COMMUNICATION DEVICE, SYSTEM AND METHOD OF PROVIDING USER INTERFACE
JP2009140488A (en) 2007-11-14 2009-06-25 Fujitsu Ten Ltd On-vehicle device and display control system
JP2009137392A (en) * 2007-12-05 2009-06-25 Mitsubishi Electric Corp Display control device
JP5623287B2 (en) * 2007-12-05 2014-11-12 ジョンソン コントロールズテクノロジーカンパニーJohnson Controls Technology Company Vehicle user interface system and method
JP2009154647A (en) * 2007-12-26 2009-07-16 Aisin Aw Co Ltd Multi-screen display and program of the same
US20090182562A1 (en) * 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
US8588814B2 (en) * 2008-02-05 2013-11-19 Madhavi Jayanthi Client in mobile device for sending and receiving navigational coordinates and notifications
JP4524763B2 (en) 2008-03-25 2010-08-18 株式会社デンソー Automotive information provision system
JP4390006B2 (en) 2008-04-01 2009-12-24 トヨタ自動車株式会社 Car navigation device, portable information terminal, and car navigation system
US20130275899A1 (en) 2010-01-18 2013-10-17 Apple Inc. Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts
US9965035B2 (en) 2008-05-13 2018-05-08 Apple Inc. Device, method, and graphical user interface for synchronizing two or more displays
US20090284476A1 (en) 2008-05-13 2009-11-19 Apple Inc. Pushing a user interface to a remote device
US8970647B2 (en) * 2008-05-13 2015-03-03 Apple Inc. Pushing a graphical user interface to a remote device with display rules provided by the remote device
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100064053A1 (en) 2008-09-09 2010-03-11 Apple Inc. Radio with personal dj
US20100293462A1 (en) 2008-05-13 2010-11-18 Apple Inc. Pushing a user interface to a remote device
US9870130B2 (en) 2008-05-13 2018-01-16 Apple Inc. Pushing a user interface to a remote device
EP2318807B1 (en) * 2008-08-11 2012-12-26 Telcordia Technologies, Inc. System and method for using networked mobile devices in vehicles
JP2010130369A (en) * 2008-11-27 2010-06-10 Fujitsu Ten Ltd On-board device and remote control system
US20100127996A1 (en) * 2008-11-27 2010-05-27 Fujitsu Ten Limited In-vehicle device, remote control system, and remote control method
JP2010130669A (en) 2008-12-01 2010-06-10 Fujitsu Ten Ltd In-vehicle device and wireless communication system
RU2523192C2 (en) * 2008-12-22 2014-07-20 Теле Атлас Норт Америка, Инк. Methods, devices and map databases for green routing
EP2370784B1 (en) * 2008-12-30 2013-06-05 TomTom North America Inc. A method and system for transmitting and/or receiving at least one location reference, enhanced by at least one focusing factor
CN102256832A (en) 2009-02-10 2011-11-23 丰田自动车株式会社 On-vehicle information processing device and method
US8942922B2 (en) * 2009-03-30 2015-01-27 Denso International America, Inc. Navigation location mark by cell phone
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) * 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9916625B2 (en) * 2012-02-02 2018-03-13 Progressive Casualty Insurance Company Mobile insurance platform system
US8928551B2 (en) 2009-07-07 2015-01-06 Village Green Technologies, LLC Multiple displays for a portable electronic device and a method of use
US20110034128A1 (en) * 2009-08-05 2011-02-10 Kirsch David M Mobile Communication Device Linked to In-Vehicle System
GB0915515D0 (en) 2009-09-04 2009-10-07 Ucl Business Plc Treatment of vasculoproliferative conditions
AU2012101470B4 (en) * 2010-01-18 2013-05-16 Apple Inc. Prioritizing selection criteria by automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US20110188197A1 (en) * 2010-02-03 2011-08-04 Craig Jackson Integrated audio and video port for portable electonic devices
US20110239142A1 (en) 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing content over multiple displays
US20110247013A1 (en) * 2010-04-01 2011-10-06 Gm Global Technology Operations, Inc. Method for Communicating Between Applications on an External Device and Vehicle Systems
FR2959327B1 (en) * 2010-04-21 2013-03-08 Delphi Tech Inc SYSTEM FOR RECORDING AND CONSULTING VOICE MESSAGES
US20120041633A1 (en) * 2010-08-16 2012-02-16 Ford Global Technologies, Llc Systems and methods for regulating control of a vehicle infotainment system
CN105333884B (en) * 2010-09-17 2018-09-28 歌乐株式会社 Inter-vehicle information system, car-mounted device, information terminal
US8565963B2 (en) * 2010-09-23 2013-10-22 Xerox Corporation Method and system for remotely tracking vehicle-centric data and user-centric data
JP5234160B2 (en) 2011-03-23 2013-07-10 株式会社デンソー Vehicle apparatus and information display system
US8781730B2 (en) 2011-04-11 2014-07-15 Garmin Switzerland Gmbh Route selection employing metrics
WO2012141294A1 (en) * 2011-04-15 2012-10-18 クラリオン株式会社 Information terminal, on-board information system, on-board device, and information terminal program
US9285944B1 (en) 2011-04-22 2016-03-15 Angel A. Penilla Methods and systems for defining custom vehicle user interface configurations and cloud services for managing applications for the user interface and learned setting functions
US20120321112A1 (en) * 2011-06-16 2012-12-20 Apple Inc. Selecting a digital stream based on an audio sample
GB2492789B (en) 2011-07-12 2018-01-03 Denso Corp Displays
JP5857535B2 (en) * 2011-08-29 2016-02-10 アイシン・エィ・ダブリュ株式会社 Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP2013053942A (en) * 2011-09-05 2013-03-21 Panasonic Corp Navigation device and drive support system using same
CN108337380B (en) 2011-09-30 2022-08-19 苹果公司 Automatically adjusting user interface for hands-free interaction
KR101302363B1 (en) * 2011-10-05 2013-09-06 팅크웨어(주) Electronic device and method for controlling of the same
US8947202B2 (en) * 2011-10-20 2015-02-03 Apple Inc. Accessing a vehicle using portable devices
US9116563B2 (en) * 2011-10-28 2015-08-25 Honda Motor Co., Ltd. Connecting touch screen phones in a vehicle
JP5921162B2 (en) * 2011-11-24 2016-05-24 富士通テン株式会社 Vehicle device, destination setting method, and program
US8847791B1 (en) * 2011-12-08 2014-09-30 Google Inc. Systems and methods for determining parking difficulty of segments of a geographic area
US8433463B1 (en) * 2012-02-09 2013-04-30 Nordic Capital Partners, LLC Vehicular dual mode master/slave interface
US9336827B2 (en) 2012-04-11 2016-05-10 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for browsing a mobile device with an in-vehicle user interface
US9431012B2 (en) * 2012-04-30 2016-08-30 2236008 Ontario Inc. Post processing of natural language automatic speech recognition
US20130297604A1 (en) * 2012-05-01 2013-11-07 Research In Motion Limited Electronic device and method for classification of communication data objects
US10296516B2 (en) 2012-05-21 2019-05-21 Here Global B.V. Method and apparatus for navigation using multiple synchronized mobile devices
KR101919788B1 (en) 2012-05-31 2018-11-19 엘지전자 주식회사 Mobile terminal and method for controlling thereof
WO2014003805A1 (en) 2012-06-28 2014-01-03 Massachusetts Institute Of Technology Coherent transmission from distributed wireless transmitters using legacy receivers
CN102810117B (en) * 2012-06-29 2016-02-24 北京百度网讯科技有限公司 A kind of for providing the method and apparatus of Search Results
CN102724329A (en) * 2012-07-05 2012-10-10 深圳市路畅科技股份有限公司 Control method of in-car navigator
US20140026088A1 (en) 2012-07-17 2014-01-23 Sap Ag Data Interface Integrating Temporal and Geographic Information
CN102759359A (en) * 2012-07-18 2012-10-31 深圳市凯立德科技股份有限公司 Positioning navigation apparatus interacted with mobile terminal and interaction method of apparatus
CN104704461B (en) * 2012-09-06 2018-04-27 丰田自动车株式会社 Mobile communication terminal, car-mounted device and onboard system
CN102930263A (en) * 2012-09-27 2013-02-13 百度国际科技(深圳)有限公司 Information processing method and device
US8958981B2 (en) 2012-11-06 2015-02-17 Cheng-Yu Wang Near field communication mobile device and navigation device communication system
US9794134B2 (en) 2012-11-16 2017-10-17 Apple Inc. System and method for negotiating control of a shared audio or visual resource
EP2945090A4 (en) * 2013-01-10 2016-08-17 Nec Corp Terminal, unlocking method, and program
CN103118176A (en) * 2013-01-16 2013-05-22 广东好帮手电子科技股份有限公司 Method and system for achieving mobile phone voice control function through on-board host computer
US9619131B2 (en) 2013-02-22 2017-04-11 Blackberry Limited Methods and devices for displaying content
US10251034B2 (en) * 2013-03-15 2019-04-02 Blackberry Limited Propagation of application context between a mobile device and a vehicle information system
US9719797B2 (en) 2013-03-15 2017-08-01 Apple Inc. Voice and touch user interface
US9300779B2 (en) * 2013-03-15 2016-03-29 Blackberry Limited Stateful integration of a vehicle information system user interface with mobile device operations
US9891068B2 (en) 2013-06-08 2018-02-13 Apple Inc. Mapping application search function
US20140343753A1 (en) * 2013-05-15 2014-11-20 Honda Motor Co., Ltd. System and method for vehicle interface extension and control
JP6545155B2 (en) 2013-06-08 2019-07-17 アップル インコーポレイテッドApple Inc. Device, method and graphical user interface for synchronizing two or more displays

Also Published As

Publication number Publication date
US20180253148A1 (en) 2018-09-06
US20210190525A1 (en) 2021-06-24
KR101947229B1 (en) 2019-02-12
KR20160014047A (en) 2016-02-05
AU2014100584B4 (en) 2015-03-05
AU2019213441B9 (en) 2021-03-11
CN110413357A (en) 2019-11-05
AU2022224855B2 (en) 2024-05-02
AU2021201449A1 (en) 2021-03-25
AU2019213441A1 (en) 2019-08-29
US20230324196A1 (en) 2023-10-12
AU2022224855A1 (en) 2022-09-29
DE202014004560U1 (en) 2014-09-12
EP2992418A1 (en) 2016-03-09
AU2021201449B2 (en) 2022-06-23
US11002558B2 (en) 2021-05-11
AU2014100584A4 (en) 2014-07-03
US11692840B2 (en) 2023-07-04
EP2992418B1 (en) 2022-02-16
CN105283840A (en) 2016-01-27
AU2019213441C1 (en) 2021-06-03
WO2014197339A1 (en) 2014-12-11
AU2019213441B2 (en) 2021-01-28
AU2024205472A1 (en) 2024-08-22
CN110413357B (en) 2022-09-06
EP4009166A1 (en) 2022-06-08
AU2017268569A1 (en) 2017-12-21
AU2014275224A1 (en) 2015-12-24
AU2017268569B2 (en) 2019-06-13
CN105283840B (en) 2019-07-05
AU2014275224B2 (en) 2017-08-31
HK1219144A1 (en) 2017-03-24
JP2016529580A (en) 2016-09-23

Similar Documents

Publication Publication Date Title
AU2022224855B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
US9965035B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
JP7344997B2 (en) DEVICES, METHODS, AND GRAPHICAL USER INTERFACE FOR PROVIDING NAVIGATION AND SEARCH FEATURES
JP7158527B2 (en) Viewing options, assigning notifications, ignoring messages, and displaying user interfaces simultaneously in messaging applications
CN110083411B (en) Apparatus and method for generating user interface from template
WO2017218073A1 (en) Accelerated scrolling
CN110837275A (en) Switching from using one device to another
WO2015184163A1 (en) Structured suggestions
CN112631484A (en) Position determination using communicatively coupled electronic devices
WO2016164181A1 (en) Gesture controlled display of content items

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170731

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180620

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190618

R150 Certificate of patent or registration of utility model

Ref document number: 6545155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250